Стартап Affectiva, несколько лет назад основанный исследователями из Media Lab в Массачусетском технологическом институте (MIT), объявил о новом облачном API, способном распознавать эмоции в речи человека.
Сейчас искусственный интеллект не определяет интонации и не может отличить шутку от серьезного вопроса.
С помощью новой технологии от Affectiva голосовые помощники, боты и другие устройства вскоре смогут научиться понимать эмоции, эффективнее отвечая на запросы пользователей.
Разработчики отмечают, что важная задача искусственного интеллекта – построить «эмоциональные отношения» с пользователем. В этом заинтересованы не только владельцы магазинов, но и, например, производители автомобилей, которым важно понимать эмоциональное состояние водителя и пассажиров – оно может повлиять на безопасность. В целом, любая компания только выиграла бы от возможности определить эмоции клиентов, звонящих в службу поддержки.
Команда Affectiva уже около года работает над определением эмоций в голосе человека. Это непростая задача, учитывая разнообразие языков и культурных кодов, которые нельзя назвать глобальными. В компании собирают данные в открытом доступе и в ходе собственных исследований. Группы людей прослушивают записи участников тестирования и определяют эмоции. Каждый из прослушивающих предварительно проходит обучение, а оценки принимаются только в том случае, если совпали оценки хотя бы трех из пяти членов команды.
В Affectiva понимают, что собранные данные – это только начало. Заявление о доступности API призвано привлечь партнеров к продолжению разработок. Исследователи стремятся объединить усилия с другими заинтересованными сторонами, чтобы ускорить усовершенствование проекта.
Комментарии
(0) Добавить комментарий