Истории о расистских выходках ИИ и терпящих аварии автомобилях без водителей могут заставить нас подумать о том, что искусственный интеллект все еще находится в ранней стадии развития. Но при том, что эти горячие новостные заголовки выявляют проблемы неисследованных областей технологии, ИИ уже встроен во многих системах, которые мы используем каждый день.
Эти ежедневные применения достаточно разнообразны – от систем обнаружения мошенничества, которые осуществляют мониторинг транзакций по кредитным картам, до фильтрации электронной почты, чтобы спам не забивал ваш почтовый ящик. Вы, наверное, уже взаимодействовали с системой ИИ даже сегодня, не зная об этом и, возможно, остались довольны.
Одну из наиболее распространенных форм ИИ можно найти в интернете в виде чатботов. Этот тип программного обеспечени может вести беседу с пользователем. Один из примеров – технология iPhone Siri. А экспериментальный аккаунт Microsoft в Twitter, который обучал пользователей языку, в итоге начал пользоваться фразами с расистским смыслом. Но многие веб-сайты и приложения используют чатботов, чтобы позволить людям заказать услуги или найти конкретную информацию, не опускаясь до фанатизма.
Существует много различных подходов для того, чтобы делать эти цифровые машины, имитирующими поведение интеллигентного человека. Объединяющей все системы чертой являются огромные объемы обрабатываемых данных, которые они получают из своего окружения.
Обучение чатботов может длиться месяцами, затем с помощью сложных статистических методов ищутся часто используемые модели поведения. Например, фраза «Спасибо, прекрасно!» часто используется в ответ на вопрос «Как дела?». Чаще всего ИИ не будет по-настоящему «понимать», что он говорит. Он будет просто повторять то, что он ранее встречал.
Разговор с другим человеком на самом деле довольно сложен. Мы уже знаем, что люди будут по-разному взаимодействовать с человеком и машиной. Они меньше доверяют ИИ, не откровенничают с ним, будут говорить с роботом проще, чем с живыми людьми. В действительности, есть свидетельства, что чем больше машина пытается имитировать человеческий разговор, тем более это отталкивает. Ситуация похожа на т. н. эффект «зловещей долины», который происходит при общении с наиболее человекоподобными роботами.
Так как же мы можем создать систему ИИ, которая наиболее приемлема для людей? Во-первых, необходимо больше лучших примеров правильного поведения, чтобы ИИ делал меньше ошибок. Люди должны начать работать рука об руку с машинами для формирования поведенческих систем ИИ.
Очевидно, что люди меньше всего доверяют ошибающимся системам. Но они также не хотят, чтобы ИИ действовал сам по себе, без какого-либо подтверждения. Например, если вы знаете, что система часто неправильно понимает вас, то Вы не хотели бы, чтобы она набрала номер телефона, не проверив его правильность. Система также должна ясно дать понять пользователю, что это робот.
Можно надеяться, что системы ИИ становятся все более точными и более интегрированными в повседневную жизнь, но надо быть готовыми к тому, что будут также и серьезные неудачи.
Все больше и больше компаний сегодня начинает с определенным успехом интегрировать ИИ в свои системы и средства. Nest Learning Thermostat от Google запоминает ваше расписание и делает изменения, в зависимости от его использования. Это лишь один наглядный пример, но существует огромное количество стартапов, которые сейчас используют возможности ИИ, чтобы обеспечить персонализированный интерфейс для потребителей. Успехи в развитии информатики стимулируют сегодня повсеместный интерес к системам с ИИ и он будет только возрастать.
Комментарии
(0) Добавить комментарий