Предприниматель Элон Маск из Силиконовой долины не собирается создавать ракетную технику для колонизации Марса или инновационные технологии хранения энергии на Земле, он обеспокоен тем, что искусственный интеллект (ИИ), когда-нибудь может выйти из под контроля и будет представлять опасность для человечества. Теперь Маск помогает финансировать фонд, недавно анонсированный группой научно-исследовательских проектов, занимающихся проблемами контроля над ИИ.
Расположенный в Бостоне институт Future of Life получил $ 7 млн. от Элона Маска и благотворительного проекта на финансирование 37 исследовательских групп по всему миру. В список грантополучателей входят коллективы, которые разрабатывают ИИ, благотворно влияющие на развитие промышленности и позволяющие сохранить под контролем человека боевое оружие с элементами ИИ. Подобные исследования позволят обществу пользоваться плодами от усовершенствованных систем ИИ, сведя при этом к минимуму потенциальные опасности.
«Создание совершенной системы ИИ подобно запуску ракеты", - говорит Яан Таллинн, один из основателей института Future of Life. "Первая задача заключается в максимизации ускорения, но как только начинается набор скорости, вы также должны обратить особое внимание на управление."
Около 300 научно-исследовательских проектов обратились с заявлениями на получение грантов от института Future of Life после публикации в январе открытого письма, которое призывает исследователей к «удержанию ИИ в рамках надежности и целесообразности." Письмо подписали через Facebook исследователи ИИ, представители IBM, Microsoft и основатели компании Google DeepMind Technologies, а также другие деятели науки, представители некоммерческих организаций и промышленности. Но не стоит постоянно бояться путешествующих во времени роботов, которые намерены уничтожения всех нас. Паскаль Закари, профессор из университета штата Аризона, недавно сообщил о том, что человечество может начать формирование ИИ, прежде чем он воздействует на нас.
Мрачные фантазии о роботах-убийцах, как правило, нужны чтобы отвлечь внимание людей от более актуальных проблем, например, как ИИ повлияет на занятость населения, как роботы писатели и художники могут формы восприятия человеком творческого контента, и кто несет ответственность за несчастные случаи с участием автономных процессов, сказал Захари.
Судя по списку получивших недавно финансирование исследований по ИИ, можно надеяться, что начнется решение некоторых из этих проблем. Аналогична взглядам Закари позиция институт Future of Life, так как подчеркивается различие между фантазиями Голливуда на тему «Терминатора» и реальностью.
Опасность со сценарием Терминатора не том, что это произойдет, а в том что это отвлекает от реальных проблем, связанных с будущим ИИ, сказал Макс Тегмарк, президент Future of Life. «И все-таки, 37 команд иследователей, поддерживаемых сегодня грантами, должны помочь в решении таких актуальных проблем."
Комментарии
(0) Добавить комментарий