При той скорости, с которой совершенствуется ИИ, сотни робототехников и ученых посчитали необходимым составить перечень основных принципов, приоритетов и предостережений, которые должны учитываться при разработке эффективного с практической точки зрения ИИ, чтобы обеспечить безопасность и соответствие этическим нормам.
Этот список является детищем Института Future of Life – организации, которая призвана помочь человечеству осваивать новые технологии с учетом возникающих рисков. Среди известных членов этого института Стивен Хокинг и Илон Маск, а также есть группа специалистов, занимающихся исследованием потенциальных угроз для человечества со стороны ИИ, биотехнологий, ядерного оружия и в связи с изменением климата.
Прошедшая в январе конференция Beneficial Artificial Intelligence (BAI) 2017 собрала группу ведущих исследователей ИИ из университетов и компаний, чтобы обсудить будущее и основы регулирования искусственного интеллекта. Перед началом конференции был проведен опрос мнения участников о приоритетах развития и управления ИИ в ближайшие годы. Полученные ответы стали основой перечня тем для обсуждения. После всестороннего обсуждения каждой темы и после согласования среди 90% участников она включалась в окончательный список тем.
Полный перечень руководящих принципов при создании ИИ можно считать расширенной версией трех знаменитых законов робототехники Айзека Азимова. Все 23 принципа сгруппированы по трем областям:
- темы исследований;
- этика и ценности;
- перспективные задачи.
«Темы исследования» охватывают ответственность занимающихся разработкой ИИ ученых и исследователей и «острые проблемы», потенциально возникающие во взаимодействии с информатикой, экономикой, правовыми законами, этикой и социальными вопросами. Среди поднятых проблем – тема создания ИИ, который не должен стать самоцелью вместо того, чтобы использовать преимущества технологии для совершенствования систем автоматизации, при условии, что люди не слишком отстранены от процесса принятия решений.
Пожалуй, наиболее интересной и обсуждаемой была тема: «Какая система ценностей должна приниматься во внимание ИИ, и какой юридический и этический статус должен иметь ИИ?»
Некоторые из затронутых на конференции тем уже рассматриваются на практике. Исследователи, работающие в проекте Google DeepMind, обсуждают сейчас, как реализовать т. н. «большую красную кнопку», чтобы при необходимости вмешаться в действия робота, когда они становятся неадекватными заданной программе.
Комментарии
(0) Добавить комментарий