Одним из барьеров на пути создания соответствующих этическим требованиям систем ИИ, которые не имеют ошибок, встроенных алгоритмических погрешностей, является отсутствие у разработчиков авторской ответственности за этические аспекты технологии, считают руководители ассоциации инженеров по электронике и электротехнике (IEEE).
Организация опубликовала первую версию рамочного документа, надеясь что он задаст основные направления развития и позволит специалистам разрабатывать благожелательные и полезные автономные системы с учетом этических аспектов.
Документ под названием «Этически согласованное проектирование» (Ethically Aligned Design) включает ряд подробных рекомендаций на основе мнений более чем 100 авторитетных специалистов в области ИИ, науки, государственного и корпоративного управления, права и этики, философии и политики.
IEEE надеется, что он станет одним из основных справочных материалов для разработчиков ИИ/АС (искусственного интеллекта/автономных систем), так как автономные технологии в ближайшие годы будут все более активно встраиваться в различные системы. На сайте IEEE принимаются отзывы к этому документу от заинтересованных сторон. Все комментарии и материалы будут опубликованы и должны быть поданы не позднее 6 марта 2017 года.
«Предоставляя практические рекомендации по созданию соответствующих этическим требованиям автономных и интеллектуальных продуктов, сервисов и систем, мы поможем преодолеть страхи, связанные с этими технологиями, и обеспечить значимые результаты для настоящего и будущего», - говорит Константинос Карачалиос, управляющий директор по стандартам ассоциации IEEE.
Документ на 136 страницах разделен на несколько разделов, начиная с ряда общих принципов, таких как необходимость соблюдения прав человека со стороны ИИ, ответственность и прозрачная работа автоматизированных решений. Более специфические области включают встраивание в системы соответствующих человеческих норм или ценностей, решение потенциальных отклонений, достижение доверия.
IEEE отмечает также отсутствие независимой контрольной экспертной организации для наблюдения за алгоритмическими операциями и использование компонентов «черного ящика» при создании алгоритмов, как и другие проблемы по соблюдению этических норм для ИИ.
IEEE также выступает за создание стандартов, обеспечивающих контроль за процессом производства интеллектуальных и автономных технологий, чтобы обеспечить конечным пользователям отсутствие вреда в итоговых результатах. Инженеры должны признать и оценить этические риски, связанные с использованием «закрытого» программного обеспечения, и реализовать стратегии по смягчению последствий, где это возможно, отмечает IEEE.
В этом году этические вопросы и проблемы ответственности в отношении ИИ поднимаются в социальной и политической повестке дня, частично подстегиваемые такими скандальными алгоритмическими сбоями, как неспособность Facebook отфильтровать фальшивые новости.
Белый дом США представил свой отчет о разработках в области ИИ. А осенью парламентский комитет Великобритании предупредил правительство о необходимости предусмотреть меры, чтобы обеспечить подотчетность ИИ.
Комментарии
(0) Добавить комментарий