Не стоит думать, что искусственный интеллект автоматически лишен порой присущих человечеству предрассудков в отношении расы и пола людей. Напротив, алгоритмы машинного обучения (МО), используемые в наиболее совершенных версиях ИИ для многих онлайн-сервисов и приложений, могут легко имитировать эти предубеждения, которые будут запрограммированы в процессе обучения.
Недавно проведенное исследование показало, как обучаемый по современным англоязычным текстам ИИ будет демонстрировать те же самые (найденные в этих текстах) неосознаваемые человеческие пристрастия.
Полученные результаты имеют огромное значение на распространение МО ИИ среди технологических компаний по всему миру. Как невольно могут проявляться предубеждения психологи еще ранее показали в ходе экспериментов, известных как тесты на неявные ассоциации. В новом исследовании ученые тиражировали многие из этих предубеждений во время тренировки ИИ с МО на основе текстов «Common Crawl», включающих 2,2 миллиона различных слов, собранных из Интернета.
В некоторых из наиболее нейтральных примеров система ИИ предпочитала такие слова, как «цветок» и «музыка», скорее ассоциировать с приятными словами, чем такие, как «насекомые» и «оружие». Но ИИ также больше нравилось ассоциировать с «приятными» раздражителями европейские и американские имена, а не афро-американские имена. Кроме того, как правило, слова «женщина» и «девочка» скорее ассоциировались с искусством, чем с математикой.
Для того, чтобы понять возможные последствия этой проблемы достаточно посмотреть ставший финалистом Пулитцеровской премии сериал «Machine Bias» (Машинные заблуждения), который показал, как компьютерная программа, созданная для прогнозирования будущих преступлений, может иметь предубеждение против черных людей.
Известным и начинающим компаниям технологического профиля, особенно использующим ультрасовременные алгоритмы глубокого обучения, нужно пытаться противодействовать потенциальным предубеждениям в своих системах ИИ. До сих пор мы видим растущую обеспокоенность этой проблемой, не имея какой-либо систематической договоренности о том, как справиться с эффектом предубеждений в МО ИИ, считают специалисты.
Один из подходов предполагает очистку любых предубеждений из наборов данных, используемых для МО ИИ. Но это может приводить к потере некоторого полезного лингвистического и культурного значения. Необходимо принять жесткие этические требования о том, как выглядит предвзятость ИИ и как поступить, чтобы не допустить никакой дискриминации в наиболее мощных и распространенных системах ИИ.
«Мы должны решить, какие из этих предвзятых суждений лингвистически полезны, а какие являются социально не приемлемыми, - говорит участник исследования Сорелл Фридлер. - И если мы решим, что они социально не приемлемы, нужно сознательно удалить из баз данных эту информацию».
Комментарии
(0) Добавить комментарий