Консалтинговая группа "Текарт" - центр компетенции "Робототехника".

Подробнее...
Основное меню
Категории новостей
Логотип

Кто ответит за произвол алгоритмов?

Недавно в сети появились несколько резонансных (но, если честно, малоэффективных) демонстраций возможностей рекламы, созданной или предлагаемой крупными интернет-компаниями и ориентированной на неблагоразумные группы пользователей.

На Facebook появились объявления с антисемитскими темами. Шутки, связанные с холокостом евреев, предложил Google. Тема нацизма сегодня может привлечь 18,6 миллиона пользователей, заявляет Twitter.

Когда компании были предупреждены об этих, казалось бы, непонятных злоупотреблениях в работе их систем, ответы оказались поразительно одинаковыми: «Это противоречит нашим правилам, мы не знаем, как это произошло, теперь это исправлено».

Сегодня на разных платформах много говорят о борьбе с разжиганием ненависти и о противодействии реально возможной предвзятости на уровне алгоритмов. Эти темы постоянно и активно осуждаются.

Но в последствии те же компании, похоже, с удовольствием зарабатывают деньги на рекламе, ориентированной на сообщества, которые считают, что «Гитлер не сделал ничего плохого».

Они указывают на то, что объявления были сняты и лишь немногие люди видели их. Но почему мы должны верить им? Подобные случаи нельзя считать какой-то сложной атакой хакеров. Кто-то буквально забивал такие слова, как «нацисты» в обычные системы объявлений крупнейших цифровых платформ, которые неоднократно заявляли о стремлении к недопустимости подобных вещей.

Рефлексивный ответ достаточно прост: это были пользователи! Но если компании не могут предсказать подобные инциденты, возможно, не следует делать громких обещаний о противодействии. Вина за эти инциденты лежит непосредственно на самих компаниях. Они создали открытые системы, слепо вытащившие и предложившие информацию от пользователей, и не смогли обеспечить защиту от элементарных злоупотреблений.

Google, Facebook, Twitter и другие компании должны открыто выступать в защиту свободы слова, против пропаганды ненависти и насилия. Для начала нужно выяснить:

Какие существуют системы для предотвращения определенных злоупотреблений?
Как создаются и поддерживаются комплексы оскорбительных терминов?
На основе каких данных подготовлены алгоритмы модерации?
Как включена обратная связь и как можно обжаловать решение?
Где все-таки требуется вмешательство человека?
Насколько согласуются все действия с заявленной свободой слова?

Получить ответы на эти и другие вопросы необходимо, если мы хотим понять, насколько эффективно работают эти системы, и где они нуждаются в улучшении. В конце концов, они работают для нас.

Недостаточно заверений от компаний, что «они работают над этим». Если они собираются делать заявления о своем лидерстве и преданности принципам открытости и инклюзивности, им надлежит выполнять их с максимальной гласностью.

Комментарии

(0) Добавить комментарий

Ищите команду разработчиков? Не можете найти робота для своих нужд? Пишите нам!

Для обратной связи укажите ваш E-mail, он будет доступен только администратору. Так вы сможете оперативно узнать, когда ответ на ваш вопрос будет опубликован



Новые комментарии

Перспективы производства промышленных роботов в России
Мария
28.08.2024
08:13:38
Здраствуйте - можно ли узнать по поводу ультразвуковых датчиков мне для протезирования руки
Бесплатная мастерская для школьников и студентов
Гость
01.08.2024
06:19:40
Хорошая инициатива!