Правительство Великобритании профинансировало создание алгоритма машинного обучения, который может быть использован для обнаружения террористических видеороликов в интернете. Инструмент был создан лондонской компанией ASI Data Science и его разработка обошлась в 600 000 фунтов стерлингов (830 000 долларов США).
Алгоритм будет предлагаться небольшим видеоплатформам и облачным хранилищам, таким как Vimeo и pCloud, чтобы следить за содержанием их контента. Однако он не будет использоваться крупнейшими технологическими компаниями, включая YouTube и Facebook, которые разрабатывают свои собственные алгоритмы для обнаружения экстремистского контента.
Например, видео ИГИЛ (запрещенная в России организация) алгоритм может обнаружить с вероятностью 99,99 процента. При этом он неправильно идентифицирует около 0.005 процента видео, которое он сканирует. Это означает, что на сайте с 5 миллионами видеороликов, загружаемых каждый день, он неверно отметит 250, которые необходимо будет проверить человеку-модератору. ASI не рассказывает про факторы, которые программное обеспечение использует для принятия своего решения, но, согласно BBC News, алгоритм «использует характеристики, типичные для ИГИЛ и его онлайн-активности». Это может включать в себя визуальные сигналы, такие как логотипы, а также метаданные, например, где было загружено видео.
Компании Tech все чаще оказываются под давлением как в США, так и в Великобритании, чтобы полировать контент, загруженный на их сайты. В декабре прошлого года YouTube сообщил, что удалил более 150 000 видеороликов, пропагандирующих жестокий экстремизм, и сказал, что его алгоритмы отметили 98 процентов подозрительных видео. Facebook заявил, в свою очередь, что его собственная система удаляет 99 процентов контента ИГИЛ и Аль-Каиды, связанных с террором.
Однако эксперты предупреждают, что алгоритмические подходы, подобные этому, никогда не создадут идеального решения для поиска и удаления подобного контента. Вместо этого он создает игру «кошки-мышки», а пропагандисты ищут новые способы уклонения от автоматических модераторов и решений технологических компаний.
Комментарии
(0) Добавить комментарий