Мир должен действовать быстро, чтобы предотвратить будущее, в котором автономные роботы с искусственным интеллектом будут на полях сражений убивать людей, предупреждают ученые и эксперты по вооружениям, собравшиеся в швейцарских Альпах на элитный форум.
Необходимо согласовать международные нормы, чтобы предотвратить развитие такого оружия – такие заявления звучали 19-23 января на встрече миллиардеров, ученых и политических лидеров в заснеженном горнолыжном курорте Давосе.
Ангела Кейн, немецкий представитель по вопросам разоружения в ООН в 2012-2015 годах, сказала, что мир медленно принимает упреждающие меры, чтобы защитить человечество от смертоносных технологий. «Это может быть слишком поздно», - сказала она на дебатах в Давосе. Есть много стран и много представителей в международном сообществе, которые на самом деле не понимают, во что они вовлечены. «Такие разработки ведутся лишь в ряде развитых стран», - сказала Кейн.
Развертывание автономных систем оружия будет представлять собой новую, опасную эру в войнах, заявляют ученые. «Мы не говорим о беспилотных летательных аппаратах, где человек контролирует дрон», - сказал Стюарт Рассел, профессор компьютерных наук в Университете Калифорнии, Беркли. «Когда мы говорим об автономном оружии, это означает, что за ним никого нет. Это оружие с искусственным интеллектом. Точное определение – это оружие, которое может находить и атаковать цели без вмешательства человека».
Роботизированный хаос на поле боя
Рассел сказал, что он не предвидел день, когда роботы будут бороться с людьми и, в конечном счете, одна из сторон сможет заявить: «Хорошо, вы победили, так что вы можете получить всех наших женщин».
Но сегодня, около 1000 деятелей науки и техники, в том числе английский физик Стивен Хокинг, заявили в открытом письме в июле прошлого года, что разработка оружия, способного автономно принимать решения, может быть реализована уже в течение нескольких лет, а не десятилетий.
Они призвали к запрету наступательных, автономных вооружений, которые не контролируются человеком, предупреждая, что мир рискует скатиться к гонке вооружений с искусственным интеллектом, и поднимая тревогу из-за риска попадания такого оружия в руки экстремистов.
За гранью понимания
Сможет ли автономное оружие, например, различать гражданское население, солдат, бойцов сопротивления и повстанцев? Откуда ему знать, что он не должен убивать пилота, который катапультировался из самолета и опускается с парашютом на землю?
Алан Винфилд, профессор электронной инженерии в университете Западной Англии, предупреждает, что устранение человека из процесса принятия решения на поле боя будет иметь серьезные последствия. «Это означает, что люди лишаются моральной ответственности», - заявил Винфилд.
Более того, реакция роботов может быть трудно предсказуемой. Он отметил: «Если поместить робота в хаотичную обстановку, то и он ведет себя хаотично». С этим согласился Роджер Карр, председатель Британской аэрокосмической и оборонной группы BAE.
«Если вы удалите этику, суждения и мораль из человеческой деятельности, будь то в мире или на войне, вам предстоит получить человечество другого уровня, которое находится за пределами нашего понимания», - предупреждает Карр.
«Вы, в равной степени, не можете поместить что-то в поле, которое вследствие сбоя может привести к очень разрушительным последствиям, если нет механизма контроля со стороны человека. Именно поэтому нужна неразрывная связь человека с машиной, которая не только решает, когда использовать оружие, но она также позволяет остановить этот процесс. Что в равной степени важно».
Комментарии
(0) Добавить комментарий