Консалтинговая группа "Текарт" - центр компетенции "Робототехника".

Подробнее...
Основное меню
Категории новостей
Логотип

Будет ли искусственный интеллект увеличивать риск ядерной войны? (+видео)

В новом документе RAND Corporation говорится, что искусственный интеллект (ИИ) может разрушить основы ядерного сдерживания к 2040 году. В то время, как управляемые ИИ машины судного дня считаются маловероятными, опасность искусственного интеллекта для ядерной безопасности заключается в его потенциале поощрять людей к потенциальным апокалиптическим рискам.

Во время «холодной войны» состояние взаимного гарантированного уничтожения поддерживало непростой мир между сверхдержавами, обеспечивая защиту, поскольку каждая из сторон понимала, что любое нападение будет встречено не менее разрушительным ответом. Взаимное гарантированное уничтожение, таким образом, способствует стратегической стабильности, уменьшая стимулы для обеих стран к принятию мер, которые могут перерасти в ядерную войну.

В новом документе говорится, что в ближайшие десятилетия искусственный интеллект может подорвать стратегическую стабильность. В связи с усовершенствованными технологиями, возможен сценарий, когда под ударом окажутся не только государство, но и его оборонительные и наступательные силы, что нивелирует возможность ответного удара.

По мнению исследователей, у стран может возникнуть соблазн использовать потенциал первого удара в качестве средства получения рычагов влияния на своих соперников, даже если они не намерены совершать нападение. Это подрывает стратегическую стабильность, поскольку даже если государство, обладающее этими возможностями, не намерено их использовать, противник не может быть в этом уверен.

«Связь между ядерной войной и искусственным интеллектом не нова, на самом деле они имеют переплетенную историю, - сказал Эдвард Гайст, соавтор статьи и исследователь RAND. - Большая часть ранних разработок ИИ были нацелены на поддержку военных сил или с учетом военных целей».

Он сказал, что одним из примеров такой работы является эксперимент по адаптивному планированию в 80-х годах, который был направлен на использование ИИ для преобразования разведывательных данных в планы ядерного целеуказания.

«Некоторые эксперты опасаются, что повышенная зависимость от искусственного интеллекта может привести к новым типам катастрофических ошибок, - сказал Эндрю Лон, соавтор статьи и младший инженер RAND. - Сохранение стратегической стабильности в ближайшие десятилетия может оказаться чрезвычайно трудным, и все ядерные державы должны участвовать в выращивании институтов, чтобы помочь ограничить ядерные риски».

Исследователи RAND основывали свою точку зрения на информации, собранной в ходе серии семинаров с участием экспертов по ядерным вопросам, правительственных ведомств, исследований ИИ.

Теги: RAND, ИИ

Комментарии

(0) Добавить комментарий

Ищите команду разработчиков? Не можете найти робота для своих нужд? Пишите нам!

Для обратной связи укажите ваш E-mail, он будет доступен только администратору. Так вы сможете оперативно узнать, когда ответ на ваш вопрос будет опубликован



Новые комментарии

В CU Boulder создали миниатюрного модульного робота, способного менять форму
Ильяс
04.09.2023
11:07:48
1) "нынешняя итерация CLARI подключена к источнику питания и управления" - если всё это не на борту робота, то робот не так-то и хорош, ...
MR4Weld - первое роботизированное мобильное решение для судостроения
Игорь
08.07.2023
10:34:08
Это перл просто! Внедрение роботов "повысит благосостояние работников"!!! Ха-ха-ха... Увольнение ненужных сварщиков повысит их благосостояние... Как...