В новом документе RAND Corporation говорится, что искусственный интеллект (ИИ) может разрушить основы ядерного сдерживания к 2040 году. В то время, как управляемые ИИ машины судного дня считаются маловероятными, опасность искусственного интеллекта для ядерной безопасности заключается в его потенциале поощрять людей к потенциальным апокалиптическим рискам.
Во время «холодной войны» состояние взаимного гарантированного уничтожения поддерживало непростой мир между сверхдержавами, обеспечивая защиту, поскольку каждая из сторон понимала, что любое нападение будет встречено не менее разрушительным ответом. Взаимное гарантированное уничтожение, таким образом, способствует стратегической стабильности, уменьшая стимулы для обеих стран к принятию мер, которые могут перерасти в ядерную войну.
В новом документе говорится, что в ближайшие десятилетия искусственный интеллект может подорвать стратегическую стабильность. В связи с усовершенствованными технологиями, возможен сценарий, когда под ударом окажутся не только государство, но и его оборонительные и наступательные силы, что нивелирует возможность ответного удара.
По мнению исследователей, у стран может возникнуть соблазн использовать потенциал первого удара в качестве средства получения рычагов влияния на своих соперников, даже если они не намерены совершать нападение. Это подрывает стратегическую стабильность, поскольку даже если государство, обладающее этими возможностями, не намерено их использовать, противник не может быть в этом уверен.
«Связь между ядерной войной и искусственным интеллектом не нова, на самом деле они имеют переплетенную историю, - сказал Эдвард Гайст, соавтор статьи и исследователь RAND. - Большая часть ранних разработок ИИ были нацелены на поддержку военных сил или с учетом военных целей».
Он сказал, что одним из примеров такой работы является эксперимент по адаптивному планированию в 80-х годах, который был направлен на использование ИИ для преобразования разведывательных данных в планы ядерного целеуказания.
«Некоторые эксперты опасаются, что повышенная зависимость от искусственного интеллекта может привести к новым типам катастрофических ошибок, - сказал Эндрю Лон, соавтор статьи и младший инженер RAND. - Сохранение стратегической стабильности в ближайшие десятилетия может оказаться чрезвычайно трудным, и все ядерные державы должны участвовать в выращивании институтов, чтобы помочь ограничить ядерные риски».
Исследователи RAND основывали свою точку зрения на информации, собранной в ходе серии семинаров с участием экспертов по ядерным вопросам, правительственных ведомств, исследований ИИ.
Комментарии
(0) Добавить комментарий