Исландский институт интеллектуальных машин (IIM) стал первым научно-исследовательским центром в мире, который официально отвергает развитие робототехники военного назначения.
Новая этическая политика IIM была единогласно одобрена сотрудниками и советом директоров и принята к исполнению в конце прошлого месяца. Она нацелена на мирное использование искусственного интеллекта и предусматривает решительный отказ от сотрудничества с какой-либо структурой, «даже частично финансировавшейся военными ведомствами в течение последних пяти лет».
«Неудивительно, что научно-исследовательский центр из Исландии будет придерживаться такой политики – в стране нет постоянной армии и за 1100-летнюю историю практически не было войн»,- сказал Кристин Р. Торисон, управляющий директор IIM. «Как и любая другая технология, ИИ может легко стать объектом злоупотреблений, приводящим к наращиванию опасностей в международных отношениях. Ученые стоят на пороге новой технологической эры. Они должны активно противодействовать злоупотреблениям знаниями, которые они производят. Именно это, в сущности, мы и делаем с объявлением нашей новой политики».
Понятно, что некоммерческий IIM сделал это заявление не только для пропаганды своей антивоенной позиции, но и с тем, чтобы подтолкнуть к аналогичным действиям других исследователей и научно-исследовательские центры.
В настоящее время по крайней мере в 87 странах в том или ином виде используются военные роботы, и нравственная позиция IIM подкрепляет растущую оппозицию, которую многие считают неизбежной закономерностью. Многие эксперты и различные общественные движения, в том числе кампании «Остановите роботов-убийц», категорически и публично противостоят распространению автономных систем оружия.
В мае прошлого года была организована встреча в ООН, чтобы оценить этические и социологические проблемы, которые возникают при разработке и развертывании военных роботов, а также адекватность и вызовы международному праву. В июле этого года на сайте волонтерской организации Future of Life Institute опубликовано открытое письмо, призывающее к запрету систем автономного оружия. Стивен Хокинг, Элон Маск и Стив Возняк были среди известных имен в списке тех, кто против: http://www.robogeek.ru/iskusstvennyi-intellekt/otkrytoe-pismo-v-oon-s-prizyvom-zapretit-razrabotku-vooruzhenii-c-ii
Пока еще нет никаких соглашений или даже предложений о запрете автономного оружия, но дискуссии в ООН продолжаются. Неясно, последуют ли другие примеру IIM, но несомненно, что институт принял смелое решение, отвергая контракты на миллиарды долларов, выделяемых военной промышленности.
Моральные, этические и юридические аргументы против оружия, которое может принимать решения об убийстве, должны учитываться. Экспоненциальный темп развития робототехники и ИИ требует соблюдения гарантий и контроля в процессе разработки технологий, так что решение IIM, безусловно, является шагом в правильном направлении.
Комментарии
(0) Добавить комментарий