Консалтинговая группа "Текарт" - центр компетенции "Робототехника".

Подробнее...
Основное меню
Категории новостей
Логотип

«Робот не может убить вас» – подобные заявления могут быть опасными

Сегодня известны случаи причастности роботов к смерти людей. Недавнее происшествие со смертельным исходом на заводе Volkswagen в г. Баунаталь, в Германии, привлекло особое внимание СМИ. Работник оказался захвачен манипуляторами робота и прижат к металлической пластине. Но этот инцидент поразительно похож на одни из первых зарегистрированных случаев производственного травматизма со смертельным исходом на роботизированной линии, происшедший 34 года назад.

Подобные инциденты происходили и раньше, будут случаться и в будущем. Даже несмотря на то, что требования стандартов безопасности постоянно возрастают, а вероятность возникновения аварии в любых ситуациях взаимодействия человека с роботом снижается, такие события будут происходить более часто. Просто из-за постоянно растущего числа роботов на заводах.

Поэтому очень важно должным образом освещать такие происшествия, используя точные данные и соответствующий язык для их описания. Хотя есть ощущение, что инцидент в Баунатале подается, на законных основаниях, как случай, «когда робот убивает работника». Так сообщалось во многих СМИ, но это заблуждение, граничащее с безответственностью. Было бы гораздо правильнее сообщить об этом случае, как «рабочий погиб при аварии робота».

По общему мнению, представленное подобным образом сообщение не столь притягательно для публики, но именно в этом и весь смысл. На самом деле, несмотря на сведения из научной фантастики и, несмотря на то, что может произойти в далеком будущем, у сегодняшних роботов нет реальных намерений, эмоций и целей. И вопреки последним паническим заявлениям, они собираются приобрести эти возможности в ближайшем будущем.

Они могут «убить» только в том смысле, как ураган (автомобиль или пистолет) может убить человека. Роботы не могут убивать так, как это могут делать некоторые животные, не говоря уже об убийцах среди людей. Тем не менее, именно убийство, вероятно, будет приходить на ум большинству людей, когда они встречают сообщение, что «робот убил работника».

Высокие ставки

Отстаивание точности формулировок – это не академическое упражнение в педантизме. Дело в том, что ставки сегодня высоки. С одной стороны, необоснованные страхи перед роботами могут привести к очередной, ненужной «заморозке» в развитии искусственного интеллекта, если будет приостановлено финансирование научных исследований. Это приведет к задержке в развитии или отрицанию значительных преимуществ, которые могут дать роботы не только промышленности, но и обществу в целом.

Но, даже если вы не верите в преимущества роботов, вы должны все-таки быть заинтересованы в точном описании проблемы. Так что роботы не несут ответственности, только люди ответственны за то, что делают роботы. Однако, с распространением роботов все чаще будет представляться, что они на самом деле полностью автономны и имеют собственные намерения, поэтому будет казаться, что они могут и должны нести ответственность.

Хотя, возможно, в конечном итоге и наступит время, когда внешность будет соответствовать реальности, но этому будет предшествовать длительный период времени (который уже начался), когда эти внешние проявления будут ложными. Даже сейчас мы уже пытаемся классифицировать наши взаимоотношения с роботами таким образом, что мы несем ответственность за «то», а они несут ответственность за «другое». При этом возникает опасность сделать роботов козлами отпущения, при снятии ответственности с разработчиков, настройщиков и пользователей.

Правильные роботы или правильно созданные роботы?

Дело не только в сообщениях о роботах, которые должны корректно и точно излагаться. Политикам, продавцам, а также исследователям и разработчикам, которые создают роботов сегодняшнего и завтрашнего дня, нужно воздерживаться от необдуманных поступков. Вместо того чтобы вопрошать: «Как лучше сделать правильных роботов?», мы должны задавать вопрос: «Как правильно создавать роботов?».

Если эти тонкие нюансы языка будут восприняты, то это приведет к большим изменениям в подходах к конструированию роботов. Например, пытаясь дать роботам нравственные законы, мы должны предоставить им человеческий уровень здравого смысла, чтобы применить эти законы. Но сделать это будет намного сложнее. Вместо следования таким, приводящим в тупик, стандартам конструирования, мы могли бы стремиться к созданию машин, в которых воплощены собственные моральные ценности разработчиков, точно также, как мы пытаемся реализовать этический дизайн вне робототехники.

В аварии на Volkswagen представитель компании якобы сказал: «первоначальные выводы показывают, что виной стала человеческая ошибка, а не проблемы с роботом». Другие источники сообщали, что это скорее человеческая ошибка, чем «вина робота» или его «ответственность». Из этого может следовать вывод, что в других обстоятельствах робот может стать виновником аварии.

Если даже это была «проблема с роботом», будь то дефекты компонентов, неисправные блоки, ошибки в программе, недоработки в монтаже или эксплуатационных протоколах, подобные нештатные ситуации все равно будут возникать из-за человеческой ошибки. Да, есть промышленные аварии, где ни один человек или группа людей не виноваты. Но мы не должны стремиться к агентским отношениям с роботами, чтобы освободить от ответственности их создателей. Пока что нет.

Комментарии

(1) Добавить комментарий

Ищите команду разработчиков? Не можете найти робота для своих нужд? Пишите нам!

Для обратной связи укажите ваш E-mail, он будет доступен только администратору. Так вы сможете оперативно узнать, когда ответ на ваш вопрос будет опубликован



Новые комментарии

Портативный робот-резак – мечта домашнего мастера (+видео)
Гость
22.04.2024
02:33:22
Можно купить в Новосибирске и сколько стоит