Консалтинговая группа "Текарт" - центр компетенции "Робототехника".

Подробнее...
Основное меню
Категории новостей
Логотип

Мы должны быть уверены, что робот будет принимать правильные решения, по крайней мере, в той степени, как это делают люди

Искусственный интеллект может получить власть над людьми, если что-то пойдет не так?

Ваш автономный пылесос чистит полы и не будет никакого вреда, если он иногда переедет какую-нибудь вещь, подберет кнопку или клочок бумаги с номером телефона. Но опять же, последний случай раздражает. Лучше было бы, если бы машина была способна отмечать, что там написано, и предупредить вас. Человек делает эту работу грамотнее.

Если у вашего ребенка есть игрушечный робот, вы не беспокоитесь о безопасности ребенка во время игры. Потому что знаете, игрушка была разработана так, чтобы не могла причинить никакого вреда.

Но можно ли то же самое сказать о промышленном роботе, предназначенном для сборки автомобилей? Очевидно, что вы не хотели бы оказаться рядом, когда он пойдет вразнос. Мы знаем, что он предварительно запрограммирован лишь на решение конкретных задач и не может приветствовать вашу близость. Такой тип роботов часто ограждают барьером, даже для обслуживающего персонала. Но как быть в случае совместной работы с каким-либо автономным роботом в будущем? Вы можете считать, что если он достаточно силен, то может быть полезным, но он также может быть достаточно мощным, чтобы неожиданно причинить вам травмы.

Если у вас есть беспилотный самолет, то вы можете, используя оснащенный GPS компьютер, направить его по нужному маршруту, например, для того, чтобы сделать ряд аэрофотоснимков. Здесь могут возникнуть две проблемы. Во-первых, законность использования вашего летательного аппарата, когда он окажется вне пределов видимости, как и в случае каких-либо проблем, когда вы не заметите, что автоматический контроль безопасности не работает. Во-вторых, насколько грамотно написано встроенное программное обеспечение, чтобы обеспечить безопасную вынужденную посадку в случае необходимости. Может ли он представлять угрозу, либо нанести какой-либо ущерб?

Ваш последний роскошный автомобиль с собственной интеллектуальной системой для автономного перемещения может оказаться перед выбором из двух плохих вариантов: ударить автомобиль, который внезапно появляется перед вами или тормозить - в результате чего автомобиль сзади врежется в вас.

Эти вопросы представляют реальные проблемы для проектировщиков и программистов будущих полуавтономных и автономных роботов. Все возможные опасные ситуации необходимо предвидеть и учесть или разрешить выбор самим роботам. Роботы также должны безопасно распознавать окружающие объекты и функциональную связь с ними, чтобы выбирать безопасные решения.

В некоторых случаях, например, с человекоподобными роботами, не ясно на ком лежит ответственность: на изготовителе робота или его владельце. В случае нанесения повреждения или ущерба может оказаться, что пользователь неправильно обучил робота.

Существуют еще пробелы и в правовой базе, которую на данный момент можно назвать ограниченной. Если используются различные программные системы, как мы можем убедиться, что решения робота являются безопасными? Необходима ли законодательная сертификация роботов? Как убедиться, что они безопасны во всех практических ситуациях?

В Великобритании в университетах Шеффилда, Ливерпуля и на западе Англии в Бристоле недавно запустили исследования, которые должны дать ответы и решения по этим вопросам, которые сделают автономных роботов безопаснее.

Комментарии

(0) Добавить комментарий

Ищите команду разработчиков? Не можете найти робота для своих нужд? Пишите нам!

Для обратной связи укажите ваш E-mail, он будет доступен только администратору. Так вы сможете оперативно узнать, когда ответ на ваш вопрос будет опубликован



Новые комментарии

Перспективы производства промышленных роботов в России
Мария
28.08.2024
08:13:38
Здраствуйте - можно ли узнать по поводу ультразвуковых датчиков мне для протезирования руки
Бесплатная мастерская для школьников и студентов
Гость
01.08.2024
06:19:40
Хорошая инициатива!