Способность глубоких нейронных сетей к самообучению – это особое достоинство, благодаря которому машина, набираясь опыта, становится совершеннее. Ее недостаток лишь в том, что у нее нет кода, который специалист может настроить. Это своеобразный черный ящик.
Вот почему создатели Google Deep Mind AlphaGo не могут объяснить, как этот ИИ действовал в игре го. Они могли лишь наблюдать, как их детище достиг такого уровня, что смог победить одного из лучших игроков в мире.
Подобная закрытость хороша для игрового автомата, но неудобна для системы управления беспилотного автомобиля. Если машина все-таки ошибется, инженеры должны иметь возможность заглянуть под капот, найти изъян и исправить его так, чтобы машина никогда не повторяла эту ошибку снова. Одним из способов для этого является моделирование, которое показывает ИИ сначала один объект, а затем другой, определяя таким образом факторы, которые влияют на принятие решений.
Поставщик чипсетов для автомобильных систем ИИ (робокаров), компания NVIDIA предлагает более простой способ. «В то время как технология позволяет нам создавать самообучаемые системы с алгоритмами, которые мы не можем программировать вручную, мы все же можем объяснить, как система принимает решения», - сообщил Дэнни Шапиро, глава автомобильного подразделения NVIDIA.
И, поскольку эта работа выполняется прямо внутри слоев обработки массивов, которые составляют нейронную сеть, результаты могут быть отображены в режиме реального времени, как «маска визуализации», которая накладывается на изображения, поступающие непосредственно от камеры переднего обзора автомобиля. В настоящее время управляющие воздействия включают поворот руля, чтобы удерживать автомобиль в пределах своей полосы движения.
Метод работает путем аналитического вывода одного из верхних слоев в сеть, которая уже извлекла важные объекты из изображения с камеры. Затем этот выход накладывается на нижние слои, усредняет его, затем он накладывается на еще более низкие слои, пока не будет пройден весь путь к исходному изображению камеры.
Результатом является изображение с камеры, на котором, по мнению ИИ, выделены важные объекты. И, собственно, те части, которые человек может считать существенными – разметка и обочины дорог, припаркованный транспорт, ограждения вдоль трассы и прочее. Но чтобы убедиться, что эти функции действительно являются ключевыми для принятия решений, исследователи классифицируют все пиксели изображения на два класса. Класс 1 содержит «характерные» черты, которые должны четко влиять на вождение, а класс 2 содержит «отличительные» особенности, как правило, в фоновом режиме. Исследователи манипулировали данными двух классов и нашли, что значение имеют только характерные особенности.
«Смещение характерных объектов приводило к линейному изменению угла поворота рулевого колеса, который являлся почти пропорциональным смещению всего изображения, - отметили исследователи. - Смещение лишь фоновых пикселей имеет гораздо меньшее влияние на угол поворота руля».
Правда, инженеры не могут войти в систему, чтобы исправить «ошибку», потому что глубокие нейронные сети не имеют кода, который можно назвать ошибочным.
Комментарии
(0) Добавить комментарий