Европейская комиссия предложила новый закон, который установит строгие ограничения на использование искусственного интеллекта, а также подвергнет компании, уличенные в нарушении закона, потенциально крупным штрафам.
Какие именно ограничения будут применяться к технологии искусственного интеллекта и при каких условиях, будет зависеть от области применения. Исполнительный вице-президент Европейской комиссии Вестагер Хансен сказала, что одним из примеров систем искусственного интеллекта, запрещенных новым законодательством, являются системы, предназначенные для «причинения кому-либо физического или психологического вреда».
Кроме того, законодательство призывает принципиально запретить использование систем биометрической идентификации в общественных местах. Но при этом будут сделаны «очень узкие исключения, которые строго определены, ограничены и регулируются». Например, для определенных целей правоохранительных органов.
Законодательство предлагает набор правил для регулирования систем искусственного интеллекта, которые разрешены, но считаются высокорисковыми. В эту категорию входят, помимо прочего, программное обеспечение для машинного обучения, используемое в контексте критически важной инфраструктуры, и алгоритмы, отвечающие за обработку заявок на получение кредита. Согласно предложению, Европейский союз сможет оштрафовать поставщиков продуктов искусственного интеллекта с высоким уровнем риска до 6% от их общих годовых доходов, если они не соблюдают правила.
Среди требований, которые должны соблюдать такие компании, - обязательство предоставлять регулирующим органам подробную документацию о том, как работает их программное обеспечение. Более того, они должны будут продемонстрировать, что их системы искусственного интеллекта были разработаны «с должным уровнем человеческого понимания» и с использованием высококачественных обучающих данных. От таких фирм дополнительно потребуется «соблюдать самые высокие стандарты кибербезопасности и точности», - заявила Вестагер.
Третья категория систем искусственного интеллекта, которые законопроект призван регулировать, - это услуги с «ограниченным риском», такие как боты по обслуживанию клиентов. Согласно предлагаемым правилам, разработчики должны будут информировать пользователей о том, что они взаимодействуют с машиной.
Большинство типов систем искусственного интеллекта, используемых сегодня, таких как автоматические фильтры спама, не подпадут под действие закона.
«Мы сможем в полной мере воспользоваться социальным и экономическим потенциалом ИИ, только если будем уверены, что сможем снизить связанные с этим риски, - заявил Вестагер. - Для этого предлагаемая нами правовая база не рассматривает саму технологию искусственного интеллекта. Вместо этого она смотрит на то, как используется ИИ и для чего».
Чтобы законопроект стал законом, он должен быть одобрен Европейским советом и Европейским парламентом. Полный текст законопроекта по ссылке.
Комментарии
(0) Добавить комментарий