Евросоюз разработал правила для защиты людей от искусственного интеллекта / Все новости / Главная

Европейская Комиссия представила свод новых правил, которые призваны оградить людей от возможных рисков, связанных с технологиями искусственного интеллекта.

По словам Маргрете Вестагер, исполнительного вице-президента Еврокомиссии по цифровому развитию, обязательное условие для сферы искусственного интеллекта - доверие людей к нему. Новые правила регулирования ИИ направлены именно на это - они должны позволить европейцам доверять тем возможностям  которые может предложить им ИИ. 

Категории риска

Правила делят все системы искусственного интеллекта на несколько категориям риска.

Неприемлемый риск

К этой группе относятся системы ИИ, считающиеся явной угрозой безопасности, существованию и правам людей. Такие системы будут запрещены. 

В эту группу входят системы, которые напрямую манипулируют поведением человека (например, игрушки, использующие голосовые подсказки, поощряющие опасное поведение несовершеннолетних). 

Также сюда относятся ИИ-системы, позволяющие правительствам автоматически оценивать “благонадежность” граждан. Таким образом, Евросоюз на законодательном уровне запрещает существование тоталитарных инструментов, вроде китайской системы “Социального рейтинга”. С точки зрения гражданской свободы, это - крайне положительная инициатива.

Высокий риск

К этой группе относятся ИИ-системы, работающие в следующих сферах:

  • управление важнейшей инфраструктурой;
  • образование или профессиональная подготовка;
  • обеспечение безопасности (например, применение ИИ в роботизированной хирургии);
  • регулирование вопросов занятости и трудоустройства (например, софт для автоматической оценки резюме);
  • основные частные и государственные услуги (например, оценка кредитоспособности);
  • правоприменение и судебные разбирательства (например, оценка достоверности доказательств);
  • управление миграцией и пограничным контролем (например, проверка подлинности проездных документов);
  • отправление правосудия и демократические процессы (например, применение закона к конкретному набору фактов).

Такие системы не будут полностью запрещены, но, прежде чем они выйдут на рынок, они должны будут пройти серьезные проверки и оценку рисков. Работа таких систем должна быть понятной и прозрачной. Она будет тщательно документироваться. При необходимости, решения и действия ИИ будут проверяться живыми людьми.

Ограниченный риск

В эту группу входят безопасные системы, к которым предъявляются дополнительные требования по прозрачности. 

Например, чат-боты обязательно должны будут уведомлять собеседника, что тот говорит с машиной. Роботы, пытающиеся выдавать себя за человека, окажутся вне закона.

Минимальный риск

В эту группу попадает подавляющее большинство безопасных ИИ-систем. Например, внутриигровой искусственный интеллект или автоматические спам-фильтры в почтовых сервисах. Такие системы не несут в себе риска для прав или безопасности граждан, потому в их работу закон вмешиваться не будет. 

 

По предложению Еврокомиссии, следить за соблюдением правил должны компетентные национальные органы конкретных государств. А создание Европейского совета по искусственному интеллекту должно этому способствовать.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: