Европейская Комиссия представила свод новых правил, которые призваны оградить людей от возможных рисков, связанных с технологиями искусственного интеллекта.
По словам Маргрете Вестагер, исполнительного вице-президента Еврокомиссии по цифровому развитию, обязательное условие для сферы искусственного интеллекта - доверие людей к нему. Новые правила регулирования ИИ направлены именно на это - они должны позволить европейцам доверять тем возможностям которые может предложить им ИИ.
Категории риска
Правила делят все системы искусственного интеллекта на несколько категориям риска.
Неприемлемый риск
К этой группе относятся системы ИИ, считающиеся явной угрозой безопасности, существованию и правам людей. Такие системы будут запрещены.
В эту группу входят системы, которые напрямую манипулируют поведением человека (например, игрушки, использующие голосовые подсказки, поощряющие опасное поведение несовершеннолетних).
Также сюда относятся ИИ-системы, позволяющие правительствам автоматически оценивать “благонадежность” граждан. Таким образом, Евросоюз на законодательном уровне запрещает существование тоталитарных инструментов, вроде китайской системы “Социального рейтинга”. С точки зрения гражданской свободы, это - крайне положительная инициатива.
Высокий риск
К этой группе относятся ИИ-системы, работающие в следующих сферах:
- управление важнейшей инфраструктурой;
- образование или профессиональная подготовка;
- обеспечение безопасности (например, применение ИИ в роботизированной хирургии);
- регулирование вопросов занятости и трудоустройства (например, софт для автоматической оценки резюме);
- основные частные и государственные услуги (например, оценка кредитоспособности);
- правоприменение и судебные разбирательства (например, оценка достоверности доказательств);
- управление миграцией и пограничным контролем (например, проверка подлинности проездных документов);
- отправление правосудия и демократические процессы (например, применение закона к конкретному набору фактов).
Такие системы не будут полностью запрещены, но, прежде чем они выйдут на рынок, они должны будут пройти серьезные проверки и оценку рисков. Работа таких систем должна быть понятной и прозрачной. Она будет тщательно документироваться. При необходимости, решения и действия ИИ будут проверяться живыми людьми.
Ограниченный риск
В эту группу входят безопасные системы, к которым предъявляются дополнительные требования по прозрачности.
Например, чат-боты обязательно должны будут уведомлять собеседника, что тот говорит с машиной. Роботы, пытающиеся выдавать себя за человека, окажутся вне закона.
Минимальный риск
В эту группу попадает подавляющее большинство безопасных ИИ-систем. Например, внутриигровой искусственный интеллект или автоматические спам-фильтры в почтовых сервисах. Такие системы не несут в себе риска для прав или безопасности граждан, потому в их работу закон вмешиваться не будет.
По предложению Еврокомиссии, следить за соблюдением правил должны компетентные национальные органы конкретных государств. А создание Европейского совета по искусственному интеллекту должно этому способствовать.