Люди меняют свое поведение, когда обучают искусственный интеллект / Все новости / Главная

Искусственный интеллект все больше проникает в нашу жизнь. Он помогает людям работать, помогает принимать решения. Но мало кто задумывается, что ИИ не только помогает людям, но и учится на их поведении. Исследователи из Вашингтонского университета обнаружили неожиданный эффект этого взаимодействия.

Оказывается, люди меняют свое поведение, когда знают, что их действия используются для обучения искусственного интеллекта.. Более того, этот эффект сохраняется даже после окончания обучения. Это открытие ставит под сомнение привычное предположение о “нейтральности данных”, которые используются для тренировки искусственного интеллекта.

Неестественное поведение

В ходе эксперимента ученые предложили участникам сыграть в экономическую игру, где нужно было поделить небольшую сумму денег. При этом часть участников думала, что их решения используют для обучения ИИ-бота. Эти люди чаще предлагали поделить деньги поровну, даже если это было невыгодно для них. Интересно, что такое поведение сохранялось и после того, как им сказали, что обучение прекращено.

По словам ученых, такое неестественное поведение в игре, вероятно, было связано с тем, что люди подсознательно стремились подавать искусственному интеллекту хороший пример, делать его более справедливым. Без сомнения,  благородный порыв. Но это все равно является большой проблемой, так как ведет к искажению данных для обучения.

Искаженные данные

Обучение искусственного интеллекта иногда сравнивают с обучением ребенка, но это не совсем точная аналогия. Человеческий детеныш с определенного возраста способен самостоятельно поставить под сомнение информацию, которую ему дает учитель. 

У искусственного интеллекта такой способности нет. Абсолютно все данные, которые ему “скармливают” в процессе обучения, являются для него абсолютной и единственной истиной. Он усваивает их на 100% и делает буквально частью себя.

И если эти данные искажены, пусть даже в благородных целях, это приведет к тому, что ИИ будет в некоторой степени “оторван от реальности”. А, это, в свою очередь, может привести к самым непредсказуемым последствиям. Например, если ИИ будет обучаться на искаженных данных, он может впоследствии усиливать и ретранслировать эти искажения. Это приведет к ошибочным действиям и отклонению от оптимального поведения.

Данное исследование подчеркивает важность человеческого фактора в разработке искусственного интеллекта. Если не учитывать человеческие предубеждения при обучении ИИ, то и сам искусственный интеллект будет предвзятым.

Ученые призывают разработчиков ИИ учитывать этот эффект и принимать меры для минимизации искажений в обучающих данных.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: