Искусственный интеллект всё ещё «галлюцинирует» при пересказе новостей / Все новости / Главная

Крупнейшие технологические компании активно внедряют генеративные чат-боты — OpenAI, Google и Microsoft превращают их в универсальных помощников, способных отвечать на вопросы, анализировать тексты и пересказывать новости. Однако свежие данные показывают: за внешней уверенностью искусственного интеллекта скрывается всё ещё ненадёжный источник информации.

Недавнее исследование BBC совместно с европейскими медиакомпаниями показало, что почти половина ответов чат-ботов на основе новостных статей содержит ошибки. И речь не только о неточностях в деталях — иногда искажаются цитаты, факты и даже ссылки на источники.

Как работает проверка ИИ и что пошло не так

В исследовании участвовали 22 общественные медиакомпании из 18 стран, предоставившие чат-ботам доступ к своему контенту. После этого журналисты задали ИИ конкретные вопросы о новостях — и выяснили, что примерно в 45% случаев боты выдавали искажённые сведения.

Ошибки варьировались от неправильных дат и цитат до откровенных нестыковок с оригиналом. Особенно часто чат-боты давали ссылки, которые не совпадали с упомянутыми источниками. Иногда они не различали факт и мнение, а в ряде случаев — не могли отличить сатиру от реальных новостей.

Даже при обновлённом доступе к интернету и свежих базах данных чат-боты продолжают «спотыкаться» на очевидных вещах. Например, ChatGPT, Copilot и Gemini неверно сообщали, что Папа Римский Франциск всё ещё занимает свой пост, хотя его уже сменил Лев XIV. При этом Copilot умудрился указать правильную дату смерти Франциска — но всё равно называл его действующим понтификом. Аналогичные промахи встречались и при упоминании немецкого канцлера и главы НАТО.

Кто ошибается чаще

По данным исследования, уровень неточностей зависит от конкретной платформы. Google Gemini оказался наименее точным — ошибки в источниках обнаружились в 72% ответов. У ChatGPT, Copilot и Perplexity показатели заметно лучше, но и им далеко до безупречности.

Ранее разработчики объясняли такие промахи ограничениями старых моделей, обученных на данных лишь до 2021 года. Но теперь, когда ИИ имеет доступ к актуальной информации в реальном времени, становится очевидно: проблема лежит глубже — в самой структуре алгоритмов.

Тем не менее прогресс есть. С февраля доля серьёзных ошибок в ответах ChatGPT и аналогичных систем снизилась с 51 до 37 процентов. Это показывает, что технологии движутся в правильном направлении, пусть и медленно.

Почему это важно

Ошибки искусственного интеллекта — не просто статистика, а вопрос доверия. Опрос BBC показал, что более трети британцев и почти половина людей младше 35 лет доверяют чат-ботам при чтении новостей. Ещё тревожнее то, что 42% респондентов готовы обвинить в ошибках не только ИИ, но и сам источник — что напрямую подрывает доверие к журналистике в целом.

Если ситуация не изменится, популярность генеративных инструментов может привести к парадоксальной утрате доверия к реальным СМИ — тем самым разрушив фундамент, на котором строится информированное общество.

ИИ-чат-боты становятся умнее, но пока не заслуживают полного доверия. Они могут выдавать ошибочные сведения, путать факты и источники, и даже не отличать сатиру от реальности. Для пользователей — это напоминание: проверять факты стоит не только у людей, но и у машин, так как критическое мышление пока никто не отменял.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: