Астроном придумал, как заставить ИИ признавать ошибки и сомневаться / Все новости / Главная

Современные системы искусственного интеллекта умеют отвечать уверенно — иногда даже слишком. Проблема «уверенно неправильных» ответов, когда модель звучит убедительно, но фактически ошибается, давно тревожит и ученых, и практиков. Астроном из Университета Аризоны Питер Бехрузи предложил неожиданное решение, способное изменить подход к обучению и применению ИИ — от астрофизики до медицины и автономного транспорта.

Нейросети с миллиардами и даже триллионами параметров лежат в основе сегодняшних ИИ-сервисов. Но масштаб не гарантирует надежность. Такие модели могут «галлюцинировать» — придумывать факты, ссылки на несуществующие исследования и уверенно делать неверные выводы. В реальном мире это оборачивается серьезными последствиями: от ошибочных медицинских диагнозов до сбоев в системах распознавания лиц.

Ключевая трудность в том, что модели обычно не умеют честно сообщать о своей неуверенности. Они выдают ответ — и точка. Но как понять, можно ли ему доверять?

Неожиданный источник вдохновения

Путь Бехрузи к решению начался с его собственной области — исследования формирования галактик. Он создал вычислительную платформу Universe Machine, которая анализирует огромные массивы данных телескопов. Однако при работе с такими сложными моделями быстро выяснилось: существующие методы оценки неопределенности попросту не справляются с масштабом современных данных.

Подсказка пришла откуда не ждали — с обычного задания по вычислительной физике. Студент принес на консультацию задачу о том, как свет изгибается, проходя через атмосферу Земли. В основе лежал метод трассировки лучей — та самая технология, благодаря которой новейшие игры и мультфильмы Pixar выглядят фотореалистично. И тут возник вопрос: а что если применить этот подход не в трех измерениях, а в миллиардах?

Трассировка лучей в пространстве ИИ

Новая методика адаптирует трассировку лучей для исследования сложных математических пространств, в которых «живут» нейросети. По сути, она помогает проследить, как небольшие изменения параметров влияют на итоговый ответ модели — и где начинаются зоны неопределенности.

Важная часть подхода — байесовская выборка (Bayesian sampling), давно считающаяся «золотым стандартом» статистического анализа. Идея проста: вместо одной модели обучается множество вариантов на одних и тех же данных. Если все они сходятся во мнении — ответу можно доверять. Если же мнения расходятся, это сигнал: модель столкнулась с чем-то новым или плохо понятным.

Раньше такой подход был слишком ресурсоемким для больших нейросетей. Метод Бехрузи ускоряет процесс на многие порядки, делая байесовскую выборку применимой даже для гигантских моделей.

Сам ученый объясняет это так: вместо одного «эксперта» вы консультируетесь с целым консилиумом. Если вопрос знакомый, все эксперты скажут примерно одно и то же. Но если тема новая, ответы разойдутся — и станет ясно, что безоговорочно доверять результату не стоит.

Аналогия особенно наглядна в медицине. Если врач, глядя на рутинный снимок, сразу настаивает на агрессивном лечении, большинство пациентов захотят второго мнения. Новый метод делает то же самое для ИИ: показывает диапазон возможных интерпретаций, а не единственный вердикт.

Зачем это нужно

Потенциальные применения выходят далеко за пределы астрономии. Сегодня ИИ участвует в принятии решений в медицине, финансах, энергетике, уголовном правосудии и управлении беспилотниками. Во всех этих сферах особенно важно понимать, когда система сомневается.

Для науки эффект может быть не менее значительным. Недоверие к «уверенно неправильным» ответам уже подрывает принятие ИИ-результатов — будь то прогноз погоды, моделирование черных дыр или разработка новых лекарств. Возможность явно оценивать неопределенность снижает необходимость в дорогой и длительной перепроверке и повышает доверие к вычислительным открытиям.

Для самого Бехрузи метод открывает уникальные перспективы. Вместо того чтобы создавать абстрактные симуляции «вселенных вообще», он сможет восстанавливать реальные начальные условия нашей Вселенной. Проще говоря — не просто моделировать галактики, а воссоздавать фильм о подлинной истории формирования космических структур.

Метод, выросший из задачи про свет в атмосфере и технологий анимационного кино, может стать ключом к более честному и надежному искусственному интеллекту. Научить ИИ говорить «я не уверен» — возможно, один из самых важных шагов на пути к его безопасному и ответственному использованию.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: