Большие языковые модели — вроде ChatGPT — поражают эрудицией и беглостью речи. Но стоит слегка изменить формулировку логической задачи, и уверенность машины может внезапно испариться. Классический пример: «У Тани было 6 яблок, она дала Пете 2. Сколько осталось?» Поменяйте имена — и ответ иногда «плывет». Для человека это пустяк, для ИИ — серьезный стресс-тест.

Почему так происходит и можно ли научить алгоритмы рассуждать по-человечески? Этим вопросом занимается Марта Льюис, ассистент-профессор в Институте логики, языка и вычислений (ILLC). В 2024 году она получила статус стипендиата MacGillavry, что позволило ей запустить собственную исследовательскую группу.
На первый взгляд парадокс: модели, обученные на гигантских массивах данных, должны легко справляться с вариациями. Но архитектура современных ИИ устроена не так, как человеческое мышление. «Модели машинного обучения великолепно работают там, где видели похожие примеры, — объясняет Льюис. — Однако на действительно новых данных их гибкость резко снижается».
Человек переносит логику из ситуации в ситуацию почти автоматически. Машина же зачастую «узнаёт» шаблоны, а не смысл. Отсюда и хрупкость: небольшая замена деталей может разрушить цепочку вывода.
Символический ИИ: как это работает
Решение Льюис — объединить два подхода: статистическое машинное обучение и символический ИИ. Последний опирается на формальные правила, логические структуры и понятные человеку операции.
Идея проста и одновременно радикальна: встроить в модели такие внутренние механизмы, которые можно объяснить и проверить теоретически. Тогда мы будем понимать не только что ответил ИИ, но и почему.
Этот гибридный подход делает системы более «прозрачными» и приближает их к человеческому стилю рассуждения. По сути, речь идет о том, чтобы заменить угадывание на осмысленный вывод.
Сегодняшние ИИ часто сравнивают с «черными ящиками»: они дают результат, но путь к нему скрыт. Льюис и ее коллеги в ILLC разрабатывают методы, позволяющие заглянуть внутрь этих сложных систем. Задача непростая: модели огромны, их структуры распределены и многослойны — отчасти это напоминает устройство мозга.
Тем не менее понимание внутренних процессов критически важно. Без него трудно доверять решениям ИИ в образовании, медицине или науке, где цена ошибки высока.
Междисциплинарность как ключ
Работы Льюис лежат на стыке логики, лингвистики, информатики и психологии. Она сотрудничает с исследователями ILLC, психологами, а также с коллегами из Эдинбурга — результатом стала публикация на конференции ACL. Близость к Институту информатики в исследовательском кластере LAB42 тоже играет свою роль: идеи быстрее переходят из теории в практику.
Более «человечный» ИИ — это не только про корректные ответы на задачи с яблоками. Это про надежность, объяснимость и доверие. Модели, которые умеют рассуждать, а не просто угадывать, лучше адаптируются к новым условиям и безопаснее применяются в реальном мире.
«Мне одинаково интересно и строить внутренние механизмы новых моделей, и разбираться, что происходит внутри нынешних “черных ящиков”», — говорит Льюис. Похоже, именно на этом перекрестке и рождается следующий шаг в развитии искусственного интеллекта.
