Ученые из Центра искусственного интеллекта Helmholtz Munich представили инновационную языковую модель, способную не просто имитировать человеческое поведение, но и с высокой точностью предсказывать, что человек сделает в следующий момент. Разработка получила название Centaur — в честь мифического существа, сочетающего черты человека и животного, символизируя слияние когнитивной психологии и машинного интеллекта.
Моделирование поведения человека
Цель Centaur — максимально реалистично воспроизводить процесс принятия решений человеком. Для этого исследователи обучили модель на массиве данных из более 10 миллионов индивидуальных решений, полученных от 60 000 участников в рамках 160 психологических экспериментов. Такой объем информации позволил ИИ анализировать и воспроизводить как привычные, так и новые поведенческие сценарии.
Centaur способен имитировать реакции людей в разнообразных ситуациях, а также предсказывать скорость реакции, что дает более полное представление о механизмах выбора.
Универсальный подход
До сих пор когнитивная наука сталкивалась с трудностью: одни модели хорошо объясняли поведение, другие — предсказывали его, но объединить эти две функции удавалось крайне редко. Centaur меняет это. Разработанная докторами Марселем Бинцем и Эриком Шульцем, модель опирается на специальный набор данных Psych-101, охватывающий широкий спектр поведенческих стратегий — от обучения на вознаграждении до моральных дилемм.
В отличие от предыдущих моделей, Centaur не полагается на заранее заданные правила, а самостоятельно выявляет закономерности в поведении и применяет их в новых контекстах. Это делает его универсальным инструментом для анализа мышления.
Зачем это нужно?
Centaur может стать полезным инструментом в клинических исследованиях, особенно в изучении мышления людей с психическими расстройствами, такими как тревожность или депрессия. В планах исследователей — дополнить базу данных демографическими и психологическими характеристиками, чтобы углубить моделирование.
Разработчики подчеркивают, что Centaur найдет применение не только в психологии, но и в здравоохранении, социальных науках, разработке государственной политики. С его помощью можно будет точнее смоделировать, как люди принимают решения в различных жизненных обстоятельствах.
Однако вместе с этим ученые акцентируют внимание на важности этического использования. Модель будет распространяться в открытом доступе, а ее работа — проходить независимую проверку. Предпочтение отдается локально размещённым версиям ИИ, обеспечивающим полную защиту персональных данных.
Следующий этап исследований будет сосредоточен на анализе внутренних механизмов модели. Ученые хотят выяснить, какие алгоритмические процессы соответствуют конкретным стратегиям мышления и как они могут отличаться у здоровых людей и пациентов с нарушениями.
Доктор Бинц отмечает: «Мы объединяем ИИ и психологию, опираясь на научные принципы и этику. Это дает нам свободу задавать фундаментальные вопросы о человеческом разуме — то, на что редко обращают внимание в индустрии».
Результаты исследования были опубликованы в журнале Nature.