Многие люди обеспокоены развитием ИИ, особенно когда речь идет о создании машин умнее людей. Даже компания OpenAI, создавшая ChatGPT, осознает потенциальную угрозу искусственного суперинтеллекта. Потому она собирает команду экспертов, призванных смягчить эти риски.
По заявлению OpenAI, в данный момент искусственный интеллект не опасен, но все изменится, когда он превзойдет человека. Чтобы управлять системами ИИ, которые умнее своих создателей, потребуются такие технологии, каких у человечества пока нет. Чтобы решить проблему в течение четырех лет, OpenAI набирает новую профильную команду и будет тратить 20% своих ресурсов на эту работу.
Угроза сверхумнгого ИИ
OpenAI считает, что суперинтеллект будет самой эффективной технологией из когда-либо изобретенных. Он сможет решить многие мировые проблемы. Но его огромная мощь также может быть опасной. Она может привести к бесправию человечества или даже исчезновению человека.
Появление такого ИИ может произойти еще нескоро, но в OpenAI уверены, что счет пошел на годы, а не на десятилетия. «В настоящее время у нас нет решения для управления или контроля потенциально сверхумного ИИ», - пишут сооснователи OpenAI Илья Сутскевер и Ян Лейке.
Поскольку люди не смогут контролировать системы ИИ гораздо умнее их, а современные методы управления невозможно будет масштабировать для суперинтеллекта, необходимы новые технологические прорывы.
Суперрегулирование суперинтеллекта
Новая команда в OpenAI будет заниматься вопросом «суперрегулирования суперинтеллекта». Проще говоря, речь идет о создании автоматизированной системы, которая позволит обычному человеку контролировать сущность, в разы превосходящую его самого - эдакое супероружие, которое сможет держать в узде еще не созданного искусственного бога.
Автоматическая система должна будет следить за тем, чтобы суперинтеллект соответствовал человеческим ценностям и подчинялся человеческим планам. Для создания такой системы ученые хотят сначала обучить системы ИИ, используя в процессе обратную связь с человеком. Это позволит привить ИИ человеческие ценности. Далее нужно обучить ИИ, который сможет оценивать другие системы ИИ на соответствие этим ценностям. И, наконец, построить ИИ, который сможет исправлять работу других систем ИИ быстрее и лучше, чем это могли бы сделать люди. Вся эта система будет следить за работой сверхинтеллекта и, если заметит в его поведении опасное отклонение, быстро исправит его до возникновения критической ситуации.
OpenAI признает, что решение технической задачи суперрегулирования всего за четыре года является амбициозной целью. Нет никаких гарантий успеха, но исследователи настроены оптимистично. Сейчас компания нанимает ученых и инженеров, готовых присоединиться к команде.
«Регулирование суперинтеллекта, по сути, является проблемой машинного обучения, и мы думаем, что эксперты по машинному обучению - даже если они еще не работают над этой задачей - будут иметь решающее значение для ее реализации. Мы планируем поделиться плодами наших усилий и рассматриваем вклад в согласование и безопасность моделей ИИ как важную часть нашей работы», - говорят руководители OpenAI.
То есть, система контроля, созданная в рамках OpenAI, будет доступна и другим разработчикам искусственного интеллекта.