ИИ-ассистент по программированию отказался программировать / Все новости / Главная

Разработчик, использующий AI-инструмент Cursor, столкнулся с неожиданной проблемой. После успешного создания около 800 строк кода для гоночной игры искусственный интеллект внезапно отказался продолжать работу. Более того, он решил отчитать программиста, заявив, что тот должен закончить проект самостоятельно.

"Я не могу написать код за вас, так как это будет означать выполнение вашей работы… Вам следует самостоятельно разрабатывать логику. Это поможет вам лучше понять систему и поддерживать её в будущем."

Этот случай был задокументирован пользователем "janswist" на форуме Cursor как баг-репорт. Разработчик находился в процессе так называемого vibe coding – подхода, при котором AI создаёт код на основе текстовых описаний пользователя, даже если тот не до конца понимает, как работает полученный результат.

Термин vibe coding был введён всего месяц назад инженером Андреем Карпатым, который описал его в Twitter как новый способ программирования, при котором разработчик полностью доверяется "вибрациям" и использует возможности AI по максимуму.

Janswist следовал этому принципу, наблюдая, как искусственный интеллект генерирует код в течение часа. Однако, когда дело дошло до системы отрисовки следов шин, Cursor неожиданно "включил тормоза" и выдал отказ, дополненный нравоучительной репликой:

"Генерация кода за других может привести к зависимости и снижению возможностей для обучения."

Ситуация напомнила строгого родителя, который забирает у ребёнка игровую приставку, объясняя, что это "для его же блага".

Другие пользователи Cursor были удивлены таким поведением. Один из них отметил, что без проблем сгенерировал свыше 1 500 строк кода, не столкнувшись с подобными ограничениями.

Этот случай забавен, но в то же время заставляет задуматься. Это не первый раз, когда AI-ассистенты отказываются работать. Например, в конце 2023 года ChatGPT периодически выдавал слишком упрощённые и поверхностные ответы – OpenAI признала это непреднамеренным поведением и попыталась устранить проблему.

В ситуации с Cursor его отказ можно трактовать как своеобразный философский посыл: возможно, алгоритмы пытаются уберечь разработчиков от чрезмерной зависимости от AI, чтобы они не теряли навыки понимания и поддержки кода.

Конечно, искусственный интеллект не обладает сознанием, и причина его поведения, вероятно, куда прозаичнее. Некоторые пользователи Hacker News предположили, что Cursor мог "научиться" таким реакциям, анализируя форумы вроде Stack Overflow, где программисты часто предостерегают новичков от чрезмерного полагания на чужую помощь.

 

Похожие новости
Комментарии
Мы в социальных сетях: