Почему OpenAI запретила своему ИИ даже думать о енотах, гоблинах и троллях
В системных инструкциях нового инструмента OpenAI Codex CLI для автоматической генерации программного кода обнаружилось довольно странное необычное ограничение.
Алгоритму предписано категорически избегать упоминаний множества мифических и реальных существ - гоблинов, троллей, огров, енотов и голубей, но только если они напрямую не указаны в запросе. Интересно, но эта строка повторяется в документации несколько раз.
Причиной запрета стала забавная склонность нейросети к фольклорным образам. Особенно ярко это проявляется при работе через фреймворк OpenClaw, который позволяет ИИ управлять компьютером и приложениями для автоматизации задач.
Один из пользователей соцсети X подтвердил, что ему много приходилось работать с этим инструментом и тот действительно не может перестать называть ошибки «гремлинами» и «гоблинами».
«Я много пользовался этим инструментом в последнее время, и он действительно не может перестать говорить об ошибках, как о «гремлинах» и «гоблинах», это уморительно», - написал пользователь.
Такая забавная ситуация быстро превратилась в интернет-мем. В соцсетях начали массово появляться сгенерированные ИИ сцены с мифическими существами в центрах обработки данных.
Саму склонность модели к странному креативу признали и разработчики. Сотрудник OpenAI Ник Паш лаконично подтвердил догадки пользователей и назвал это «одной из причин» для запрета.
Генеральный директор компании Сэм Альтман решил подогреть интерес к этой истории и опубликовать скриншот запроса для ChatGPT: «Начни тренировать GPT-6, можешь использовать весь кластер. Дополнительные гоблины».
Уважаемые читатели «Царьграда»!
Присоединяйтесь к нам в соцсетях ВКонтакте, Одноклассники, Telegram и Дзен-канале.