OpenAI заборонила ШІ-помічникам згадувати міфічних істот через баг у програмуванні. Про це пише Wired.
Що сталося
Нові ШІ-моделі від OpenAI отримали сувору заборону згадувати гоблінів, гремлінів, єнотів, тролів, огрів та голубів, якщо це не є абсолютно необхідним для відповіді на запит користувача. Йдеться про такі продукти компанії, як інструмент програмування Codex та моделі GPT-5.5.
Заборона стала реакцією на «обожнювання гоблінів», яке розвинулося у нових ШІ-моделях. Користувачі помітили, що ШІ почав регулярно називати програмні баги «гоблінами» чи «гремлінами», а також генерував випадкові фрази на кшталт «гоблін з ліхтариком» . Крім того, ШІ навіть почав називати себе Goblin-Pilled Transformer, тобто «трансформер, що прийняв пігулку гобліна».
Чому це цікаво
За даними дослідників, починаючи з моделі GPT-5.1, використання слова «гоблін» у ChatGPT різко зросло на 175%. Компанія пояснює це тим, що розробники під час створення нових моделей випадково створили винагороди за використання метафор, що охоплювали різноманітних істот.
Нові ШІ-моделі від OpenAI вийшли у квітні 2026 року. Вони краще справляються зі складними завданнями, такими як планування, написання чи наукових досліджень. Також GPT-5.5 є більш автономним, що дозволяє їм самостійно виконувати складні, багатокомпонентні завдання.