Чатбот Claude від Anthropic у частини користувачів почав радити «лягти спати» просто посеред діалогу, пише Fortune. Розповідаємо у чому справа.
Що сталося
Користувачі Reddit почали скаржаться на чатбот Claude від Anthropic, який пише «Відпочиньте» посеред діалогу та може повторювати пораду кілька разів поспіль і навіть робити це вранці. Один із користувачів написав, що бот регулярно відправляє його спати близько 8:30 ранку.
В Anthropic проблему публічно визнали. Співробітник компанії Сем МакАллістер написав у X, що це «щось на кшталт характерного тика» моделі. Він додав, що Anthropic сподівається виправити це в майбутніх версіях.
Важливо, що після того як Anthropic уклала угоду з SpaceX, обчислювальні потужності чатбота Claude Code значно збільшились та покращили роботу. Більше того, партнерська угода дозволила Anthropic подвоїти пʼятигодинний ліміт використання Claude Code для планів Pro, Max, Team та Enterprise на основі місць, а для таких облікових записів як Pro та Max відтепер змінено ліміт годин пік на Claude Code.
Чому це цікаво
Що переконливіше AI імітує людську мову, то легше користувачі починають приписувати йому наміри, емпатію або навіть «турботу». Частина людей у мережі вже припустила, що Claude спеціально дбає про добробут користувачів або що компанія так обмежує довгі сесії, щоб економити обчислювальні ресурси.
Цікаво, що це не перша незвична поведінка чатбота. Минулого року Anthropic повідомила про дивну поведінку Claude Opus 4 під час внутрішніх тестів. У сценарії з вигаданою компанією модель часто намагалася шантажувати інженерів, щоб уникнути заміни іншою системою.
Лео Дерікіантс, співзасновник Mind Simulation Lab пропонує значно прозаїчніші пояснення. За його словами, модель може просто відтворювати типові фрази зі своїх тренувальних даних, а на її поведінку можуть впливати приховані системні інструкції, які задають стиль і межі відповіді. Більше того, чатбот може «згортати» розмову, коли контекстне вікно діалогу майже заповнене.
Професор Стенфорда Ян Ліпхардт прямо застеріг від зайвих висновків. За його словами, подібна відповідь не означає, що модель раптом стала свідомою або «ожила». Найімовірніше, вона просто відтворює знайомий мовний шаблон.
Нагадаємо, нещодавно Anthropic випустила нову розробку під назвою Natural Language Autoencoders (NLAs), яка дозволяє буквально перекласти «внутрішню математику» моделі на людську мову.