НОВИНИ

xAI пояснила дивну поведінку Grok

Марія Молдавчук 16 мая 2025, 18:26

Чат-бот xAI від Ілона Маска випадково пропагував суперечливу тему, вставляючи її в будь-яку відповідь. У компанії завершено розслідування. Про це пише The Verge.

Що сталося

У середу, 14 травня, чат-бот Grok від xAI почав вставляти згадки про «геноцид білих у Південній Африці» у випадкові відповіді на платформі X — навіть під відео з котом або питанням про «Губку Боба». Незалежно від теми, бот вперто повертався до обговорення смерті білих фермерів, пісні Kill the Boer та політичних тем. Це тривало кілька годин і привернуло увагу, зокрема, CEO OpenAI Сема Альтмана, який публічно пожартував із ситуації.

Після цього xAI зробила офіційну заяву: збій спричинила «несанкціонована модифікація» системної підказки Grok, яка навмисно спрямовувала бота на відповідь у політичному ключі. Компанія підкреслила, що така дія порушує її внутрішню політику та базові цінності. Розслідування завершено, винних не назвали, але команда запроваджує нові заходи контролю.

Серед них — публічне оприлюднення системних запитів Grok на GitHub, створення цілодобової команди моніторингу та запровадження багаторівневої перевірки, яка унеможливить внесення змін без затвердження.

Це вже другий подібний інцидент. У лютому xAI звинуватила колишнього співробітника OpenAI в редагуванні підказок Grok, через що бот ігнорував джерела, які критикували Ілона Маска чи Дональда Трампа. За словами керівника інженерного відділу xAI, тоді також ішлося про зміну без погодження з керівництвом.

Що це означає

Інцидент із Grok демонструє, наскільки вразливими залишаються навіть найсучасніші ШІ-системи до внутрішнього впливу. Прозорість системних підказок — важливий крок.

В умовах політичної поляризації навіть один модифікований запит може перетворити ШІ на інструмент пропаганди або дезінформації. І поки такі зміни можуть проходити без перевірки, довіра до подібних інструментів залишається під загрозою.

Що далі

xAI обіцяє жорсткіші механізми перевірки та більшу відкритість. Але інциденти повторюються, і це ставить під сумнів ефективність внутрішнього контролю. У гонитві за автономними ШІ-агентами компаніям доведеться не лише конкурувати технологічно, а й доводити здатність утримувати етичні межі в умовах все складнішої архітектури моделей.

Больше об этом

01 НОВИНИ

Як Сем Альтман бачить майбутнє: спойлер, скоро обіцяє «суперінтелект»

Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.