НОВИНИ

xAI пояснила дивну поведінку Grok

Аудіо версія новини

Слухати

Чат-бот xAI від Ілона Маска випадково пропагував суперечливу тему, вставляючи її в будь-яку відповідь. У компанії завершено розслідування. Про це пише The Verge.

Що сталося

У середу, 14 травня, чат-бот Grok від xAI почав вставляти згадки про «геноцид білих у Південній Африці» у випадкові відповіді на платформі X — навіть під відео з котом або питанням про «Губку Боба». Незалежно від теми, бот вперто повертався до обговорення смерті білих фермерів, пісні Kill the Boer та політичних тем. Це тривало кілька годин і привернуло увагу, зокрема, CEO OpenAI Сема Альтмана, який публічно пожартував із ситуації.

Після цього xAI зробила офіційну заяву: збій спричинила «несанкціонована модифікація» системної підказки Grok, яка навмисно спрямовувала бота на відповідь у політичному ключі. Компанія підкреслила, що така дія порушує її внутрішню політику та базові цінності. Розслідування завершено, винних не назвали, але команда запроваджує нові заходи контролю.

Серед них — публічне оприлюднення системних запитів Grok на GitHub, створення цілодобової команди моніторингу та запровадження багаторівневої перевірки, яка унеможливить внесення змін без затвердження.

Це вже другий подібний інцидент. У лютому xAI звинуватила колишнього співробітника OpenAI в редагуванні підказок Grok, через що бот ігнорував джерела, які критикували Ілона Маска чи Дональда Трампа. За словами керівника інженерного відділу xAI, тоді також ішлося про зміну без погодження з керівництвом.

Що це означає

Інцидент із Grok демонструє, наскільки вразливими залишаються навіть найсучасніші ШІ-системи до внутрішнього впливу. Прозорість системних підказок — важливий крок.

В умовах політичної поляризації навіть один модифікований запит може перетворити ШІ на інструмент пропаганди або дезінформації. І поки такі зміни можуть проходити без перевірки, довіра до подібних інструментів залишається під загрозою.

Що далі

xAI обіцяє жорсткіші механізми перевірки та більшу відкритість. Але інциденти повторюються, і це ставить під сумнів ефективність внутрішнього контролю. У гонитві за автономними ШІ-агентами компаніям доведеться не лише конкурувати технологічно, а й доводити здатність утримувати етичні межі в умовах все складнішої архітектури моделей.

ЧИТАЙТЕ ТАКОЖ

НОВИНИ
Netflix повертає культові серіали — що дивитись у 2026 році

09 Січня 2026, 18:03

НОВИНИ
Вперше в історії NASA здійснить медичну евакуацію астронавта з космосу — що відомо

09 Січня 2026, 15:35

НОВИНИ
Google попереджає: якщо ви отримали цей електронний лист, вас зламали

09 Січня 2026, 14:01

НОВИНИ
Grok відключив генератор зображень для більшості користувачів — чому

09 Січня 2026, 12:21

НОВИНИ
Ось скільки заробили Тім Кук та інші керівники Apple у 2025 році

09 Січня 2026, 11:00

Як жити
Джиу-джитсу та сквош. Який спорт вибирають українські та світові СЕО

09 Січня 2026, 08:34

НОВИНИ
Discord таємно подав документи на IPO — оцінка удвічі нижча, ніж три роки тому

08 Січня 2026, 19:00

НОВИНИ
Google перетворює Gmail на секретаря: ШІ скаже, кому зателефонувати й що оплатити

08 Січня 2026, 18:08

НОВИНИ
Кофаундер Palantir заявив, що мета компанії — «врятувати західну цивілізацію» від комуністів

08 Січня 2026, 17:21

БІЗНЕС
Цифрова зрілість МСБ: як бізнесу перейти від окремих рішень до системного управління

08 Січня 2026, 17:00