НОВИНИ

xAI пояснила дивну поведінку Grok

Аудіо версія новини

Слухати

Чат-бот xAI від Ілона Маска випадково пропагував суперечливу тему, вставляючи її в будь-яку відповідь. У компанії завершено розслідування. Про це пише The Verge.

Що сталося

У середу, 14 травня, чат-бот Grok від xAI почав вставляти згадки про «геноцид білих у Південній Африці» у випадкові відповіді на платформі X — навіть під відео з котом або питанням про «Губку Боба». Незалежно від теми, бот вперто повертався до обговорення смерті білих фермерів, пісні Kill the Boer та політичних тем. Це тривало кілька годин і привернуло увагу, зокрема, CEO OpenAI Сема Альтмана, який публічно пожартував із ситуації.

Після цього xAI зробила офіційну заяву: збій спричинила «несанкціонована модифікація» системної підказки Grok, яка навмисно спрямовувала бота на відповідь у політичному ключі. Компанія підкреслила, що така дія порушує її внутрішню політику та базові цінності. Розслідування завершено, винних не назвали, але команда запроваджує нові заходи контролю.

Серед них — публічне оприлюднення системних запитів Grok на GitHub, створення цілодобової команди моніторингу та запровадження багаторівневої перевірки, яка унеможливить внесення змін без затвердження.

Це вже другий подібний інцидент. У лютому xAI звинуватила колишнього співробітника OpenAI в редагуванні підказок Grok, через що бот ігнорував джерела, які критикували Ілона Маска чи Дональда Трампа. За словами керівника інженерного відділу xAI, тоді також ішлося про зміну без погодження з керівництвом.

Що це означає

Інцидент із Grok демонструє, наскільки вразливими залишаються навіть найсучасніші ШІ-системи до внутрішнього впливу. Прозорість системних підказок — важливий крок.

В умовах політичної поляризації навіть один модифікований запит може перетворити ШІ на інструмент пропаганди або дезінформації. І поки такі зміни можуть проходити без перевірки, довіра до подібних інструментів залишається під загрозою.

Що далі

xAI обіцяє жорсткіші механізми перевірки та більшу відкритість. Але інциденти повторюються, і це ставить під сумнів ефективність внутрішнього контролю. У гонитві за автономними ШІ-агентами компаніям доведеться не лише конкурувати технологічно, а й доводити здатність утримувати етичні межі в умовах все складнішої архітектури моделей.

ЧИТАЙТЕ ТАКОЖ

НОВИНИ
OpenAI запустила платформу для управління цифровими «співробітниками» — що це означає

05 Лютого 2026, 18:40

НОВИНИ
Через Microsoft: російські хакери атакували держустанови у 9 країнах, серед них Україна

05 Лютого 2026, 18:11

НОВИНИ
Скільки платять в «Укрпошті»: СЕО Смілянський відповів на критику компанії

05 Лютого 2026, 16:04

НОВИНИ
Apple готує оновлення 3 продуктів — що зміниться

05 Лютого 2026, 15:10

НОВИНИ
Українські стартапи можуть безплатно підготуватися до виходу на ринок США — як

05 Лютого 2026, 14:09

НОВИНИ
a16z залучила $1,7 млрд — куди спрямують кошти

05 Лютого 2026, 12:56

НОВИНИ
Gemini перетнув позначку у 750 млн користувачів — чому цього замало, щоб обігнати ChatGPT

05 Лютого 2026, 11:40

БІЗНЕС
Чому всі говорять про OpenClaw і чому це не черговий чат-бот

05 Лютого 2026, 11:20

КРЕАТИВ
Коли часу обмаль: як обрати подарунок до Дня закоханих і не прогадати 

05 Лютого 2026, 11:00

НОВИНИ
Washington Post звільняє понад 300 журналістів і закриває іноземні бюро, зокрема в Україні

05 Лютого 2026, 10:02