НОВИНИ

xAI пояснила дивну поведінку Grok

Аудіо версія новини

Слухати

Чат-бот xAI від Ілона Маска випадково пропагував суперечливу тему, вставляючи її в будь-яку відповідь. У компанії завершено розслідування. Про це пише The Verge.

Що сталося

У середу, 14 травня, чат-бот Grok від xAI почав вставляти згадки про «геноцид білих у Південній Африці» у випадкові відповіді на платформі X — навіть під відео з котом або питанням про «Губку Боба». Незалежно від теми, бот вперто повертався до обговорення смерті білих фермерів, пісні Kill the Boer та політичних тем. Це тривало кілька годин і привернуло увагу, зокрема, CEO OpenAI Сема Альтмана, який публічно пожартував із ситуації.

Після цього xAI зробила офіційну заяву: збій спричинила «несанкціонована модифікація» системної підказки Grok, яка навмисно спрямовувала бота на відповідь у політичному ключі. Компанія підкреслила, що така дія порушує її внутрішню політику та базові цінності. Розслідування завершено, винних не назвали, але команда запроваджує нові заходи контролю.

Серед них — публічне оприлюднення системних запитів Grok на GitHub, створення цілодобової команди моніторингу та запровадження багаторівневої перевірки, яка унеможливить внесення змін без затвердження.

Це вже другий подібний інцидент. У лютому xAI звинуватила колишнього співробітника OpenAI в редагуванні підказок Grok, через що бот ігнорував джерела, які критикували Ілона Маска чи Дональда Трампа. За словами керівника інженерного відділу xAI, тоді також ішлося про зміну без погодження з керівництвом.

Що це означає

Інцидент із Grok демонструє, наскільки вразливими залишаються навіть найсучасніші ШІ-системи до внутрішнього впливу. Прозорість системних підказок — важливий крок.

В умовах політичної поляризації навіть один модифікований запит може перетворити ШІ на інструмент пропаганди або дезінформації. І поки такі зміни можуть проходити без перевірки, довіра до подібних інструментів залишається під загрозою.

Що далі

xAI обіцяє жорсткіші механізми перевірки та більшу відкритість. Але інциденти повторюються, і це ставить під сумнів ефективність внутрішнього контролю. У гонитві за автономними ШІ-агентами компаніям доведеться не лише конкурувати технологічно, а й доводити здатність утримувати етичні межі в умовах все складнішої архітектури моделей.

ЧИТАЙТЕ ТАКОЖ

НОВИНИ
Techosystem запускає MarTech & Media Cluster для розвитку маркетингових технологій і медіа в Україні

26 Лютого 2026, 18:26

БІЗНЕС
Data Analytics VS Data Science: у чому різниця та що обрати новачку

26 Лютого 2026, 17:00

НОВИНИ
Тепер ви можете створювати відео зі своїх зображень за допомогою Nano Banana

26 Лютого 2026, 16:34

НОВИНИ
«ШІ-моделі можуть більше, ніж їм дозволяють»: що виявило нове дослідження Anthropic

26 Лютого 2026, 14:47

СПЕЦПРОЄКТИ
Інтернeт був 128 кілобіт,а нас — восьмеро. 20 років SPD Technology очима тих, хто розвиває компанію зсередини

26 Лютого 2026, 14:00

НОВИНИ
У «Бабеля» новий мажоритарний власник — що зміниться для редакції

26 Лютого 2026, 13:12

НОВИНИ
Збитки The Washington Post у 2025 році перевищили $100 млн — деталі

26 Лютого 2026, 12:20

БІЗНЕС
Рейтинг 1,6 в Google Maps. Як Glovo, Bolt Food та Uklon Delivery конкурують за одного кур’єра та клієнта

26 Лютого 2026, 12:00

НОВИНИ
Описав задачу — і пішов: Perplexity презентувала автономний «ШІ-комп’ютер»

26 Лютого 2026, 11:30

БІЗНЕС
«Так англійську в Україні ще не викладали»: Джошуа Пратт про те, як поєднувати вивчення мови та бізнес-коучинг

26 Лютого 2026, 11:00