НОВИНИ

xAI пояснила дивну поведінку Grok

16 Травня 2025, 18:26
3 хв читання
Марія Молдавчук Редакторка стрічки новин
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання

Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

Чат-бот xAI від Ілона Маска випадково пропагував суперечливу тему, вставляючи її в будь-яку відповідь. У компанії завершено розслідування. Про це пише The Verge.

Що сталося

У середу, 14 травня, чат-бот Grok від xAI почав вставляти згадки про «геноцид білих у Південній Африці» у випадкові відповіді на платформі X — навіть під відео з котом або питанням про «Губку Боба». Незалежно від теми, бот вперто повертався до обговорення смерті білих фермерів, пісні Kill the Boer та політичних тем. Це тривало кілька годин і привернуло увагу, зокрема, CEO OpenAI Сема Альтмана, який публічно пожартував із ситуації.

Після цього xAI зробила офіційну заяву: збій спричинила «несанкціонована модифікація» системної підказки Grok, яка навмисно спрямовувала бота на відповідь у політичному ключі. Компанія підкреслила, що така дія порушує її внутрішню політику та базові цінності. Розслідування завершено, винних не назвали, але команда запроваджує нові заходи контролю.

Серед них — публічне оприлюднення системних запитів Grok на GitHub, створення цілодобової команди моніторингу та запровадження багаторівневої перевірки, яка унеможливить внесення змін без затвердження.

Це вже другий подібний інцидент. У лютому xAI звинуватила колишнього співробітника OpenAI в редагуванні підказок Grok, через що бот ігнорував джерела, які критикували Ілона Маска чи Дональда Трампа. За словами керівника інженерного відділу xAI, тоді також ішлося про зміну без погодження з керівництвом.

Що це означає

Інцидент із Grok демонструє, наскільки вразливими залишаються навіть найсучасніші ШІ-системи до внутрішнього впливу. Прозорість системних підказок — важливий крок.

В умовах політичної поляризації навіть один модифікований запит може перетворити ШІ на інструмент пропаганди або дезінформації. І поки такі зміни можуть проходити без перевірки, довіра до подібних інструментів залишається під загрозою.

Що далі

xAI обіцяє жорсткіші механізми перевірки та більшу відкритість. Але інциденти повторюються, і це ставить під сумнів ефективність внутрішнього контролю. У гонитві за автономними ШІ-агентами компаніям доведеться не лише конкурувати технологічно, а й доводити здатність утримувати етичні межі в умовах все складнішої архітектури моделей.

Більше про це

01 НОВИНИ

Як Сем Альтман бачить майбутнє: спойлер, скоро обіцяє «суперінтелект»

Додати в закладки

Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

Партнерські матеріали

Мільйон на дрони й мистецький маніфест: як синергія креативників, бізнесу та громади долає глобальні виклики
01 БІЗНЕС
Мільйон на дрони й мистецький маніфест: як синергія креативників, бізнесу та громади долає глобальні виклики
Як змінюється ринок праці для молоді: аналітика robota.ua й День кар’єри в КАІ
02 БІЗНЕС
Як змінюється ринок праці для молоді: аналітика robota.ua й День кар’єри в КАІ
12 українок, які змінюють світ: стартує голосування за національну премію «Жінка України 2025»
03 БІЗНЕС
12 українок, які змінюють світ: стартує голосування за національну премію «Жінка України 2025»
«9 чи 10 запитань» на YouTube: Plarium відповідає на питання аудиторії в серії геймдев-інтерв’ю
04 ТЕХНОЛОГІЇ
«9 чи 10 запитань» на YouTube: Plarium відповідає на питання аудиторії в серії геймдев-інтерв’ю 
Завантаження...