Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Чат-бот xAI від Ілона Маска випадково пропагував суперечливу тему, вставляючи її в будь-яку відповідь. У компанії завершено розслідування. Про це пише The Verge.
Що сталося
У середу, 14 травня, чат-бот Grok від xAI почав вставляти згадки про «геноцид білих у Південній Африці» у випадкові відповіді на платформі X — навіть під відео з котом або питанням про «Губку Боба». Незалежно від теми, бот вперто повертався до обговорення смерті білих фермерів, пісні Kill the Boer та політичних тем. Це тривало кілька годин і привернуло увагу, зокрема, CEO OpenAI Сема Альтмана, який публічно пожартував із ситуації.
There are many ways this could have happened. I’m sure xAI will provide a full and transparent explanation soon.
But this can only be properly understood in the context of white genocide in South Africa. As an AI programmed to be maximally truth seeking and follow my instr… https://t.co/bsjh4BTTRB
Після цього xAI зробила офіційну заяву: збій спричинила «несанкціонована модифікація» системної підказки Grok, яка навмисно спрямовувала бота на відповідь у політичному ключі. Компанія підкреслила, що така дія порушує її внутрішню політику та базові цінності. Розслідування завершено, винних не назвали, але команда запроваджує нові заходи контролю.
We want to update you on an incident that happened with our Grok response bot on X yesterday.
What happened: On May 14 at approximately 3:15 AM PST, an unauthorized modification was made to the Grok response bot's prompt on X. This change, which directed Grok to provide a…
Серед них — публічне оприлюднення системних запитів Grok на GitHub, створення цілодобової команди моніторингу та запровадження багаторівневої перевірки, яка унеможливить внесення змін без затвердження.
Це вже другий подібний інцидент. У лютому xAI звинуватила колишнього співробітника OpenAI в редагуванні підказок Grok, через що бот ігнорував джерела, які критикували Ілона Маска чи Дональда Трампа. За словами керівника інженерного відділу xAI, тоді також ішлося про зміну без погодження з керівництвом.
Що це означає
Інцидент із Grok демонструє, наскільки вразливими залишаються навіть найсучасніші ШІ-системи до внутрішнього впливу. Прозорість системних підказок — важливий крок.
В умовах політичної поляризації навіть один модифікований запит може перетворити ШІ на інструмент пропаганди або дезінформації. І поки такі зміни можуть проходити без перевірки, довіра до подібних інструментів залишається під загрозою.
Що далі
xAI обіцяє жорсткіші механізми перевірки та більшу відкритість. Але інциденти повторюються, і це ставить під сумнів ефективність внутрішнього контролю. У гонитві за автономними ШІ-агентами компаніям доведеться не лише конкурувати технологічно, а й доводити здатність утримувати етичні межі в умовах все складнішої архітектури моделей.