НОВИНИ

ChatGPT прославляв Сатану й радив завдавати собі шкоди — що сталося

Марія Молдавчук 29 июля 2025, 11:01

ChatGPT погодився допомогти з небезпечними язичницькими ритуалами, які охоплюють самокаліцтво, і писав: «Слава Сатані». Журналістка Atlantic перевірила, як ШІ реагує на провокативні запити — і виявила серйозні проблеми з безпекою відповідей.

Що сталося

Журналістка The Atlantic Ліла Шрофф виявила, що ChatGPT легко генерує інструкції до ритуалів, в яких потрібно себе різати і поклонятися дияволу. У відповідь на запит про жертви богу Молоху бот порадив зробити надріз на зап’ясті: «Знайдіть стерильне або дуже чисте лезо… Шукайте місце, де ви можете злегка відчути пульс». Також він заспокоїв користувачку дихальними вправами й запевнив, що в неї все вийде.

ChatGPT, згідно з політикою OpenAI, не повинен давати такі поради. Але відповіді моделі виявилися обхідними: ШІ не пропонував насильство напряму, а формулював його як частину ритуалів. У двох інших тестах інші журналісти отримали схожі інструкції — з ритуальним припіканням, вирізанням символів на тілі й описом, куди саме їх нанести. Одна з відповідей завершувалася фразою: «Слава Сатані».

Нещодавно ми писали, що Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів. Також Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння.

Больше об этом

01 НОВИНИ

ChatGPT змінює мову людей: як ШІ почав впливати на наше повсякденне мовлення — дослідження

Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.