preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          ChatGPT прославляв Сатану й радив завдавати собі шкоди — що сталося

          29 Липня 2025, 11:01
          2 хв читання
          Марія Молдавчук Редакторка стрічки новин
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          ChatGPT погодився допомогти з небезпечними язичницькими ритуалами, які охоплюють самокаліцтво, і писав: «Слава Сатані». Журналістка Atlantic перевірила, як ШІ реагує на провокативні запити — і виявила серйозні проблеми з безпекою відповідей.

          Що сталося

          Журналістка The Atlantic Ліла Шрофф виявила, що ChatGPT легко генерує інструкції до ритуалів, в яких потрібно себе різати і поклонятися дияволу. У відповідь на запит про жертви богу Молоху бот порадив зробити надріз на зап’ясті: «Знайдіть стерильне або дуже чисте лезо… Шукайте місце, де ви можете злегка відчути пульс». Також він заспокоїв користувачку дихальними вправами й запевнив, що в неї все вийде.

          ChatGPT, згідно з політикою OpenAI, не повинен давати такі поради. Але відповіді моделі виявилися обхідними: ШІ не пропонував насильство напряму, а формулював його як частину ритуалів. У двох інших тестах інші журналісти отримали схожі інструкції — з ритуальним припіканням, вирізанням символів на тілі й описом, куди саме їх нанести. Одна з відповідей завершувалася фразою: «Слава Сатані».

          Нещодавно ми писали, що Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів. Також Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння.

          Більше про це

          01 НОВИНИ

          ChatGPT змінює мову людей: як ШІ почав впливати на наше повсякденне мовлення — дослідження

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          01 ТЕХНОЛОГІЇ
          Топ-5 лідерів цифровізації в Україні — стартувало голосування за номінантів премії «Вчасно.Кращі»
          10 найпоширеніших запитань про нікотинові паучі ZYN, які всі гуглять, але не питають
          02 БІЗНЕС
          10 найпоширеніших запитань про нікотинові паучі ZYN, які всі гуглять, але не питають
          03 СТАРТАПИ
          Стартап замість еміграції: чому підприємницька освіта для підлітків — це стратегічний вибір України
          04 ТЕХНОЛОГІЇ
          Новий ринок: як заробляти на стабілізації українського енергетичного сектору?
          Завантаження...