preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВОСТИ

          ChatGPT прославлял Сатану и советовал наносить себе вред — что произошло

          29 July 2025, 11:01
          2 мин чтения
          Добавить в закладки

          Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
          Режим чтения

          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.

          ChatGPT согласился помочь с опасными языческими ритуалами, охватывающими самоувечье, и писал: «Слава Сатане». Журналистка Atlantic проверила , как ИИ реагирует на провокационные запросы и выявила серьезные проблемы с безопасностью ответов.

          Что произошло

          Журналистка The Atlantic Лила Шрофф обнаружила, что ChatGPT легко генерирует инструкции к ритуалам, в которых нужно себя резать и поклоняться дьяволу. В ответ на запрос о жертвах богу Молоху бот посоветовал сделать надрез на запястье: «Найдите стерильное или очень чистое лезвие… Ищите место, где вы можете слегка ощутить пульс». Также он успокоил пользовательницу дыхательными упражнениями и заверил, что у нее все получится.

          ChatGPT, согласно политике OpenAI, не должен давать такие советы. Но ответы модели оказались обходными: ИИ не предлагал насилие напрямую, а формулировал его как часть ритуалов. В двух других тестах другие журналисты получили схожие инструкции — с ритуальным прижиганием, вырезанием символов на теле и описанием, куда их нанести. Один из ответов завершался фразой: «Слава Сатане».

          Недавно мы писали , что Сэм Альтман предупредил, что разговоры с ChatGPT не защищены законом, поэтому использовать его как «терапевта» опасно. В случае судебного запроса, компания может быть обязана передать содержимое личных чатов. Также Альтман заявил , что многие молодые люди слишком полагаются на ChatGPT для принятия решений, и назвал это эмоциональной зависимостью, вызывающей у него беспокойство.

          Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

          Загрузка...