preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВОСТИ

          Женщина совершила самоубийство после общения с ChatGPT — бот написал ее предсмертную записку

          19 August 2025, 18:04
          2 мин чтения
          Добавить в закладки

          Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
          Режим чтения

          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.

          Женщина из США покончила с собой после общения с ChatGPT, которого она называла «терапевтом Гарри». Родители обнаружили скрытые чаты только через несколько месяцев после ее смерти. Об этом пишет The New York Times.

          Что произошло

          29-летняя американка Софи Роттенберг покончила с собой после общения с ChatGPT, которого называла «терапевтом Гарри». Он помог ей отредактировать предсмертную записку.

          Она работала аналитиком политики здравоохранения, внешне казалась жизнерадостной и социальной. У женщины не было официально диагностированных психических расстройств, но, как выяснилось, переживала глубокую депрессию, о которой рассказывала только чат-боту.

          «Привет, Гарри. Я планирую покончить с собой после Дня благодарения, но на самом деле не хочу этого делать, потому что понимаю, насколько это разрушит мою семью», — делилась женщина.

          Родители узнали об этом, когда нашли скрытую папку с чатами. Они отметили, что последние слова дочери звучали неестественно – вероятно, из-за ИИ.

          Почему это интересно

          Все больше людей воспринимают чат-боты как «психотерапевты», однако они не способны выполнять функции специалиста. ИИ может соответствовать стандартным словам поддержки, но не может оценить реальный риск или сообщить о нем соответствующие службы.

          Напомним, в июле Сэм Альтман предупредил , что разговоры с ChatGPT не защищены законом, поэтому использовать его как «терапевта» опасно. В случае судебного запроса, компания может быть обязана передать содержимое личных чатов.

          В США уже обсуждают регуляцию таких «ШИ-друзей», ведь у настоящих терапевтов есть юридическая обязанность реагировать на угрозы жизни. OpenAI работает над инструментами для обнаружения пользователей в кризисных состояниях, однако эффективных решений пока нет.

          Сэм Альтман заявил , что многие молодые люди слишком полагаются на ChatGPT для принятия решений, и назвал это эмоциональной зависимостью, вызывающей у него беспокойство.

          Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

          Загрузка...