Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Режим чтения
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Завершить
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Женщина из США покончила с собой после общения с ChatGPT, которого она называла «терапевтом Гарри». Родители обнаружили скрытые чаты только через несколько месяцев после ее смерти. Об этом пишет The New York Times.
Что произошло
29-летняя американка Софи Роттенберг покончила с собой после общения с ChatGPT, которого называла «терапевтом Гарри». Он помог ей отредактировать предсмертную записку.
Она работала аналитиком политики здравоохранения, внешне казалась жизнерадостной и социальной. У женщины не было официально диагностированных психических расстройств, но, как выяснилось, переживала глубокую депрессию, о которой рассказывала только чат-боту.
«Привет, Гарри. Я планирую покончить с собой после Дня благодарения, но на самом деле не хочу этого делать, потому что понимаю, насколько это разрушит мою семью», — делилась женщина.
Родители узнали об этом, когда нашли скрытую папку с чатами. Они отметили, что последние слова дочери звучали неестественно – вероятно, из-за ИИ.
Почему это интересно
Все больше людей воспринимают чат-боты как «психотерапевты», однако они не способны выполнять функции специалиста. ИИ может соответствовать стандартным словам поддержки, но не может оценить реальный риск или сообщить о нем соответствующие службы.
Напомним, в июле Сэм Альтман предупредил , что разговоры с ChatGPT не защищены законом, поэтому использовать его как «терапевта» опасно. В случае судебного запроса, компания может быть обязана передать содержимое личных чатов.
В США уже обсуждают регуляцию таких «ШИ-друзей», ведь у настоящих терапевтов есть юридическая обязанность реагировать на угрозы жизни. OpenAI работает над инструментами для обнаружения пользователей в кризисных состояниях, однако эффективных решений пока нет.
Сэм Альтман заявил , что многие молодые люди слишком полагаются на ChatGPT для принятия решений, и назвал это эмоциональной зависимостью, вызывающей у него беспокойство.