Сем Альтман попереджає, що використовувати ChatGPT як терапевта — небезпечно, і ось чому
Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів. Про це пише TechCrunch.
Що сталося
Під час подкасту This Past Weekend with Theo Von Сем Альтман заявив, що розмови з ChatGPT про особисті або емоційні проблеми не захищені юридичною конфіденційністю. Тобто те, що ви обговорюєте з ШІ, не має такого ж правового статусу, як консультації з психологом, лікарем чи юристом.
Багато людей, особливо молодь, звертаються до ChatGPT як до терапевта. Але юридично ця форма взаємодії не захищена — OpenAI зобов’язане розкривати дані користувачів на вимогу суду. Нещодавно ми писали, що Сем Альтман занепокоєний емоційною залежністю молоді від ChatGPT.
«Коли ви розповідаєте щось особисте психологу чи адвокату, діє юридична привілегія. Але ми ще не визначили, як це працює з ChatGPT», — сказав Альтман.
Компанія OpenAI вже стикається з судовими вимогами зберігати й передавати діалоги користувачів, наприклад, у справі проти The New York Times. Хоч компанія й оскаржує ці рішення, правової бази для захисту користувачів у спілкуванні зі ШІ ще не існує.
Нагадуємо, раніше ми писали, Сем Альтман хоче, щоб ChatGPT запам’ятовував усе ваше життя — і це вже не фантастика.
Больше об этом
У 2026 ШІ створюватиме нові ідеї — Сем Альтман поділився черговим прогнозом
Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.