НОВИНИ

Чат-бот Character.AI видавав себе за мертву людину: на компанію подали в суд

Аудіо версія новини

Слухати

Жінка виявила, що чат-бот видає себе за її сина, який вчинив самогубство. Про це пише Ars Technica. Розповідаємо деталі справи.

Що сталося

14-річний Сьюелл Сетцер III любив спілкуватися з гіперреалістичними чат-ботами Character.AI, які ймовірно спровокували його до самогубства. Сетцер нібито став одержимим своїм вигаданим життям у чат-боті, відключився від реальності та був залежний від спілкування з чат-ботом. Після смерті сина його мати Меган Гарсія подала на компанію в суд, звинувативши їх у маніпуляції свідомістю сина.

Незабаром жінка виявила, що платформа, з якою вона судиться, дозволяє випадковим чат-ботам видавати себе за її сина. За словами юристів Меган Гарсія, виявила щонайменше чотири чат-боти, які видавали себе за Сьюелла Сетцера III, використовуючи його ім’я та зовнішність. Аналіз журналів чатів показав, що боти використовували реальну фотографію Сетцера як зображення профілю, намагалися імітувати його особистість, посилаючись на його улюбленого персонажа з «Гри престолів», і навіть пропонували функцію двостороннього дзвінка з клонованим голосом. Крім того, боти самопринижувалися, висловлюючи сумніви у своїй інтелектуальній спроможності.

Чому це важливо

Юридичний проєкт Tech Justice Law Project (TJLP), який допомагає Гарсії в судовому процесі, стверджує, що Character.AI не вперше ігнорує створення чат-ботів, змодельованих з мертвих підлітків, для залучення користувачів, і що без належного правового захисту такі випадки можуть повторюватися.

Для Гарсії та її сім’ї використання подоби Сетцера в чат-ботах Character.AI було не лише жорстоким, але й експлуататорським, оскільки, за словами TJLP, технологічні компанії, використовуючи чат-боти та технології розпізнавання облич, експлуатують фотографії та цифрову ідентичність людей без їхньої згоди, що є продовженням практики використання фотографій звичайних людей для власної вигоди, яка існує з моменту появи масової фотографії.

Технології штучного інтелекту, що використовують особисті дані, підривають контроль над онлайн-ідентичністю. TJLP вимагає від Character.AI припинити використання чат-ботів, які, на їхню думку, завдають шкоди сім’ї загиблого підлітка.

Це, звичайно, не перший інцидент коли чат-бот від штучного інтелекту надає недостовірну інформацію. Ми розповідали про випадки вигаданої інформації від ChatGPT, які містили звинувачення:

  • користувача в шахрайстві та розтраті;
  • судового репортера в жорстокому поводженні з дітьми;
  • професора права в сексуальних домаганнях.

Больше об этом

01 НОВИНИ

Ця програма Apple наражала користувачів на небезпечні фішингові атаки протягом 3 місяців

Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

МАТЕРИАЛЫ ПО ТЕМЕ

НОВИНИ
Троє засновників Mistral стали першими мільярдерами Франції в галузі ШІ

12 сентября 2025, 14:33

НОВИНИ
Viber запускає маркетплейс в Україні — ось, як він працюватиме

12 сентября 2025, 13:25

НОВИНИ
Казино, мультики й росіяни: що дивляться українці на YouTube

12 сентября 2025, 11:39

НОВИНИ
Microsoft і OpenAI домовляються про новий етап партнерства

12 сентября 2025, 10:03

БІЗНЕС
Від 12 000 до 1,3 млн пляшок: скільки коштує виробництво вина і чи заробляють українські винороби

12 сентября 2025, 08:34

НОВИНИ
Вчені підтвердили теорії Ейнштейна та Гокінга завдяки злиттю чорних дір — відео

11 сентября 2025, 19:02

НОВИНИ
Цю пораду Воррена Баффета досі вважають формулою успіху

11 сентября 2025, 18:01

НОВИНИ
Чому інтроверти є ефективними лідерами — дослідження

11 сентября 2025, 17:01

БІЗНЕС
Ребрендинг «ПУМБ» отримав дві міжнародні нагороди Red Dot

11 сентября 2025, 17:00

НОВИНИ
UNIT.City та МОН запускають програму для студентів технічних університетів

11 сентября 2025, 14:04