НОВИНИ

Apple загрожує позов на $1,2 млрд — через виявлення матеріалів про сексуальне насильство над дітьми в iCloud

Аудіо версія новини

Слухати

На Apple подали до суду через відмову від функції для виявлення матеріалів про сексуальне насильство над дітьми (CSAM) в iCloud, пише Benzinga. Розповідаємо деталі.

Що сталося

На Apple подали до суду через відмову від впровадження системи для сканування фото в iCloud на наявність дитячої порнографії.

Раніше компанія анонсувала плани щодо сканування iCloud для виявлення матеріалів CSAM, але згодом відмовилася від них. Позов подала 27-річна жінка, яка стверджує, що через це її фото, де здійснюють насильство, стало доступним для інших людей.

Вона заявляє, що родич розбещував її в дитинстві і викладав ці фото в інтернет. Тепер вона постійно отримує повідомлення від правоохоронних органів про те, що когось звинувачують у зберіганні цих зображень.

У позові йдеться про те, що Apple має змінити свою політику і виплатити компенсації 2 680 жертвам на суму $1,2 млрд.

ЧИТАЙТЕ ТАКОЖ

СПЕЦПРОЄКТИ
Love season в Uklon: як бренд фіксив Valentine’s-ситуації, просував українську музику в застосунку та колабився з артистами

20 Березня 2026, 11:00

НОВИНИ
OpenAI готує «суперзастосунок» — що це буде

20 Березня 2026, 10:00

Як жити
Які звички та ритуали зроблять ваше життя ефективнішим — бліц з топами Boosta

20 Березня 2026, 08:34

НОВИНИ
7,5 млн агентів і 75 000 людей: як Nvidia бачить майбутнє компаній

19 Березня 2026, 19:00

НОВИНИ
Після 20 років роботи закрилася онлайн-бібліотека «Чтиво» 

19 Березня 2026, 18:37

НОВИНИ
OpenAI запустила онлайн-челендж із шансом отримати роботу в компанії

19 Березня 2026, 18:30

НОВИНИ
Тепер на iPhone є ШІ-браузер Comet від Perplexity

19 Березня 2026, 18:00

НОВИНИ
Українська комбуча Spraga виходить на ринок Польщі

19 Березня 2026, 17:20

БІЗНЕС
Як IT-фахівцю зробити наступний крок у кар’єрі: новий сервіс від Mate academy

19 Березня 2026, 17:00

НОВИНИ
Подяка чи знущання: чому пост Сема Альтмана обурив користувачів

19 Березня 2026, 16:00