Apple загрожує позов на $1,2 млрд — через виявлення матеріалів про сексуальне насильство над дітьми в iCloud
На Apple подали до суду через відмову від функції для виявлення матеріалів про сексуальне насильство над дітьми (CSAM) в iCloud, пише Benzinga. Розповідаємо деталі.
Що сталося
На Apple подали до суду через відмову від впровадження системи для сканування фото в iCloud на наявність дитячої порнографії.
Раніше компанія анонсувала плани щодо сканування iCloud для виявлення матеріалів CSAM, але згодом відмовилася від них. Позов подала 27-річна жінка, яка стверджує, що через це її фото, де здійснюють насильство, стало доступним для інших людей.
Вона заявляє, що родич розбещував її в дитинстві і викладав ці фото в інтернет. Тепер вона постійно отримує повідомлення від правоохоронних органів про те, що когось звинувачують у зберіганні цих зображень.
У позові йдеться про те, що Apple має змінити свою політику і виплатити компенсації 2 680 жертвам на суму $1,2 млрд.
Больше об этом
Співробітник Apple позивається проти компанії через моніторинг особистих пристроїв працівників
Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.