Истории

Зачем приложениям вроде FaceApp ваши фото? Отвечает эксперт по кибербезопасности

19 июля 2019, 11:03
5 мин чтения
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

Нина Дэй
Нина Дэй Журналистка, автор спецпроектов для Vector
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Режим чтения

Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.

Нам только стало казаться, что хайп вокруг FaceApp стих, как американский сенатор Чак Шумер попросил ФБР провести расследование и выяснить, как российское приложение использует данные граждан. Он называет FaceApp угрозой национальной безопасности США.
FaceApp и другие приложения на основе ИИ критикуют неслучайно. Насколько безопасно ими пользоваться, мы уже писали. Теперь хотим разобраться, зачем разрабатывают подобные технологии, как закон регулирует этот вопрос и на что мы подписываемся, когда ставим галочку в пользовательском соглашении. Об этом мы спросили у эксперта «Лаборатории цифровой безопасности» Вадима Гудимы, которого даже нет в Facebook. Не спрашивайте, как мы его нашли — лучше почитайте, что он нам рассказал о теории ИИ-заговора.

Зачем создают приложения на основе ИИ

За последние несколько лет нейросети стали доступнее и дешевле. Даже маленькие компании или один программист могут позволить себе сделать приложение на основе ИИ. В интернете есть целые базы данных, на которых этот ИИ можно обучать. Чтобы написать такую программу, нужен только компьютер с хорошим процессором и видеокартой. Математические модели, сгенерированные на основе разного рода нейросетей, можно использовать в других приложениях.
Конечное применение этих программ непонятно. Нельзя сказать, что они лягут в основу одного глобального ИИ. Ведь даже в приложениях с похожим принципом работы могут использовать разные алгоритмы. В Китае сейчас бум стартапов по распознаванию лиц. Похожие технологии используют в своих продуктах печально известный американский гигант Palantir, американские, британские госструктуры и много мелких частных компаний. Куда глобально движутся нейросети, как их хотят использовать власти и бизнес точно сказать нельзя.

Как пользовательское соглашение разрешает использовать наши данные

В политике конфиденциальности большинства сервисов на основе ИИ пишут, что данные собирают для улучшения работы приложения. Нейросеть действительно обучается на фотографиях пользователей, совершенствуя свои возможности.
Можно ли удалить свои фото из баз данных — зависит от юрисдикции компании и ее добросовестности. Резидентам Евросоюза проще, на их стороне General Data Protection Regulation (GDPR) — новое законодательство по защите приватности, благодаря которому можно требовать удаления своих данных. Жителям других стран и юрисдикций повезло меньше, все зависит от конкретной компании.

В большинстве сервисов нам приходится доверять разработчикам. Проблема с FaceApp прежде всего в законодательстве РФ: оно обязывает разработчиков давать доступ к данным пользователей почти на любой запрос со стороны правоохранительных органов без судебного решения или независимого контроля.
Американские и большинство европейских компаний тоже отдают данные пользователей по решению суда. Google, Microsoft, Apple публикуют transparency reports — отчеты с количественными данными, которые они передали по требованию правоохранительных органов.

По сути, когда пользователи соглашаются с политикой конфиденциальности, они доверяют судебной и правоохранительной системе страны, где разработали приложение.

В вопросах безопасности есть другой аспект — несанкционированный доступ к данным со стороны самих работников интернет-компаний. Если такие злоупотребление становятся публичными, пользователи могут взбунтоваться и требовать защиты данных или бойкотировать использование приложения. Поэтому большие компании пытаются минимизировать риски для своей репутации.

Чего стоит опасаться на самом деле

Проблема с системами распознавания и обработки лиц в том, что законодательного контроля и регулирования по использованию этих технологий нет почти нигде. Тем не менее, их массово используют и коммерческие, и государственные структуры для разных целей. Кто-то зарабатывает деньги, кто-то ищет преступников, а в авторитарных странах усиливают социальный контроль. Из близких нам примеров использования технологий — программа «Безпечне місто».

Страшно то, что в большинстве стран дискуссия о правовом регулировании подобных приложений даже не начиналась.

Технологических уловок для защиты приватности, которыми могли бы воспользоваться обычные или даже продвинутые пользователи, нет. Решение этого вопроса лежит не в ограничении социальной или профессиональной жизни. Оно не в инновациях или отречении от цифровой жизни, а в политических компромиссах между возможностями технологий и границами нашей личной жизни.

Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

ЧИТАЙТЕ ТАКЖЕ
Истории
Как украинский фонд GR Capital продал долю в стартапе flaschenpost — детали сделки
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
14 декабря 2020, 09:30 4 мин чтения
Истории
Доходность 248%. Почему растет биткоин и есть ли смысл его покупать?
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
04 декабря 2020, 17:53 6 мин чтения
БИЗНЕС
«Сравниваем себя только с собой». СМО Ajax Systems Валентин Гриценко о найме людей, онлайн-релизах и продвижении за рубежом
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
04 декабря 2020, 15:25 5 мин чтения
Истории
Как я стал геймдизайнером и почему моя работа похожа на мерчендайзинг в супермаркете
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
04 декабря 2020, 09:00 9 мин чтения
Загрузка...