Еврокомиссия хочет ограничить использование ИИ с высокими рисками для общества
22 April 2021, 11:10
3 мин чтения
Добавить в закладки
Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.
Далее
Завершить
Марко КушнирРассказываю истории людей из украинского и мирового бизнеса в экспериментальных форматах
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Режим чтения
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Завершить
Европейская комиссия предложила ограничить использование искусственного интеллекта в сферах, где он может угрожать обществу. Об этом говорится на сайте агентства.
Что случилось
Европейская комиссия предлагает ограничить использование ИИ в случаях, когда он может нести угрозу обществу. Агентство также предлагает ограничить использование технологии распознавания лиц в общественных местах. Делать это разрешат в особых случаях. К ним относят поиск детей, преступников или предотвращение терактов.
На какие категории разделили ИИ-риски
Всего выделяют четыре категории рисков — неприемлемые, высокие, ограниченные и минимальные. К первым относятся системы, которые представляют явную угрозу безопасности, существованию и правам людей. Например, приложения, способные манипулировать волей человека или его желаниями. Такие системы будут запрещены.
На ИИ с высоким риском планируют налагать строгие ограничения. Чтобы попасть на рынок, он должен соответствовать ряду требований, включая безопасность, точность, надежность и качество данных.
В число высокорисковых ИИ-систем вошли:
критические инфраструктуры (например, транспорт), которые могут поставить под угрозу жизнь и здоровье граждан;
образовательная или профессиональная подготовка, определяющая доступ к образованию и профессиональной квалификации (например, оценка экзаменов);
компоненты безопасности технологий (например, применение ИИ в роботизированной хирургии);
трудоустройство, управление работниками и доступ к самостоятельной занятости (например, программное обеспечение для сортировки резюме для процедур найма);
основные частные и государственные услуги (например, кредитный скоринг, лишающий граждан возможности получить ссуду);
правоохранительные органы, поскольку могут нарушать основные права людей (например, оценка надежности доказательств);
управление миграцией и пограничным контролем (например, проверка подлинности проездных документов);
отправление правосудия и демократические процессы (например, применение закона к конкретному набору фактов).
В категорию ограниченного риска вошли ИИ-системы с четкими обязательствами по обеспечению прозрачности. Например, при работе с чат-ботами человек должен знать, что взаимодействует с ИИ.
В минимальные риски попадают большинство ИИ-систем. Например, игры или спам-фильтры. Такие приложения можно использовать свободно.
Почему это важно
Как пишет The Wall Street Journal, подобные ограничение сделают разработку ИИ в Европе слишком дорогой или даже технологически невозможной. От этого выиграют компании Китая и США, которых ограничения ЕС не затронут. Впрочем, предложение не будет принято в ближайшие годы. Сначала ему придется получить одобрение Европейского совета и Европарламента.