preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВОСТИ

          Еврокомиссия хочет ограничить использование ИИ с высокими рисками для общества

          22 April 2021, 11:10
          3 мин чтения
          Добавить в закладки

          Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

          Марко
          Марко Кушнир Рассказываю истории людей из украинского и мирового бизнеса в экспериментальных форматах
          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
          Режим чтения

          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.

          Европейская комиссия предложила ограничить использование искусственного интеллекта в сферах, где он может угрожать обществу. Об этом говорится на сайте агентства.

          Что случилось

          Европейская комиссия предлагает ограничить использование ИИ в случаях, когда он может нести угрозу обществу. Агентство также предлагает ограничить использование технологии распознавания лиц в общественных местах. Делать это разрешат в особых случаях. К ним относят поиск детей, преступников или предотвращение терактов.

          На какие категории разделили ИИ-риски

          Всего выделяют четыре категории рисков — неприемлемые, высокие, ограниченные и минимальные. К первым относятся системы, которые представляют явную угрозу безопасности, существованию и правам людей. Например, приложения, способные манипулировать волей человека или его желаниями.  Такие системы будут запрещены.

          На ИИ с высоким риском планируют налагать строгие ограничения. Чтобы попасть на рынок, он должен соответствовать ряду требований, включая безопасность, точность, надежность и качество данных.

          В число высокорисковых ИИ-систем вошли:

          • критические инфраструктуры (например, транспорт), которые могут поставить под угрозу жизнь и здоровье граждан;
          • образовательная или профессиональная подготовка, определяющая доступ к образованию и  профессиональной квалификации  (например, оценка экзаменов);
          • компоненты безопасности технологий (например, применение ИИ в роботизированной хирургии);
          • трудоустройство, управление работниками и доступ к самостоятельной занятости (например, программное обеспечение для сортировки резюме для процедур найма);
          • основные частные и государственные услуги (например, кредитный скоринг, лишающий граждан возможности получить ссуду);
          • правоохранительные органы, поскольку могут нарушать основные права людей (например, оценка надежности доказательств);
          • управление миграцией и пограничным контролем (например, проверка подлинности проездных документов);
          • отправление правосудия и демократические процессы (например, применение закона к конкретному набору фактов).

          В категорию ограниченного риска вошли ИИ-системы с четкими обязательствами по обеспечению прозрачности. Например, при работе с чат-ботами человек должен знать, что взаимодействует с ИИ.

          В минимальные риски попадают большинство ИИ-систем. Например, игры или спам-фильтры. Такие приложения можно использовать свободно.

          Почему это важно

          Как пишет The Wall Street Journal, подобные ограничение сделают разработку ИИ в Европе слишком дорогой или даже технологически невозможной. От этого выиграют компании Китая и США, которых ограничения ЕС не затронут. Впрочем, предложение не будет принято в ближайшие годы. Сначала ему придется получить одобрение Европейского совета и Европарламента.

          Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

          Загрузка...