preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          ТЕХНОЛОГИИ

          «Справедливый, экологичный и понятный». В ЕС решили, каким должен быть искусственный интеллект

          09 April 2019, 11:52
          3 мин чтения
          Добавить в закладки

          Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

          dmitriy-koshelnik
          Дмитро Кошельник Придумываю темы, редактирую тексты, пишу о компаниях и предпринимателях, придираюсь к фактам.
          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
          Режим чтения

          Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.

          Вчера Европейский Союз опубликовал ряд этических принципов для искусственного интеллекта. Их должны придерживаться правительства и компании при разработке ИИ, пишет The Verge.

          Что случилось

          В Еврокомиссии разработали ряд этических принципов для искусственного интеллекта. Они не помогут избежать появления роботов-убийц, а скорее касаются проблем, которые будут влиять на общество, здравоохранение, образование и потребительские технологии.

          В чем суть этических принципов ИИ

          Разработкой правил занималась группа из 52 экспертов. Они сформулировали семь требований, которым должны соответствовать будущие системы ИИ:

          1. Содействие и надзор — ИИ не должен нарушать или ограничивать человеческую независимость, манипулировать или принуждать людей к чему-либо. Люди должны иметь возможность вмешиваться и контролировать каждое решение, которое принимает искусственный интеллект.
          2. Техническая надежность и безопасность — ИИ должен быть надежным и устойчивым к кибератакам.
          3. Конфиденциальность и управление данными — персональные данные, которые собирает ИИ, должны быть конфиденциальными и безопасно храниться.
          4. Прозрачность — люди должны понимать и отслеживать решения, которые принимает ИИ.
          5. Разнообразие, отсутствие дискриминации и справедливость — услуги ИИ должны быть доступны всем, независимо от возраста, пола, расы или других особенностей.
          6. Экологическое и социальное благополучие — системы ИИ должны способствовать положительным социальным изменениям и быть экологически ответственными.
          7. Подотчетность — системы ИИ необходимо защитить с помощью существующих методов обеспечения безопасности корпоративной информации. Нужно заранее предупреждать о негативных воздействиях и уязвимостях.

          Что будет дальше

          Правила не дают конкретики и звучат абстрактно. Например, определение «положительных социальных изменений» сильно отличается в зависимости от конкретного человека и страны. Трактовать каждый из принципов можно по-разному.
          Эти правила не имеют юридической силы, но в будущем могут стать основой для законодательной базы ЕС. Летом Еврокомиссия привлечет к тестированию этих принципов компании, организации и государственные администрации.

          Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

          Загрузка...