ТЕХНОЛОГИИ

«Справедливый, экологичный и понятный». В ЕС решили, каким должен быть искусственный интеллект

09 апреля 2019, 11:52
3 мин чтения
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

dmitriy-koshelnik
Дмитро Кошельник Придумываю темы, редактирую тексты, пишу о компаниях и предпринимателях, придираюсь к фактам.
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Режим чтения

Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.

Вчера Европейский Союз опубликовал ряд этических принципов для искусственного интеллекта. Их должны придерживаться правительства и компании при разработке ИИ, пишет The Verge.

Что случилось

В Еврокомиссии разработали ряд этических принципов для искусственного интеллекта. Они не помогут избежать появления роботов-убийц, а скорее касаются проблем, которые будут влиять на общество, здравоохранение, образование и потребительские технологии.

В чем суть этических принципов ИИ

Разработкой правил занималась группа из 52 экспертов. Они сформулировали семь требований, которым должны соответствовать будущие системы ИИ:

  1. Содействие и надзор — ИИ не должен нарушать или ограничивать человеческую независимость, манипулировать или принуждать людей к чему-либо. Люди должны иметь возможность вмешиваться и контролировать каждое решение, которое принимает искусственный интеллект.
  2. Техническая надежность и безопасность — ИИ должен быть надежным и устойчивым к кибератакам.
  3. Конфиденциальность и управление данными — персональные данные, которые собирает ИИ, должны быть конфиденциальными и безопасно храниться.
  4. Прозрачность — люди должны понимать и отслеживать решения, которые принимает ИИ.
  5. Разнообразие, отсутствие дискриминации и справедливость — услуги ИИ должны быть доступны всем, независимо от возраста, пола, расы или других особенностей.
  6. Экологическое и социальное благополучие — системы ИИ должны способствовать положительным социальным изменениям и быть экологически ответственными.
  7. Подотчетность — системы ИИ необходимо защитить с помощью существующих методов обеспечения безопасности корпоративной информации. Нужно заранее предупреждать о негативных воздействиях и уязвимостях.

Что будет дальше

Правила не дают конкретики и звучат абстрактно. Например, определение «положительных социальных изменений» сильно отличается в зависимости от конкретного человека и страны. Трактовать каждый из принципов можно по-разному.
Эти правила не имеют юридической силы, но в будущем могут стать основой для законодательной базы ЕС. Летом Еврокомиссия привлечет к тестированию этих принципов компании, организации и государственные администрации.

Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

ЧИТАЙТЕ ТАКЖЕ
БИЗНЕС
Tinder для доставки груза. Рассказываем о сервисе перевозок, соединяющем водителей и отправителей
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
28 апреля 2022, 10:00 3 мин чтения
БИЗНЕС
Целеустремленность. Как PeopleForce работает во время войны?
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
25 апреля 2022, 14:00 7 мин чтения
БИЗНЕС NIX
IT-компания NIX — партнер ХНЭУ имени С. Кузнеца. Рассказываем, зачем это университету и бизнесу
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
20 января 2022, 10:15 1 мин чтения
БИЗНЕС NIX
У NIX новое офисное пространство для обучения студентов. Показываем и рассказываем, зачем это им
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
30 декабря 2021, 15:00 2 мин чтения
Загрузка...