preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Facebook вибачився за свій алгоритм, який називає чорношкірих людей приматами

          06 Вересня 2021, 18:30
          6 хв читання
          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Настя
          Анастасія Шкальова Авторка, пишу про інновації та нетривіальні бізнес-історії
          Facebook вибачився за свій алгоритм, який називає чорношкірих людей приматами
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          Компанія Facebook вибачилася за алгоритми свого штучного інтелекту. Він маркував в «Рекомендаціях» ролики з чорношкірими чоловіками, як «відео приматами», пише The New York Times.

          Що сталося

          Користувачі Facebook помітили, що після перегляду відео британського таблоїда DailyMail за участі чорношкірих чоловіків алгоритми соцмережі почали пропонувати в «Рекомендаціях» інші «відео з приматами». Facebook провів розслідування. В результаті компанія вимкнула функцію штучного інтелекту в рекомендаціях за певними темами.

          Чим все закінчилось

          Facebook вибачився перед користувачами. «Як ми вже говорили, хоча ми і поліпшили наш АІ, він все одно не ідеальний. Нам доведеться його допрацьовувати», — заявив представник Facebook.

          Торік Facebook вже займався вивченням алгоритмів своїх соцмереж на предмет расових упереджень та заявляв про важливість толерантності для компанії. А ще 2018 року компанія почала боротьбу з дезінформацією на платформі.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          01 СПЕЦПРОЄКТИ
          Всередині звички: як зробити ваш бренд частиною щоденного маршруту із Uklon Ads
          Трансформація від only performance до full digital media: уроки iProspect Ukraine
          02 БІЗНЕС
          Трансформація від only performance до full digital media: уроки iProspect Ukraine
          Ветерани на роботі: як адаптація робочих місць повертає захисників до цивільного життя
          03 БІЗНЕС
          Ветерани на роботі: як адаптація робочих місць повертає захисників до цивільного життя
          04 СПЕЦПРОЄКТИ
          Так звучить Data. Як GigaCenter перетворили дані на музику
          Завантаження...