preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Модерацію діпфейків Meta розкритикували — що цього разу

          10 Березня 2026, 15:10
          2 хв читання
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          Meta Oversight Board закликає Meta переглянути те, як вона маркує контент, створений штучним інтелектом: у Facebook, Instagram та Threads. Про це пише The Verge. Розповідаємо деталі.

          Що сталося

          Meta Oversight Board оприлюднила висновок, що методи виявлення фейків Meta заслабкі, аби впоратися з дезінформацією під час збройних конфліктів. 

          Рада дійшла такого висновку після розслідування випадку, коли згенероване ШІ відео про нібито пошкодження будівель в Ізраїлі поширилося на платформах Meta. За даними ради, подібний контент часто спочатку з’являється на інших платформах, зокрема TikTok, а потім поширюється в екосистемі Meta.

          В оголошенні йдеться, що система Meta для належного маркування вмісту ШІ надмірно залежить від саморозкриття використання і не відповідає реаліям сучасного онлайн-середовища. 

          Крім того, доступ до точної, надійної інформації є життєво важливим для безпеки людей на тлі підвищеного ризику використання інструментів штучного інтелекту для поширення дезінформації.

          Для Meta порекомендували: 

          • посилити правила щодо дезінформації та deepfake;
          • створити окремий стандарт спільноти для AI-контенту;
          • розробити кращі інструменти виявлення матеріалів, створених ШІ;
          • масштабувати систему маркування такого контенту.

          Зокрема, рада закликала Meta ширше застосовувати стандарт C2PA — технологію, що додає до медіафайлів дані про їх походження та спосіб створення.

          Meta не зобов’язана виконувати ці рекомендації, однак вони підсилюють дискусію про те, як соціальні платформи мають контролювати та позначати контент, створений штучним інтелектом.

          Більше про це

          01 КРЕАТИВ

          Meta Ads без ріжектів: гайд 14 типовими причинами для маркетологів 

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          Утилітарні, музичні й скандальні партнерства. Що і навіщо робили українські бренди разом цієї зими
          01 Борщ
          Утилітарні, музичні й скандальні партнерства. Що і навіщо робили українські бренди разом цієї зими
          Смартфон без розчарувань: які характеристики реально важливі у 2026-му для комфортного користування — розбір від «Алло»
          02 ТЕХНОЛОГІЇ
          Смартфон без розчарувань: які характеристики реально важливі у 2026-му для комфортного користування — розбір від «Алло»
          AdTech як продукт: експерти на конференції UPConf’25 від Uklon пояснили, як рекламні технології стають частиною екосистеми сервісу
          03 БІЗНЕС
          AdTech як продукт: експерти на конференції UPConf’25 від Uklon пояснили, як рекламні технології стають частиною екосистеми сервісу
          Вплив Customer Experience: як вимірювати те, що справді має значення — пояснюють експерти на конференції UPConf’25 від Uklon
          04 БІЗНЕС
          Вплив Customer Experience: як вимірювати те, що справді має значення — пояснюють експерти на конференції UPConf’25 від Uklon
          Завантаження...