Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Meta Oversight Board закликає Meta переглянути те, як вона маркує контент, створений штучним інтелектом: у Facebook, Instagram та Threads. Про це пише The Verge. Розповідаємо деталі.
Що сталося
Meta Oversight Board оприлюднила висновок, що методи виявлення фейків Meta заслабкі, аби впоратися з дезінформацією під час збройних конфліктів.
Рада дійшла такого висновку після розслідування випадку, коли згенероване ШІ відео про нібито пошкодження будівель в Ізраїлі поширилося на платформах Meta. За даними ради, подібний контент часто спочатку з’являється на інших платформах, зокрема TikTok, а потім поширюється в екосистемі Meta.
В оголошенні йдеться, що система Meta для належного маркування вмісту ШІ надмірно залежить від саморозкриття використання і не відповідає реаліям сучасного онлайн-середовища.
Крім того, доступ до точної, надійної інформації є життєво важливим для безпеки людей на тлі підвищеного ризику використання інструментів штучного інтелекту для поширення дезінформації.
Для Meta порекомендували:
посилити правила щодо дезінформації та deepfake;
створити окремий стандарт спільноти для AI-контенту;
розробити кращі інструменти виявлення матеріалів, створених ШІ;
масштабувати систему маркування такого контенту.
Зокрема, рада закликала Meta ширше застосовувати стандарт C2PA — технологію, що додає до медіафайлів дані про їх походження та спосіб створення.
Meta не зобов’язана виконувати ці рекомендації, однак вони підсилюють дискусію про те, як соціальні платформи мають контролювати та позначати контент, створений штучним інтелектом.