ТЕХНОЛОГІЇ

Ідеальний брехун і вибори. Як ШІ стає зброєю масового дезінформування 

25 Січня 2024, 16:00
11 хв читання
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
Додати в закладки

Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

Надія Баловсяк Спостерігаю за технологіями, аналізую та розповідаю про них
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання

Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

Поява ШІ-чатботів спрощує поширення фейків, допомагає їх створювати й вимагає нових підходів до боротьби з дезінформацією. На фоні майбутніх виборів в США та інших країнах ці виклики стають ще більш помітною загрозою для суспільства. Наприклад, згенерований ШІ-ролик із кандидатом, який говорить обурливі речі, може вплинути на його сприйняття виборцями. А тепер уявіть загрозу від тисяч таких текстів, відео та зображень.

Журналістка Надія Баловсяк розповідає, чому нам загрожує навала фейкового контенту та про проблеми вже запропонованих методів боротьби з ним.

ШІ та дезінформація

Сучасний інтернет-користувач постійно існує в дещо дивному віртуальному світі фейків та дезінформації. Тисячі блогерів, каналів і ботів щохвилини кричать свої експертні та не дуже думки в соцмережах з приводу будь-чого. За таких умов начебто залишається довіряти лише надійним журналістським брендам. Проте вистачає питань і до неупередженості ЗМІ. 

Урешті через такий шум люди перестають критично сприймати інформацію («усієї правди ми не знаємо»), продовжують активно споживати контент та не надто перевіряють джерело його походження. І тут на сцену виходить ШІ — і ускладнює ситуацію ще більше.

Скоро виповниться рік з того часу, як соцмережі обговорювали Папу Римського в білому пуховику. Одна з найбільш відомих штучно згенерованих фотографій стала доказом досконалих умінь AI-інструментів щодо створення контенту загалом та продукування фейків зокрема.

Якщо знімок очільника Римо-католицької церкви став предметом жартів та мемів, то фото вибуху біля Пентагона, яке поширилося в травні 2023 року в Twitter (X), могло мати набагато більш серйозні наслідки для світу. 

Сьогодні доволі просто можна створити фейк за допомогою ChatGPT чи Midjourney та поширити його в соцмережах. Одночасно проблема штучного інтелекту як «фейкороба» доповнюється галюцинаціями. Тобто ситуаціями, коли ШІ сам придумує факти та видає їх користувачу. 

Одночасно на штучний інтелект покладають великі надії щодо використання його як інструменту ідентифікації фейків. Певні автоматизовані інструменти для цього глобального завдання вже давно застосовують великі компанії. Зокрема, соціальні платформи. Наприклад, Chief AI Scientist Meta Ян ЛеКун розповідає, що за допомогою ШІ компанія домоглася «величезного прогресу» в напрямі боротьби з проявами розпалювання ненависті, дезінформації та спробами пропаганди зіпсувати виборчу систему.

Спробуємо розібратися, чим загрожує інтернету навала фейкового ШІ-контенту та що можна зробити уже сьогодні, аби завтра історія з маніпуляціями на кшалт Cambridge Analytica не стали «квіточками» в порівнянні із майбутніми виборчою дезінформацією. 

Навала фейкового контенту 

Уже сьогодні в мережі помітний вибух штучно згенерованого контенту, який поширює дезінформацію. Сайти з таким контентом виявили фахівці організації NewsGuard, яка займається відстеженням фейків. За їхніми даними, з квітня по грудень 2023 року кількість вебресурсів зі штучно згенерованим фейковим контентом виросла більш як на 1000% — із 49 до 659. 

«Деякі з цих сайтів генерують сотні, якщо не тисячі статей на день», — розповідає Washington Post Джек Брюстер, дослідник NewsGuard. «Ось чому ми називаємо це наступним великим суперрозповсюджувачем дезінформації». 

Здавалося б, сьогодні нікого не здивуєш контентом, створеним для просування чи заробітку на кліках силами низькооплачуваних працівників чи навіть згенерованим автоматично. Проте вміст сайтів, про який розповіли в NewsGuard, використовували інші медіа як джерело своїх матеріалів. 

В одній зі згенерованих ШІ статей розповідається вигадана історія про психіатра Біньяміна Нетаньяху. Стверджувалося, що він помер і залишив після себе записку з припущенням про причетність до цього ізраїльського прем’єр-міністра. Психіатр, судячи з усього, був вигаданим. Проте ця історія опинилась в іранському телешоу. Також її розтиражували на сайтах ЗМІ арабською, англійською та індонезійською мовами, а ще поширили користувачі TikTok, Reddit та Instagram.

Штучний інтелект навчився генерувати не лише текстовий контент. Створених ведучих використовують для поширення придуманих наративів, вкладаючи нісенітницю в уста гарно одягнених ведучих, які говорять потрібні речі. Подекуди у фейках застосовують і голоси реальних людей. До прикладу, у Словаччині голоси політиків клонували та використали для озвучення суперечливих думок за кілька днів до виборів. 

За словами дослідників, деякі історії для таких сайтів створюються вручну. Люди просять у чатботів допомогти написати статті, що посилюють певний політичний наратив. Інший спосіб генерації такого вмісту — автоматичний. Завдяки вебскрапінгу Автоматичне отримання даних із вебсторінок відповідно до встановлених параметрів. проводиться пошук статей із певними ключовими словами. Далі ці матеріали передають у велику мовну модель, яка перетворює їх на унікальний текст. Після цього їх розміщують в інтернеті.

Імовірно, із часом з’являтиметься все більше історій про використання таких рішень в політичних цілях. Наприклад, для створення синтетичних медіа й просування певних наративів, введення в обману виборців, поширення фейків про певного політика чи навіть підбурювання до насильства. Або можна створити відео, на якому показано, як хтось виступає з промовою чи дає інтерв’ю, якого ніколи не було.

Діпфейки ще два роки тому виглядали доволі реалістично, сьогодні ж з допомогою ШІ можна вкласти людині в уста будь-які слова. 

Ще однією проблемою генеративного AI в контексті створення фейків є дешева робоча сила, яка працює над навчанням штучного інтелекту та допомагає йому ставати «розумнішим». У цьому плані AI-компанії повторюють помилку соціальних платформ. Останні руками низькооплачуваних модераторів намагалися подолати фейки та жорстокий контент на своїх сайтах. 

Спойлер: не змогли. Зате стали фігурантами численних історій про важку працю модераторів. Плюс через підрядників компанії не отримували повної картини щодо поширеності та ефективності боротьби з таким контентом (або не хотіли зізнаватися, що мають). 

Водночас не можна виключати впливів на роботу AI-систем через таких працівників. Наприклад, у вигляді промислового шпигунства та подальших маніпуляцій результатами роботи AI-систем. 

Що з цим роблять

Цифрові відбитки для захисту від синтетичного контенту 

Один із методів боротьби з фейковим ШІ-контентом — використання цифрових «водяних знаків» для таких відео, текстів та знімків. Такий підхід зазвичай застосовують фотоагентства, щоб запобігти використанню зображень без дозволу та оплати. Проте ШІ здатний генерувати широке розмаїття контенту. До того ж наразі існує достатньо багато моделей. Тому все стає набагато складніше. Наразі не існує стандарту для нанесення водяних знаків. Кожна компанія використовує свій метод. 

Наприклад, нанесення водяних знаків на текст від інструментів на кшталт ChatGPT шляхом маніпулювання розподілом слів. Тобто певне слово або набір слів з’являтися частіше. Це може виявити машина, а от людина — навряд. Отже такі водяні знаки потрібно спочатку інтерпретувати машиною. Далі їх слід позначити для глядача чи читача. 

Водночас дослідження показали, що водяні знаки не надійні. Наприклад, інструменти можуть помилятися при ідентифікації таких відміток. З іншого, ці відмітки можна додавати до фрагментів контенту, створених людиною. Це теж знижуватиме ефективність роботи цих інструментів. 

Іншим способом захисту може стати використання електронного підпису для контенту, створеного людьми. Теоретично це повинно б допомогти вирізняти його від створеного AI-інструментами. Проте враховуючи кількість контенту, який сьогодні генерують користувачі інтернету, навряд чи вони будуть «підписувати» все, створене ними. Цей спосіб швидше може стати корисним для великих медіакомпаній, зацікавлених в тому, аби захистити контент журналістів. 

У підсумку, недоліки водяних знаків не змусили технологічних гігантів передумати пропонувати їх як рішення.

Проте експерти ставляться до них насторожено. «Водяні знаки спочатку здаються багатообіцяльним рішенням, але в реальному світі їхнє застосування не вдається від самого початку, коли їх можна легко підробити, видалити або проігнорувати», — каже Бен Колман, CEO стартапу Reality Defender, що займається виявленням ШІ.

Заборона AI-реклами та синтетичного контенту 

Минулого року на соціальних платформах поширювали підробні штучно згенеровані відео, які мали на меті дискредитувати кандидатів в президенти США. Героями цих роликів були Дональд Трамп, Джо Байден та інші політики. Це серйозний виклик особливо в контексті майбутніх президентських виборів.

Meta вже вирішила заборонити політичним рекламодавцям використовувати інструменти генеративного ШІ. Це сталося за місяць після того, як власник Facebook почав розширювати доступ рекламодавців до  інструментів на основі ШІ. Останні за текстовим запитом можуть створювати фони, корегувати зображення і варіації оголошень.

Також компанія вирішила вимагати в рекламодавців розкривати інформацію про те, чи зображує реклама реальних людей, які роблять або говорять щось, чого вони насправді не робили. А ще — чи створюють вони цифрову людину, яка насправді не існує, але виглядає як реальна. Все це стосується політичної, соціальної або передвиборчої реклами у Facebook та Instagram.

Не залишились осторонь і в Alphabet. Так на YouTube запровадили вимогу розкривати інформацію про відеоролики, що містять ШІ-контент, який здатний ввести глядачів в оману.

«Усі перевірені політичні рекламодавці … повинні чітко повідомляти, коли їхні оголошення містять синтетичний вміст, який неправдиво зображує реальних людей або людей та події, що мають реалістичний вигляд», — сказано в оновленій політиці Google щодо контенту на YouTube. «Ця інформація має бути чіткою та помітною, а ще — розміщеною там, де її, найімовірніше, помітять користувачі. Така політика поширюється на зображення, відео- та аудіоконтент». 

У 2024 році YouTube представив ще одне оновлення правил. Cервіс більше не дозволятиме контент, який «реалістично імітує» неповнолітніх та інших жертв злочинів, розповідаючи про їхню смерть або пережите насильство. Оновлення, схоже, спрямоване проти створення ШІ контенту в жанрі «true-crime» Публіцистичний жанр літератури, кіно і подкастів, в якому автор досліджує злочини та дії людей, що до них причетні. — тривожних зображень жертв (зокрема, дітей) із описом насильства над ними. У деяких відео навіть використовуються згенеровані дитячі голоси.

Замість висновків

Найближчі роки ми побачимо, як разом із ШІ відбуватиметься розвиток штучно згенерованих фейків. Популярність AI-продуктів дозволить будь-кому створювати реалістичні зображення, відео та аудіо, які використовуватимуться для різних цілей від дискредитації до шахрайства. 

2024-й — рік виборів у низці країн світу, зокрема, президентських у США. Цей час стане умовним тестовим періодом, під час якого людство вчитиметься боротися із досконалими фейками та відпрацює правила щодо такого контенту. Якщо зазнаємо невдачі, то варто очікувати сумних наслідків, в порівнянні з якими наративи пропаганди рф виглядатимуть дитячим белькотінням.  

Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

ЧИТАЙТЕ ТАКОЖ
НАГАЛЬНЕ
«Це мені кум сказав, у якого є знайомий в СБУ». Як правильно споживати інформацію та відрізняти фейки від правди
Матеріал успішно додано в закладки Досягнуто максимальної кількості закладок
13 Березня 2022, 09:59 10 хв читання
Завантаження...