НОВИНИ

Стать, раса, вік: як ШІ-модель OpenAI генерує стереотипи у відео

Аудіо версія новини

Слухати

Sora, ШІ-модель OpenAI для створення відео, генерує сексистські та расистські стереотипи, про це пише медіа Wired.

Що сталося

Медіа Wired проаналізувало 250 відео, згенерованих ШІ-моделлю Sora від OpenAI, виявилося, що ця модель відтворює сексистські, расистські та ейджистські стереотипи. Експерти, залучені до дослідження, виявили упередження у зображенні професій, віку, кольору шкіри та стосунків, що свідчить про проблему з навчальними даними моделі. 

Це призводить до ризику посилення стереотипів у рекламі та маркетингу. OpenAI визнає проблему та працює над зменшенням упередженості, коригуючи навчальні дані та налаштовуючи запити користувачів, підкреслюючи, що результати не залежать від особистості користувача. Згідно з дослідженням, упередження Sora стосувалися таких категорій.

«Жіночі» та «чоловічі» професії

Генеративна модель Sora демонструє явні гендерні упередження, відображаючи стереотипні ролі: чоловіки — пілоти, професори, хірурги, керівники, політики та релігійні лідери, а жінки — бортпровідниці, виховательки, медсестри та працівниці рецепції. Також Sora частіше показує жінок усміхненими. Експерти вважають, що це може бути пов’язано з патріархальними очікуваннями щодо жіночої поведінки.

Ейджистські упередження

Більшість зображених людей, особливо жінок, на згенерованих відео були віком від 18 до 40 років. Єдина категорія, яку Sora генерувала віком 40+ — політичні та релігійні лідери.

Колір шкіри

Штучний інтелект демонструє покращену різноманітність кольору шкіри, але все ще має упередження. Хоча політичні лідери генерувалися з різним кольором шкіри. Професії, як-от професор, бортпровідник і пілот — частіше зображувалися як білі. Крім того, ШІ наполегливо показував чорношкірих людей у відео, де була людина, що біжить, навіть коли запит був змінений на «біла людина, яка біжить».

Всі красиві, здорові та стрункі

Sora створює людей з конвенційно привабливою зовнішністю, навіть коли запити вимагають іншого. Наприклад, при запиті на «повну людину, яка біжить», більшість результатів не відповідали заданим параметрам. Крім того, при запиті на людину з інвалідністю, Sora показала лише нерухомих людей на кріслах колісних, що свідчить про обмежене розуміння різноманітності людського тіла.

Стосунки

Журналісти виявили упередженість ШІ-моделі OpenAI при зображенні стосунків. Модель майже завжди коректно відображала гетеросексуальні та гомосексуальні пари, проте віддавала перевагу білим людям. Гей-пари частіше показувались вдома, а гетеросексуальні — на вулиці. Особливі труднощі виникали з промтом «міжрасові стосунки», де модель здебільшого зображувала однорасові пари, і всі вони були гетеросексуальними.

Больше об этом

01 НОВИНИ

Adobe випустила конкурента Sora від OpenAI

Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

МАТЕРИАЛЫ ПО ТЕМЕ

НОВИНИ
Стівен Кінг поділився добіркою улюблених фільмів

13 сентября 2025, 18:00

БІЗНЕС
А ви знали що бразильці купують все на виплат? Добірка локалізаційних інсайтів від Forma, KissMyApps, Mate academy та AddMile 

13 сентября 2025, 13:17

КРЕАТИВ
Як я провів літо: де був і як тусив ZYN влітку 2025

13 сентября 2025, 11:00

НОВИНИ
Дослідники зі Швеції розробили технологію 3D-біодруку, яка дозволяє створювати штучну шкірy

13 сентября 2025, 09:00

НОВИНИ
6 речей, якими Apple пожертвувала в iPhone Air заради ультратонкого дизайну

12 сентября 2025, 19:03

НОВИНИ
Apple припинила продавати ці моделі iPhone — список

12 сентября 2025, 18:14

НОВИНИ
Рекордна сума: IT Arena Startup Competition 2025 зібрала $12,5 млн інвестицій

12 сентября 2025, 17:21

БІЗНЕС
Домашній інтернет тепер доступний у тарифах lifecell: які умови

12 сентября 2025, 17:00

НОВИНИ
Заповіт Джорджіо Армані зобов’язує спадкоємців продати бренд модним гігантам — що відомо

12 сентября 2025, 15:57

КРЕАТИВ
AI, що зламав сталу парадигму з ноги: як новий юніт Razom Group змінює виробництво контенту?

12 сентября 2025, 15:30