Тести The Guardian показали, що GPT-5.2 використовує Grokipedia від xAI Маска, що ставить під сумнів точність даних моделі. Про це пише Engadget. Розповідаємо деталі.
Що сталося
The Guardian протестував останню модель ChatGPT (GPT-5.2) і виявив, що вона частково використовує Grokipedia Ілона Маска як джерело інформації. Це викликало занепокоєння щодо можливих помилок та дезінформації.
У тестах GPT-5.2 дев’ять разів посилався на Grokipedia, коли відповідав на понад десяток запитів. Модель передавала дані про політичні структури Ірану, зокрема зарплати воєнних Басідж та власність Фонду Мостазафана. Також вона цитувала Grokipedia у питаннях про британського історика Річарда Еванса, який був експертом у судовому процесі проти заперечувача Голокосту Девіда Ірвінга.
Чому це цікаво
Grokipedia запустили в листопаді 2025 року на базі чат-бота Grok Ілона Маска. Енциклопедія повністю створена штучним інтелектом і не редагується людьми, на відміну від «Вікіпедії».
При цьому GPT-5.2 не використовував Grokipedia для тем із відомою дезінформацією, наприклад, упередженості ЗМІ проти Дональда Трампа або епідемії ВІЛ/СНІДу. Натомість модель зверталася до Grokipedia для складних або маловідомих тем. Наприклад, ChatGPT повторив твердження про зв’язки іранського уряду з компанією MTN-Irancell, нібито пов’язаною з офісом верховного лідера Ірану.
В OpenAI наголосили, що GPT-5.2 використовує широкий спектр відкритих джерел і застосовує фільтри безпеки, щоб мінімізувати ризик шкідливої інформації. Водночас експерти з дезінформації застерігають: коли штучний інтелект цитує ненадійні джерела, користувачі можуть їм довіряти більше, ніж слід.
У xAI, компанії Маска, у коментарі Guardian відкинули всі зауваження, назвавши їх «брехнею застарілих ЗМІ».