Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Уперше з моменту випуску GPT-2 понад п’ять років тому, OpenAI представила дві нові моделі з відкритою вагою — gpt-oss-120b і gpt-oss-20b. Їх можна безкоштовно завантажити на платформі Hugging Face. Про це пише Mashable.
Що сталося
Компанія OpenAI представила нові моделі з відкритим кодом — gpt-oss-120b і gpt-oss-20b. Обидві доступні для безкоштовного завантаження та локального запуску, навіть на звичайних комп’ютерах. Компанія називає нові моделі «найсучаснішими» та стверджує, що вони перевершують інші відкриті аналоги за якістю міркувань, краще взаємодіють з інструментами й оптимізовані для запуску на звичайних пристроях.
Just released gpt-oss: state-of-the-art open-weight language models that deliver strong real-world performance. Runs locally on a laptop! pic.twitter.com/K6MWCbGToW
gpt-oss-120b — потужна модель зі 117 мільярдами параметрів, потребує 80 ГБ відеопам’яті.
gpt-oss-20b — легша версія на 21 мільярд параметрів, яка працює на одному GPU з 16 ГБ VRAM.
Обидві моделі мають ліцензію Apache 2.0, що дозволяє вільне використання, адаптацію та розгортання у різних проєктах.
Моделі вже оптимізовані у форматі MXFP4 для підвищеної ефективності та меншого споживання ресурсів. Їх можна легко розгортати на різноманітних платформах, наприклад:
Microsoft Azure.
Hugging Face.
vLLM, Ollama.
llama.cpp.
LM Studio.
AWS.
Fireworks.
Together AI.
Чому це цікаво
Моделі демонструють результати на рівні або вище, ніж внутрішні моделі OpenAI o3 і o4-mini. Наприклад, 120b перевершує o4-mini у медичних запитах і математиці, а 20b — стабільно сильніший за o3-mini.
Однак, за словами компанії, обидві моделі схильні до галюцинацій — вигадування фактів — частіше, ніж більш раціональні системи o3 і o4-mini. У тестах рівень таких помилок сягав 49–53%.
Нещодавно ми писали, що Сем Альтман попередив, що розмови з ChatGPT не захищені законом — тож використовувати його як «терапевта» небезпечно. У разі судового запиту компанія може бути зобов’язана передати вміст особистих чатів. Також Альтман заявив, що багато молодих людей занадто покладаються на ChatGPT для ухвалення рішень, і назвав це емоційною залежністю, яка викликає в нього занепокоєння.