НОВИНИ

Можуть розрізняти зображення, відео та текст: Meta випустила дві нові моделі Llama 4 AI

Аудіо версія новини

Слухати

Meta презентувала нове покоління відкритих моделей Llama 4, про це йдеться на сайті компанії. Розповідаємо, у чому їхня унікальність.

Що сталося

Meta представила нове покоління мультимодальних відкритих моделей штучного інтелекту — Llama 4. Нові моделі можуть розрізняти зображення, відео та текст в одній архітектурі. Ці моделі є першими нативно мультимодальними з відкритим кодом, що дозволяє розробникам та підприємствам працювати з ними для вирішення широкого спектру завдань.

Llama 4 Scout — невелика модель, здатна «поміститися в один графічний процесор Nvidia H100» — і Llama 4 Maverick, яка більше схожа на GPT-4o та Gemini 2.0 Flash. Meta каже, що все ще триває тренування Llama 4 Behemoth, який, за словами генерального директора Meta Марка Цукерберга, є «найефективнішою базовою моделлю у світі».

Meta

Llama 4 Scout має контекстне вікно в 10 мільйонів токенів — робочу пам’ять моделі штучного інтелекту — і перевершує моделі Gemma 3 і Gemini 2.0 Flash-Lite від Google, а також Mistral 3.1 з відкритим вихідним кодом. Meta стверджує, що її нові моделі перевершують моделі OpenAI і Google у «широкому діапазоні» тестів. Також у компанії кажуть, що моделі тепер забезпечують роботу помічника Meta AI в інтернеті, WhatsApp, Messenger та Instagram.

Тим часом Llama 4 Behemoth має 288 мільярдів активних параметрів із загальною кількістю 2 трлн параметрів. Хоча модель ще не випущена, Meta каже, що Behemoth може перевершити своїх конкурентів (у цьому випадку GPT-4.5 і Claude Sonnet 3.7) у кількох тестах STEM.

Чому це цікаво

У Llama 4 компанія Meta заявляє, що перейшла на архітектуру «суміші експертів» (MoE) — підхід, який дозволяє економити ресурси, використовуючи лише ті частини моделі, які потрібні для виконання конкретного завдання.

Як і у випадку з попередніми моделями, Meta називає колекцію Llama 4 «відкритим вихідним кодом», хоча Llama критикують за ліцензійні обмеження. Наприклад, ліцензія Llama 4 вимагає від комерційних організацій з більш ніж 700 млн активних користувачів щомісяця запитувати дозвіл у Meta перед використанням її моделей, що вже виводить її «з категорії відкритого вихідного коду».

ЧИТАЙТЕ ТАКОЖ

НОВИНИ
Тепер супутники зможуть передавати зображення Землі протягом години — що відомо

12 Жовтня 2025, 09:00

НОВИНИ
5 нових фільмів, які варто подивитися у жовтні 2025

11 Жовтня 2025, 18:00

Досвід і думки
Як успішно наймати й управляти фриланс-командою дизайнерів — досвід Honeytech з екосистеми Boosta

11 Жовтня 2025, 13:34

НОВИНИ
5 причин, чому найефективніші лідери працюють менше, але досягають більшого

11 Жовтня 2025, 09:00

НОВИНИ
Астрономи вперше зафіксували дві діри разом — унікальне фото

10 Жовтня 2025, 19:00

НОВИНИ
Google випустила два оновлення для Gmail, але є нюанс

10 Жовтня 2025, 18:30

НОВИНИ
7 цифрових навичок, без яких ви не отримаєте підвищення у 2025 році

10 Жовтня 2025, 17:22

КРЕАТИВ
«Ментальне здоров’я — це теж зброя»: Repower і New Flame запускають кампанію на підтримку військових медиків

10 Жовтня 2025, 17:00

НОВИНИ
Від 5G у подорожах до 3D-тренажера для операцій: Time назвав 300 найкращих винаходів 2025 року

10 Жовтня 2025, 15:49

КРЕАТИВ
«Дизаріум» повертається: два дні дизайну, ідентичностей і натхнення у Львові

10 Жовтня 2025, 14:00