preview preview
Нова функція

Слухай статті з Respeecher

Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
preview
00:00 00:00
Наступні статті
    Завантажується
    Голос
    Вибір голосу
      player background
      Вибір голосу
        Наступні статті
          Завантажується
          00:00 00:00
          НОВИНИ

          Памʼятаєте, Meta випустила дві моделі Llama 4 AI: виявилося, що компанія обдурила тести штучного інтелекту 

          09 Квітня 2025, 13:22
          3 хв читання
          Оприщенко Анастасія Редакторка стрічки новин та коміксистка
          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
          Режим читання

          Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.

          Медіа Gizmodo пише, що Meta обдурила тести ШІ які проводила для своїх нових моделей ШІ Llama 4. Розповідаємо, як це стало можливим.

          Що сталося

          Прагнення стати номером один, ймовірно, змусило піти компанію Meta на невелике шахрайство. Минулого тижня Meta випустила дві нові моделі ШІ на основі своєї великої мовної моделі Llama 4. Нові моделі — Scout, менша модель, призначена для швидких запитів, і Maverick, яка має стати конкурентом більш відомих моделей, таких як GPT-4o від OpenAi.

          Після анонсу нових моделей у публікації в блозі Meta розмістили купу високотехнічних даних, тестів та документації, щоб похвалитися тим, що їхній штучний інтелект розумніший та і ефективніший за моделі конкурентів:

          • Google;
          • OpenAI;
          • Anthropic.

          Ці високотехнологічні дані є надзвичайно корисними для дослідників ШІ, і багато тих, хто цікавиться штучним інтелектом, відразу помітили розбіжності у результатах тесту.

          Наприклад, виявилося, що модель Maveric, яка за результатами тесту LMArena стояла вище GPT-4o і трохи нижче Gemini 2.5 Pro, відрізняється від тої версії, до якої мають доступ користувачі. Про це Meta зазначила у документації дрібним шрифтом. Компанія запрограмувала цю модель як більш схильну до підтримки діалогу ніж зазвичай. Це і відволікло увагу на тестуванні.

          Іншими словами, Llama-4-Maverick-03-26-Experimental була налаштованою моделлю для оптимізації людських уподобань. У результаті компанія, що тестувала модель, оновила таблицю лідерів та ввела додаткові правила, щоб такого не відбувалося у майбутньому.

          Чому це цікаво

          Щоб покращити результати в умовах зростальної конкуренції, моделі штучного інтелекту стають більш «балакучими», оскільки компанії намагаються стати першими, та відрізнятися на ринку мовних моделей. У ситуації, коли базові можливості стають схожими, навіть незначні переваги, як-от вища енергоефективність чи швидкість виконання задач, набувають значення як спосіб виділити свій продукт.

          У майбутньому, коли ШІ стануть звичними споживацькими продуктами, компанії активно використовуватимуть тести для демонстрації їхніх переваг. Однак для переконливого доведення вищості своїх моделей їм знадобиться більше, ніж просто тести, особливо зважаючи на здатність деяких ШІ обходити формальні оцінки.

          Більше про це

          01 НОВИНИ

          Для боротьби з шахрайством: Meta запускає опцію розпізнавання облич у Великій Британії

          Додати в закладки

          Будь-яку статтю можна зберегти в закладки на сайті, щоб прочитати її пізніше.

          Знайшли помилку? Виділіть її і натисніть Ctrl+Enter

          Партнерські матеріали

          Як креативникам виграти Канського лева: інсайти з «Креативного сафарі»
          01 КРЕАТИВ
          Як креативникам виграти Канського лева: інсайти з «Креативного сафарі»
          02 Досвід і думки
          «Хмара» чи «залізо»? Як українському бізнесу обрати оптимальне рішення для IT-інфраструктури
          Соло-фаундери програють, джуни обходять синьйорів, а Близький Схід розкидається грошима. Головні інсайти із CEO Talks від Credit Agricole
          03 БІЗНЕС
          Соло-фаундери програють, джуни обходять синьйорів, а Близький Схід розкидається грошима. Головні інсайти із CEO Talks від Credit Agricole
          Відсканували й забули: чому це не захистить вас від кіберзагроз?
          04 БІЗНЕС
          Відсканували й забули: чому це не захистить вас від кіберзагроз?
          Завантаження...