НОВИНИ

OpenAI презентувала нову модель — GPT-4o

Юлія Ткач 13 мая 2024, 20:29

OpenAI провела пряму трансляцію оновлень для ChatGPT і GPT-4. Так, презентували нову модель — GPT-4o. Розповідаємо подробиці, що показали.

Що сталося

У пʼятницю OpenAI анонсувала на понеділок, 13 травня, пряму трансляцію «деяких» оновлень ChatGPT і GPT-4. Сем Альтман тоді одразу спростував припущення деяких коментаторів: «Не GPT-5, не пошукова система, але ми наполегливо працювали над деякими новими речами, які, на нашу думку, сподобаються людям! Мені це здається магією».

Редакція Vector подивилася презентацію — розповідаємо ключове.

Отже, презентацію почали з виступу СТО Міри Мураті. Згодом, до неї приєдналися члени команди, аби презентувати новинку — модель GPT-4o. Вона буде доступна всім користувачам ChatGPT найближчим часом. Зараз вже доступна у вигляді API. Головна відмінність моделі — вона від початку мультимодальна, тобто навчена не тільки на текстах, а й на відео, аудіо тощо. Вартість підписки вдвічі менша.

Нова модель GPT-4o

Якщо минула модель могла аналізувати текст і зображення, то нова отримала голосові можливості — передачу голосу та аудіо в режимі реального часу. Наприклад, користувачі можуть поставити ChatGPT, що працює на GPT-4o, запитання і перервати ChatGPT під час відповіді. 

За словами OpenAI, модель забезпечує реагування в режимі реального часу і навіть може розпізнавати емоції в голосі користувача. А також генерує голос різними емоціями.

Тобто, це приблизно та Siri, яку нам обіцяли на запуску. Під час презентації, Мураті та двоє розробників спілкувалися з ChatGPT. Бот жіночим голосом вправно відповідав на запити, реагував на раптові перебивання, допомагав вирішувати рівняння, та — що, мабуть, найцікавіше — синхронно перекладав, з італійської на англійську, і навпаки.