НОВИНИ

На рівні презентації першого iPhone. Що показали на івенті OpenAI

Аудіо версія новини

Слухати

OpenAI провела свою першу презентацію — OpenAI DevDay. Зокрема, представили нову GPT-4 Turbo. Видання TechCrunch зробило огляд з презентації. Переказуємо головне. 

Що сталося

У понеділок на своїй першій конференції для розробників OpenAI представила GPT-4 Turbo — покращену версію своєї флагманської моделі ШІ, що генерує текст. За словами розробників, GPT-4 є потужнішою та дешевшою. За даними OpenAI, щотижня їхнім інструментом користуються понад 100 млн людей, а понад 2 млн розробників створюють рішення за допомогою її API. Розповідаємо про головне з презентації.

GPT-4 Turbo 

Представлені в двох версіях: одна аналізує виключно текст, інша — розуміє контекст як тексту, так і зображень. Перша вже доступна для попереднього перегляду через API. OpenAI обіцяє зробити обидві версії загальнодоступними в найближчі тижні.

  • Ціна — $0,01 за 1000 вхідних токенів (близько 750 слів). Для порівнянн, у GPT-4 — $0,03.  
  • Ціна обробки зображень GPT-4 Turbo залежатиме від розміру зображення. Наприклад, передача картинки з роздільною здатністю1080×1080 пікселів до GPT-4 Turbo коштуватиме $0,00765, кажуть в OpenAI.
  • База даних оновлена до квітня 2023 року. 
  • Тепер можна вводити величезні промти до 128 000 токенів: цього вистачить на сотні сторінок. У GPT-4, для порівняння, у чотири рази менше.
  • Розуміє і генерує відповіді у форматі JSON. Тобто, у відкритому стандартному форматі файлів і форматі обміну даними. Це корисно для вебдодатків, які передають дані.

Оновлення GPT-4

  • Компанія запустила експериментальну програму доступу для тонкого налаштування GPT-4. На відміну від програми доопрацювання GPT-3.5, вона передбачатиме більший нагляд і керівництво з боку команд OpenAI, кажуть у компанії. 
  • Подвоєно ліміт токенів за хвилину для всіх платних користувачів GPT-4 зі збереженням цін.

Що ще цікавого

  • Користувачі можуть створювати власні внутрішні GPT, побудовані на основі бази знань компанії. За допомогою підказок, без знань кодування.
  • Анонсували відкриття GPT Store для користувацьких ШI-ботів. Користувачі зможуть публікувати ці GPT-файли в магазині. Спочатку в ньому будуть розміщені творіння перевірених розробників.
  • Запустили новий API Assistants. Розробники можуть створювати помічників, які отримують зовнішні знання або викликають програмні функції для виконання певної дії. Спектр застосувань: від помічника для кодування до планувальника відпустки на основі ШІ.
  • DALL-E 3 API тепер доступна через API з вбудованими інструментами модерації. Норми виводу варіюються від 1024×1024 до 1792×1024 у різних форматах. Open AI встановила ціну на модель у розмірі $0,04 за згенероване зображення.
  • Нові API для перетворення тексту в мовлення — Audio API. Має шість попередньо встановлених голосів: Alloy, Echo, Fable, Onyx, Nova і Shimer. API надає доступ до двох генеративних моделей ШІ і коштує $0,015 за 1000 вхідних символів.

ЧИТАЙТЕ ТАКОЖ

ТЕХНОЛОГІЇ
Starlink Mobile: як супутниковий зв’язок виходить у стільниковий сегмент і що це означає для ринку

19 Грудня 2025, 13:00

НОВИНИ
Сем Альтман пояснив, чому OpenAI часто переходить у режим «червоного коду»

19 Грудня 2025, 12:56

НОВИНИ
Тепер у Gemini можна перевірити, чи створене відео за допомогою ШІ — як це зробити

19 Грудня 2025, 11:17

НОВИНИ
Український Crosscheck залучив $220 000 у Techstars New York — що відомо

19 Грудня 2025, 10:07

БІЗНЕС
Як Саудівська Аравія витрачає трильйони на імідж і де бере на це гроші

19 Грудня 2025, 08:34

НОВИНИ
Телескоп «Джеймс Вебб» зафіксував незвичайну екзопланету — що відомо

18 Грудня 2025, 18:06

БІЗНЕС
Credit Agricole став генеральним партнером Tech Unity: Clusters Forum — першої події, що об’єднала всю Tech-екосистему України

18 Грудня 2025, 17:00

НОВИНИ
HIMERA закрила інвестраунд на $2,5 млн — деталі

18 Грудня 2025, 16:17

НОВИНИ
8 способів, як створити презентацію в NotebookLM

18 Грудня 2025, 14:13

ТЕХНОЛОГІЇ
Автономія без хаосу: як побудувати продуктову культуру, де команда впливає на рішення

18 Грудня 2025, 14:00