Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає все зайве зі сторінки та дає можливість зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
OpenAI випустила нову модель штучного інтелекту GPT-4. Вона «розуміє» зображення і текст, пише TechCrunch.
Що сталося
OpenAI випустила довгоочікувану модель штучного інтелекту GPT-4. Компанія називає її останньою віхою в своїх зусиллях в масштабуванні глибинного навчання.
GPT-4 здатна приймати не тільки текстові дані, але й зображення. При цьому здатна підписувати і навіть інтерпретувати відносно складні зображення. Наприклад, ідентифікувати перехідник Lightning на фото підключеного iPhone.
В OpenAI зазначають, що у звичайній розмові різниця між GPT-3,5 (використана в ChatGPT, — прим.ред) і GPT-4 може бути непомітною. Її можна побачити, коли складність завдання досягає певного рівня. GPT-4 надійніший, креативніший та здатний обробляти набагато більш нюансовані інструкції, ніж GPT-3,5.
Функція «розуміння» зображень поки що доступна не всім клієнтам OpenAI. Наразі OpenAI тестує її з компанією-партнером Be My Eyes. Там навели такий приклад можливостей GPT-4:
«Якщо користувач надішле фото внутрішнього простору свого холодильника, віртуальний помічник не тільки зможе правильно визначити, що в ньому знаходиться, але й екстраполювати та проаналізувати, що можна приготувати з цих інгредієнтів. Інструмент також може запропонувати кілька рецептів страв з них і надіслати покрокову інструкцію, як їх приготувати».
Що буде далі
GPT-4 доступна лише в преміум-плані ChatGPT Plus. Також розробники можуть записатися в список очікування API.