Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Google розробляє ШІ-модель для створення звуку до відео
19 Червня 2024, 12:00
2 хв читання
Аудіо версія НОВИНИ
Максим ШпиркаПишу новини про бізнес, технології та підприємництво.
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Режим читання
Режим читання збільшує текст, прибирає всю зайву інформацію зі сторінки і дозволяє зосередитися на матеріалі. Тут ви можете вимкнути його в будь-який момент.
Завершити
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Google DeepMind представив технологію на основі ШІ V2A, яка автоматично створює аудіо для відео без текстових підказок, пише Mashable. Ми вибрали головне.
Що сталося
Компанія Google DeepMind розробляє технологію на базі ШІ для створення саундтреків до відео. Технологія V2A (video to audio) створена для автоматичного генерування музики, звукових ефектів та діалогів для відео на основі текстових описів.
V2A працює, використовуючи модель, яка навчається на основі візуальних даних, мовних підказках та відеоанотаціях, щоб перетворювати випадковий шум у звук, що відповідає тону та контексту відео.
У компанії кажуть, що нова технологія може розпізнавати зображення, тому текстові підказки не потрібні, але вони можуть допомогти зробити звук точнішим. DeepMind вже опублікував кілька відео, серед яких:
відео темного, моторошного коридору, що супроводжується музикою жахів;
самотнього ковбоя на заході сонця під приємну мелодію губної гармошки;
анімовані фігури, які розповідають про свою вечерю.
Окрім того, V2A використовуватиме водяні знаки Google SynthID для захисту створеного вмісту від підробки. Наразі нова технологія перебуває на етапі тестування.
Чому це цікаво
Google працює над розробкою мультимодальної генеративної технології ШІ, щоб конкурувати з іншими компаніями:
OpenAI має свій ШІ-генератор відео Sora (ще не випущений) і GPT-4o.
Meta і Suno вже вивчають аудіо та музику, створені ШІ, але поєднання аудіо з відео є відносно новим.
ElevenLabs має подібний інструмент, який поєднує аудіо з текстовими підказками, але DeepMind стверджує, що V2A відрізняється тим, що не потребує текстових підказок.