НОВИНИ

Google розробляє ШІ-модель для створення звуку до відео

Максим Шпирка 19 июня 2024, 12:00

Google DeepMind представив технологію на основі ШІ V2A, яка автоматично створює аудіо для відео без текстових підказок, пише Mashable. Ми вибрали головне.

Що сталося

Компанія Google DeepMind розробляє технологію на базі ШІ для створення саундтреків до відео. Технологія V2A (video to audio) створена для автоматичного генерування музики, звукових ефектів та діалогів для відео на основі текстових описів.

V2A працює, використовуючи модель, яка навчається на основі візуальних даних, мовних підказках та відеоанотаціях, щоб перетворювати випадковий шум у звук, що відповідає тону та контексту відео.

У компанії кажуть, що нова технологія може розпізнавати зображення, тому текстові підказки не потрібні, але вони можуть допомогти зробити звук точнішим. DeepMind вже опублікував кілька відео, серед яких:

Окрім того, V2A використовуватиме водяні знаки Google SynthID для захисту створеного вмісту від підробки. Наразі нова технологія перебуває на етапі тестування.

Чому це цікаво

Google працює над розробкою мультимодальної генеративної технології ШІ, щоб конкурувати з іншими компаніями:

Больше об этом

01 НОВИНИ

8 безоплатних курсів з використання ШІ та ChatGPT — добірка

Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.