whatsappCompartir facebookCompartir twitterTwittear emailE-mail
copiarCopiar url
Share 17
VIVIRTEC
Campaña Robot Eilik mayo 2024
Campaña Robot Eilik mayo 2024
Campaña Robot Eilik mayo 2024

La IA puede componer bandas sonoras a partir de videos

Video-to-Audio (V2A), de Google, promete transformar el cómo se generan las bandas sonoras.

La IA puede componer bandas sonoras a partir de videos
La IA puede componer bandas sonoras a partir de videos

La inteligencia artificial está revolucionando la creación artística, y Google ha dado un paso adelante con su herramienta Video-to-Audio (V2A). Esta tecnología innovadora promete transformar cómo se generan bandas sonoras a partir de videos. Aquí te contamos cómo funciona y los posibles alcances de esta propuesta.

Las inteligencias artificiales generativas están redefiniendo la creatividad. Desde la elaboración de guiones hasta la creación de gráficos, estas herramientas agilizan procesos que antes requerían horas de trabajo humano. DeepMind, la división de Google dedicada a la IA, ha desarrollado V2A, una tecnología que convierte videos en experiencias sonoras completas. ¿Cómo lo hace? Utiliza los píxeles del video para generar música, efectos de sonido y voces, reflejando fielmente lo que se ve en la pantalla.

En su blog oficial, Google explica que V2A puede interpretar los elementos visuales de un video para crear audios coherentes. Los usuarios pueden influir en el resultado a través de 'prompts' de texto. Existen dos tipos de comandos: el 'prompt positivo' indica qué sonidos se desean, mientras que el 'prompt negativo' especifica los sonidos que se deben evitar. Esta flexibilidad abre un abanico de oportunidades para la experimentación sonora, permitiendo ajustar la música a diferentes estilos y emociones.

Un ejemplo destacado es el video de un coche derrapando en una ciudad futurista. Al añadir el prompt "coches derrapando, motor de coche acelerando, música electrónica angelical", la IA generó una banda sonora que se alineaba perfectamente con la acción y emoción del video. Los efectos de sonido y la música electrónica integraron de tal manera que pocos notarían que todo fue creado por una máquina.

Aunque prometedora, esta tecnología aún se encuentra en fase de desarrollo. Google está recopilando opiniones de cineastas para asegurar un impacto positivo en la comunidad creativa. Sin embargo, persisten desafíos, como la dependencia de la calidad del video para lograr un buen sonido y la mejora en la sincronización labial para diálogos.

La tecnología V2A de Google marca un hito en la interacción entre video y sonido, mostrando el potencial de la inteligencia artificial en el ámbito creativo. Aunque todavía en desarrollo, sus aplicaciones podrían transformar la producción audiovisual, brindando nuevas herramientas para cineastas y creadores. El futuro del sonido generado por IA es prometedor, y seguiremos atentos a los avances que nos acerquen a este nuevo horizonte sonoro.