Adobe presentó el miércoles 28 de febrero un avance de un proyecto experimental destinado a redefinir la forma en que las personas crean audio y música personalizados. Esta primera herramienta, denominada “Project Music GenAI Control”, utiliza IA generativa para permitir a los creadores no solo generar música a partir de indicaciones de texto, sino también ejercer un control preciso sobre el proceso de edición para adaptar el audio a sus especificaciones exactas.
Nicholas Bryan, científico investigador senior de Adobe Research y uno de los creadores de la tecnología, explicó el potencial transformador de Project Music GenAI Control en una publicación de blog. «Con Project Music GenAI Control, IA generativa se convierte en tu cocreador. Permite a personas de diversos campos, desde locutores hasta podcasters, crear música que encapsule perfectamente el estado de ánimo, el tono y la duración deseados”, dijo Bryan.
Según Adobe, Project Music GenAI Control sigue los pasos de Firefly, la familia de modelos de IA generativa de Adobe para la generación de imágenes, que supuestamente ha generado más de seis mil millones de imágenes hasta la fecha. La compañía también reafirma que todo el contenido producido con Firefly incluye información de identificación del contenido, esencialmente «etiquetas nutricionales» para el contenido digital, garantizando responsabilidad, responsabilidad y transparencia en el uso del contenido.
La piedra angular de las nuevas herramientas es el enfoque basado en mensajes de texto, una metodología utilizada en La luciérnaga de Adobe. Al ingresar mensajes de texto como “power rock”, “happy dance” o “sad jazz”, los usuarios pueden generar sin problemas música adaptada a sus preferencias. Posteriormente, las capacidades de edición fina integradas permiten a los usuarios manipular varios aspectos del audio generado directamente dentro del flujo de trabajo.
Desde ajustar el tempo y la estructura hasta buclear secciones y remezclar composiciones, la herramienta proporciona una flexibilidad incomparable para satisfacer diversas necesidades creativas, dijo Adobe.
Bryan también destacó la importancia de estas herramientas, comparándolas con el “control a nivel de píxeles para la música”, que permite a los creativos dar forma, refinar y moldear el audio con granularidad.
Project Music GenAI Control se está desarrollando actualmente en colaboración con expertos de la Universidad de California en San Diego y la Universidad Carnegie Mellon.
(Editado por: Shoma Bhattacharjee)
Publicado por primera vez: 29 de febrero de 2024 a las 7:50 p.m. IST
«Defensor de los viajes extremos. Amante del café. Experto en tocino total. Wannabe tv pionero».
También te puede interesar
-
Cómo el ultraciclista Kabir Rachure recorrió 900 km en bicicleta a través de Ladakh para establecer un récord
-
Google Meet obtiene una nueva función de IA generativa «Toma notas por mí»
-
Google implementa Gems e Imagen 3 en Gemini Advanced
-
Infinix Hot 50 5G con procesador MediaTek Dimensity y clasificación IP54 lanzado el 5 de septiembre: características esperadas
-
El Direct final de Nintendo para este verano estará compuesto por 40 minutos de juegos independientes y de partners para Switch