Generative AI para Audio y Música de AudioCraft Meta
Generative AI para Audio y Música
La compañía matriz de Facebook, Meta, ha lanzado una nueva herramienta de inteligencia artificial generativa que crea sonidos a partir de indicaciones basadas en texto. En una publicación, la compañía comienza con un experimento mental. “Imagina a un músico profesional capaz de explorar nuevas composiciones sin tener que tocar una sola nota en un instrumento”.
Estas son palabras bastante impactantes provenientes de la compañía, ya que afirman que la nueva herramienta de inteligencia artificial permite generar audio y música de alta calidad y realistas a partir de indicaciones de texto. Lo más interesante es que esto ocurre en un momento de mayor escrutinio hacia el contenido generado por inteligencia artificial.
Según la publicación, AudioCraft, el nombre de la nueva herramienta de inteligencia artificial, consta de tres modelos: MusicGen, AudioGen y EnCodec. El primero, MusicGen, fue entrenado con música propia y con licencia de Meta y puede generar música a partir de indicaciones de texto.
- Una nueva investigación de IA de CMU propone un método de ataque simple y efectivo que hace que los modelos de lenguaje alineados generen comportamientos objetables.
- Mejorando el procesamiento inteligente de documentos de AWS con IA generativa
- Hoja de ruta de Aprendizaje Automático Recomendaciones de la Comunidad 2023
AudioGen, que fue entrenado utilizando efectos de sonido públicos, también puede generar audio a partir de indicaciones de texto. Puede crear sonidos ambientales u otros efectos de sonido, como el ladrido de un perro, bocinas de automóviles, pasos sobre un tipo específico de suelo y más.
Parece que la diferencia entre los dos modelos se centra en la creación de música y efectos de sonido, con este último enfoque. Luego, está EnCodec. Según la compañía, este modelo puede generar música de mayor calidad con menos artefactos.
Los tres modelos están siendo de código abierto y la compañía brinda acceso a investigadores y profesionales para que puedan entrenar sus modelos con sus conjuntos de datos. Los resultados podrían ser muy interesantes, considerando que el mundo de la música y los sonidos generados por inteligencia artificial aún está en sus etapas iniciales.
En este momento, los modelos no están disponibles para que cualquiera simplemente escriba una indicación y espere que se cree un sonido encantador. Según Meta, los modelos aún requieren más trabajo debido a su naturaleza compleja. Pero el equipo promete que la familia de modelos de AudioCraft es capaz de producir audio de alta calidad.
La compañía espera que la familia de modelos de AudioCraft sea vista como nuevas herramientas para ayudar a músicos y diseñadores de sonido a explorar su oficio. Esta esperanza también se extiende a inspirar su trabajo. Si se demuestra con éxito y se vuelve popular, este debería ser el futuro que el DJ David Guetta visualizó cuando mencionó que la inteligencia artificial sería una parte fundamental del futuro de la música.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- En busca de un método generalizable para la adaptación de dominio sin fuente
- Desbloqueando el éxito con el software de SCM todo lo que necesitas saber
- Codey La IA Generativa de Google para tareas de codificación
- Conoce GPTCache una biblioteca para desarrollar una caché semántica de consultas LLM.
- ¿Qué pasó con la Web Semántica?
- Por qué Silicon Valley es el lugar ideal para la Inteligencia Artificial
- Construye y entrena modelos de visión por computadora para detectar posiciones de autos en imágenes utilizando Amazon SageMaker y Amazon Rekognition