*Este taller se impartirá en inglés*
Rob Clouth es un músico británico con sede en Madrid, que utiliza técnicas de aprendizaje automático para realizar transferencias de estilo de audio en tiempo real, concretamente de su voz, combinando el flujo natural del beatboxing improvisado con la calidad sonora y el realismo de las muestras diseñadas.
Como artista multidisciplinar que trabaja en los campos de la música electrónica, la ingeniería de software y los nuevos medios, las motivaciones de Rob Clouth incluyen la búsqueda de la emoción en estado puro entre intrincadas estructuras musicales, el desarrollo de soluciones experimentales de software de audio y el replanteamiento de las formas en que interactuamos con la música y la tecnología.
Para su taller Neural Synthesis (Síntesis Neuronal), Rob lo ha dividido en dos partes con el objetivo de proporcionar a los asistentes los conocimientos y habilidades necesarios para generar audio de alta calidad utilizando redes neuronales en tiempo real. En la primera parte, los participantes aprenderán a aplicar las redes neuronales más avanzadas para sintetizar audio en tiempo real. También se les presentarán técnicas para recopilar conjuntos de datos de forma equitativa. Además, el taller guiará a los asistentes en la utilización de Google Colab, una plataforma que permite entrenar modelos de inteligencia artificial de forma gratuita. Para dar tiempo al proceso de formación, la segunda parte del taller tendrá lugar dos semanas después. Durante esta segunda parte, se enseñará a los participantes a utilizar los modelos entrenados para procesar y generar sonidos en el DAW de su preferencia (preferiblemente Ableton Live). Este taller dotará a los asistentes de las habilidades necesarias para aprovechar las redes neuronales para la generación de audio en tiempo real y les permitirá dar rienda suelta a su creatividad en el ámbito de la síntesis de audio.
El taller no requerirá ninguna codificación ya que Rob proporcionará las secuencias de comandos para la formación. Sin embargo, es esencial saber utilizar google drive, tener conocimientos de software de producción de audio y estar interesado en la música y el sonido. Los participantes deberán traer sus propios ordenadores portátiles, auriculares y un DAW.
Se animará a los participantes a incluir los conjuntos de datos recogidos y los modelos entrenados producidos en el taller en un repositorio de código abierto de modelos de IA, que luego serán utilizados por Rob en el Open LAB#03. A la finalización del taller Rob se compromete a entregar una biblioteca de código abierto de modelos de audio generativos entrenados en diferentes categorías de sonido que estará disponible on line al menos hasta el 29 de febrero de 2024. La biblioteca contendrá al menos 20 modelos entrenados por Rob y los desarrollados por los participantes en el taller.