Cada vez está más presente el uso de herramientas que envuelven inteligencia artificial (IA) en todo tipo de procesos. Desde programación con herramientas como Copilot, integrado directamente en editores de código, hasta IAs integradas en plataformas de edición de fotos como Photoshop. Cada vez más personas incluyen estos herramientas como apoyo en sus procesos de creación. En este trabajo se explora el desarrollo de una herramienta que funcione como un Copilot pero en el ámbito de composición musical. Es decir, un asistente que aporte sugerencias a fragmentos musicales existentes que el usuario esté creando, acompañándole en el proceso de composición. Desde el principio de la construcción de esta herramienta se buscó un reto, con el objetivo de innovar en el proceso de entrenamiento e investigar técnicas a la vanguardia en este área. En este trabajo se explora la generalización de modelos de difusión existentes y enfocados en otros problemas como la reconstrucción de imágenes en condiciones de tiempo adversas, buscando su generalización y aplicación práctica a espectrogramas. Para empezar, se emplearon espectrogramas, las imágenes que representan los audios de entrada, para el entrenamiento del modelo. Se buscó innovar con el dataset, construyendo un conjunto de datos propio. Este dataset está enfocado a recopilar una misma pieza musical en dos versiones distintas, una sencilla orientada a un músico principiante y otra más avanzada y compleja. Tras el entrenamiento, se obtuvieron resultados mejores de los esperados y se continuó la implementación de esta IA de forma directa en una aplicación empleada usualmente para la composición. Se construyó un plugin sencillo en Musescore que integra el uso de este IA en el flujo usual de composición y además, se probó la utilidad de este tipo de herramienta directamente con una estudiante de música del Conservatorio profesional de música Victoria de los Ángeles. Entonces, el trabajo engloba la exploración de este tipo de modelos, construcción de un dataset propio y el entrenamiento de un modelo con el objetivo final de integrarlo todo en una herramienta combinada con el uso de Musescore como búsqueda de un asistente a la composición.
ABSTRACT
The use of artificial intelligence (AI) powered tools is becoming increasingly prevalent across all types of processes. From programming tools like Copilot, directly integrated into code editors, to AI features within photo editing platforms such as Photoshop, more and more individuals are incorporating these tools to support their creative processes. This work explores the development of a tool that functions as a Copilot but applied to musical composition. Specifically, it is an assistant designed to provide suggestions for existing musical fragments a user is creating, accompanying them throughout the whole the composition process. From the beginning of this tool’s development, the aim was to tackle a challenge, with the goal of innovating in the training process and investigating cutting-edge techniques in this field. In this work, the generalization of existing diffusion models, primarily used for other problems such as image reconstruction under adverse weather conditions, is explored, seeking their practical application to spectrograms. To begin with, spectrograms were used for model training. Spectrograms are the visual representations of audio. Innovation was also pursued with the dataset itself, by building a custom dataset. This dataset is focused on compiling the same music piece in two different versions: the simple one suited for a beginner musician and a more advanced and complex one. After the training process, promising results were obtained, and the implementation continued. The AI was directly integrated into an application commonly used for composition. A simple plugin for MuseScore was built, which integrates the use of this AI into the usual musical composition workflow. Moreover, the tool’s utility was directly tested with a student from the ”Conservatorio profesional de música Victoria de los Ángeles”. Then, this work brings together the exploration of these types of models, the construction of a custom dataset, and the training of a model, with the main goal of integrating everything into a tool combined with the use of Musescore as a music composition assistant.
Cada vez está más presente el uso de herramientas que envuelven inteligencia artificial (IA) en todo tipo de procesos. Desde programación con herramientas como Copilot, integrado directamente en editores de código, hasta IAs integradas en plataformas de edición de fotos como Photoshop. Cada vez más personas incluyen estos herramientas como apoyo en sus procesos de creación. En este trabajo se explora el desarrollo de una herramienta que funcione como un Copilot pero en el ámbito de composición musical. Es decir, un asistente que aporte sugerencias a fragmentos musicales existentes que el usuario esté creando, acompañándole en el proceso de composición. Desde el principio de la construcción de esta herramienta se buscó un reto, con el objetivo de innovar en el proceso de entrenamiento e investigar técnicas a la vanguardia en este área. En este trabajo se explora la generalización de modelos de difusión existentes y enfocados en otros problemas como la reconstrucción de imágenes en condiciones de tiempo adversas, buscando su generalización y aplicación práctica a espectrogramas. Para empezar, se emplearon espectrogramas, las imágenes que representan los audios de entrada, para el entrenamiento del modelo. Se buscó innovar con el dataset, construyendo un conjunto de datos propio. Este dataset está enfocado a recopilar una misma pieza musical en dos versiones distintas, una sencilla orientada a un músico principiante y otra más avanzada y compleja. Tras el entrenamiento, se obtuvieron resultados mejores de los esperados y se continuó la implementación de esta IA de forma directa en una aplicación empleada usualmente para la composición. Se construyó un plugin sencillo en Musescore que integra el uso de este IA en el flujo usual de composición y además, se probó la utilidad de este tipo de herramienta directamente con una estudiante de música del Conservatorio profesional de música Victoria de los Ángeles. Entonces, el trabajo engloba la exploración de este tipo de modelos, construcción de un dataset propio y el entrenamiento de un modelo con el objetivo final de integrarlo todo en una herramienta combinada con el uso de Musescore como búsqueda de un asistente a la composición.
ABSTRACT
The use of artificial intelligence (AI) powered tools is becoming increasingly prevalent across all types of processes. From programming tools like Copilot, directly integrated into code editors, to AI features within photo editing platforms such as Photoshop, more and more individuals are incorporating these tools to support their creative processes. This work explores the development of a tool that functions as a Copilot but applied to musical composition. Specifically, it is an assistant designed to provide suggestions for existing musical fragments a user is creating, accompanying them throughout the whole the composition process. From the beginning of this tool’s development, the aim was to tackle a challenge, with the goal of innovating in the training process and investigating cutting-edge techniques in this field. In this work, the generalization of existing diffusion models, primarily used for other problems such as image reconstruction under adverse weather conditions, is explored, seeking their practical application to spectrograms. To begin with, spectrograms were used for model training. Spectrograms are the visual representations of audio. Innovation was also pursued with the dataset itself, by building a custom dataset. This dataset is focused on compiling the same music piece in two different versions: the simple one suited for a beginner musician and a more advanced and complex one. After the training process, promising results were obtained, and the implementation continued. The AI was directly integrated into an application commonly used for composition. A simple plugin for MuseScore was built, which integrates the use of this AI into the usual musical composition workflow. Moreover, the tool’s utility was directly tested with a student from the ”Conservatorio profesional de música Victoria de los Ángeles”. Then, this work brings together the exploration of these types of models, the construction of a custom dataset, and the training of a model, with the main goal of integrating everything into a tool combined with the use of Musescore as a music composition assistant. Read More


