dc.contributor.advisor | Formo, Daniel Buner | |
dc.contributor.author | Solberg, Aleksander Johnsen | |
dc.date.accessioned | 2022-07-05T17:20:34Z | |
dc.date.available | 2022-07-05T17:20:34Z | |
dc.date.issued | 2022 | |
dc.identifier | no.ntnu:inspera:113349843:20904031 | |
dc.identifier.uri | https://hdl.handle.net/11250/3002849 | |
dc.description.abstract | Denne bacheloroppgaven tar for seg oppgaven med å generere musikk som formi-
dler spesifikke emosjoner gjennom dens musikalske uttrykk ved bruk av Kun-
stig Intelligens. Prosjektet går ut på å lage et nytt datasett som består av 500
MIDI-filer, sammen med informasjon om deres følelsesmessige uttrykk i form av
valens og energi. Filene er delt opp i fire kvadranter basert på disse dataene,
og er så brukt til å trene opp en musikalsk generativ algoritme for å oppnå
fire ulike modeller som kan generere ny musikk med de fire korresponderende
følelsesuttrykkene.
MIDI-filene er hentet fra det eksisterende datasettet ADL Piano MIDI, og
informasjon om valens og energi er skaffet gjennom annotering gjort av men-
neskelige deltagere.
I resultatet ser vi at denne fremgangsmåten kan ha stort potensiale, men at
den genererte musikken er svært variert, hovedsakelig i den musikalske kvaliteten
totalt sett, men også i tydeligheten av hvilken emosjon som er formidlet. Vi ser
derimot tendenser til at algoritmen klarer å generere musikk med den spesifiserte
følelsen. | |
dc.description.abstract | This bachelor’s thesis addresses the task of generating music which conveys
specific emotions through its musical expression using Artificial Intelligence.
The project involves creating a new dataset consisting of 500 MIDI-files, together
with information about their emotional expression in the form of valence and
arousal. The files are divided into four quadrants based on this data, and is then
used to train a musical generative algorithm in order to achieve four different
models that are able to generate new music with the corresponding emotional
expressions.
The MIDI-files used are sourced from the existing dataset ADL Piano MIDI,
and information about valence and arousal is obtained through annotation done
by human participants.
In the result, we see that this approach can have great potential, but that
the generated music is very varied, primarily in the musical quality overall, but
also in clarity of which emotion is conveyed. However, we see tendencies of the
algorithm being able to generate music with the specified feeling. | |
dc.language | eng | |
dc.publisher | NTNU | |
dc.title | Affective music - Using AI to generate music with emotion | |
dc.type | Bachelor thesis | |