Show simple item record

dc.contributor.advisorFormo, Daniel Buner
dc.contributor.authorSolberg, Aleksander Johnsen
dc.date.accessioned2022-07-05T17:20:34Z
dc.date.available2022-07-05T17:20:34Z
dc.date.issued2022
dc.identifierno.ntnu:inspera:113349843:20904031
dc.identifier.urihttps://hdl.handle.net/11250/3002849
dc.description.abstractDenne bacheloroppgaven tar for seg oppgaven med å generere musikk som formi- dler spesifikke emosjoner gjennom dens musikalske uttrykk ved bruk av Kun- stig Intelligens. Prosjektet går ut på å lage et nytt datasett som består av 500 MIDI-filer, sammen med informasjon om deres følelsesmessige uttrykk i form av valens og energi. Filene er delt opp i fire kvadranter basert på disse dataene, og er så brukt til å trene opp en musikalsk generativ algoritme for å oppnå fire ulike modeller som kan generere ny musikk med de fire korresponderende følelsesuttrykkene. MIDI-filene er hentet fra det eksisterende datasettet ADL Piano MIDI, og informasjon om valens og energi er skaffet gjennom annotering gjort av men- neskelige deltagere. I resultatet ser vi at denne fremgangsmåten kan ha stort potensiale, men at den genererte musikken er svært variert, hovedsakelig i den musikalske kvaliteten totalt sett, men også i tydeligheten av hvilken emosjon som er formidlet. Vi ser derimot tendenser til at algoritmen klarer å generere musikk med den spesifiserte følelsen.
dc.description.abstractThis bachelor’s thesis addresses the task of generating music which conveys specific emotions through its musical expression using Artificial Intelligence. The project involves creating a new dataset consisting of 500 MIDI-files, together with information about their emotional expression in the form of valence and arousal. The files are divided into four quadrants based on this data, and is then used to train a musical generative algorithm in order to achieve four different models that are able to generate new music with the corresponding emotional expressions. The MIDI-files used are sourced from the existing dataset ADL Piano MIDI, and information about valence and arousal is obtained through annotation done by human participants. In the result, we see that this approach can have great potential, but that the generated music is very varied, primarily in the musical quality overall, but also in clarity of which emotion is conveyed. However, we see tendencies of the algorithm being able to generate music with the specified feeling.
dc.languageeng
dc.publisherNTNU
dc.titleAffective music - Using AI to generate music with emotion
dc.typeBachelor thesis


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record