Explaining deep learning methods for recommender systems
Abstract
Systemkrav for anbefalingssystemer er i stadig endring. Formatet til anbefalinger, samt GDPR, har bragt med seg nye krav for anbefalingene som blir gitt. Forklarbarhet eller tolkbarhet er ett av disse nye kravene. Forklarbarhet er derimot en sjelden egenskap å finne i dyp læringsbaserte modeller. Slike "svart boks" systemer har høy ytelse på bekostning av ingen eller lite innsyn. Vi diskuterer relevant teori og relaterte fremgangsmåter i dyp læring, i lys av forklarbarhet. Deretter bruker vi nevnt teori på ett eksisterende anbefalingssystem for å øke forklarbarheten. Dette gjøres ved å tolke inn-data, men også ved å se hva modellen har lært på et overordnet nivå. Resultatene valideres ved å fjerne input data og ved bruk av statistiske verktøy. Den første metoden måler tap i ytelse når data relatert til forklaringen blir fjernet. Til slutt oppsumeres resultatene av forklarbare anbefalingssystemer og forslag til videre arbeid blir presentert. The requirements for recommendation systems have changed. How recommendations are presented to the users, as well as GDPR, has brought new demands to the recommendations. Explainability is a new requirement which is hard to find in high-performance black box models. We discuss relevant theory and approaches for current explainability techniques. Then, we attempt to increase the explainability of a deep learning-based recommender system by using said theory. This includes inspecting the model by examining its input and by looking at what the model has learned with a global method. Finally, we validate the insights gained by removing input data and by using statistical tools. The former method measures the performance loss when removing the input, which is related to the explanation. Finally, we summarize our findings of explainable recommender systems and propose avenues for future work.