Feed-forward neural networks and how to explain their predictions
Abstract
Et kunstig feed-forward nevralt nettverk bruker lag med noder knyttet sammen av vekter til å kalkulere prediksjoner på basis av et input. Denne arkitekturer i kombinasjon med ikke lineære aktiverings funksjoner gjør at feed-forward modeller kan bli brukt til komplekse regresjons- og klassifikasjonsproblemer. Feed-forward modeller bruker observert informasjon til å optimalisere vektene i modellen. Dette gjør den ved å se på en tapsfunksjon og bruker gradienten sammen med kjerneregelen til å forandre på vektene.Feed-forward modeller er en del av en modellfamilie kalt black-box modeller. I en black-box modell er kun inputtet og prediksjonen kjent, men hvordan modellen ender opp med denne prediksjonen er ukjent. Black-box modeller er mer pg mer brukt i dagens samfunn og det er derfor ikke bare en interesse å se hva som skjer på innsiden av modellen, men også regler for å sikre rettferdigheten ovenfor individene som er berørt av en black-box modell. Black-box modeller kan ofte være kompliserte og vanskelige å beskrive, men metoder som ICE og PD plot gjør det mulig å få en bedre forståelse av modellen ved å se på hvordan komponenter i data settet forandrer prediksjonen til modellen. An artificial feed-forward neural network uses layers with nodes linked together with weights to make predictions from an input. This architecture in combination with the non-linear activation function makes the feed-forward model able to be used to solve complex regression and classification problems. The model uses observed data to optimize its weights by looking at a loss function and uses the loss functions gradient and the chain rule to update its weights.Feed-forward models are a part of a model family called black-box models. In a black-box model only the input and the prediction are known, but how the model comes up with these predictions is unknown. Because these models are more and more used in everyday life there is not only an interest to look inside the black-box, but also regulations in place to ensure fairness for the individual affected by these models. Explaining these models can be complicating, but methods like ICE and PD plots can make an individual get a better understanding of which features affect the model's prediction.