Show simple item record

dc.contributor.advisorLangseth, Helge
dc.contributor.authorKvamme, Johannes
dc.contributor.authorLarsen, Pål-Edward
dc.date.accessioned2021-10-08T17:19:59Z
dc.date.available2021-10-08T17:19:59Z
dc.date.issued2021
dc.identifierno.ntnu:inspera:80723919:22306713
dc.identifier.urihttps://hdl.handle.net/11250/2788810
dc.description.abstractKunstig intelligens blir stadig mer tilstedeværende i høy-risiko domener slik som rettsvesen og medisin. Som en følge krever lovgivende makter innsikt i kunstig intelligens-systemer, samt forklaringer som både kan begrunne valg og åpne for læring fra ugjennomsiktige systemer. På bakgrunn av dette vokser fagfeltet forklarbar kunstig intelligens, som søker måter å bygge tillit, trygghet og ansvarlighet inn i kunstig intelligens-systemer. Tidligere forsking presenterer flere metoder for å generere forklaringer for kunstig intelligens-systener, men flere spørsmål er fremdeles ubesvart. Et av disse er hvordan man kan stole på forklaringene man får. I denne masteroppgaven utforsker vi moderne forskning på metoder for forklarbar kunstig intelligens, og designer en arkitektur basert på fleroppgavelæring. Arkitekturen åpner for å legge til tillitsverdige forklaringer som en innebygd del av det kunstige nevrale nettverket. Vi argumenterer for å bruke forklaringer basert på prinsipper fra samfunnsvitenskap i vår arkitektur. Vi presenterer funn som indikerer at arkitekturen beholder de positive kvalitetene ved fleroppgavelæring samtidig som den oppgir forklaringer. Vi viser at kontrastive forklaringer laget av domeneeksperter kan brukes til å utvide data slik at fleroppgavenettverk kan utmerke seg på små datamengder. Gjennom vår originale tapsfunksjon, som integrerer fortegnsforskjell mellom gradientene til forklaringen og hovedoppgaven, kan arkitekturen garantere at all delt informasjon blir brukt på tilnærmet lik måte. Som et resultat av dette kan man øke tilliten til forklaringene fra kunstig intelligens-systemet.
dc.description.abstractArtificial intelligence is becoming more prominent in high-risk domains, such as criminal justice and health care, and as a result, legislature calls for insight into AI systems. This insight requires explanations that both grounds the decisions and allows us to learn from opaque box systems. The field of explainable artificial intelligence is gaining traction as a result, which aims to build trust, safety, and liability into artificial intelligence systems. Previous literature shows several methods for generating explanations for artificial intelligence systems, but several questions remain. One of them is how we can trust these explanations. This thesis explores the current state-of-the-art of explainable artificial intelligence methods and designs an architecture based on multi-task learning, enabling pre-existing neural networks to add trustable explanations as a native part of the neural network. We argue for using explanations based on principles from social sciences in our architecture. We present findings indicating that the architecture incorporates the positive qualities of a multi-task learner while providing explanations. We show that counterfactual explanations by domain experts can be used to amplify data to let multi-task learners excel on sparse data. Our novel loss function integrates the numerical sign difference between the gradient of the explanation and the gradient of the primary task. Through this loss, the architecture assures that all shared information is utilized similarly. As a result, one can gain increased trust in the explanations from the artificial intelligence system.
dc.languageeng
dc.publisherNTNU
dc.titleAchieving Trustable Explanations Through Multi-Task Learning Neural Networks
dc.typeMaster thesis


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record