Show simple item record

dc.contributor.advisorRasheed, Adil
dc.contributor.advisorBrusevold, Jon Håman
dc.contributor.advisorHansen, Thomas
dc.contributor.authorHannestad, Ole-Jørgen
dc.date.accessioned2021-11-09T18:20:00Z
dc.date.available2021-11-09T18:20:00Z
dc.date.issued2021
dc.identifierno.ntnu:inspera:76427839:45109867
dc.identifier.urihttps://hdl.handle.net/11250/2828759
dc.descriptionFull text not available
dc.description.abstractDenne masteroppgaven tar utgangspunkt i innsikt tilegnet gjennom intervjuer med norske organisasjoner om deres utfordringer innen eXplainable Artificial Intelligence (XAI), originalt presentert i et spesialiseringsprosjekt av Hannestad (2021). Organisasjonenes uttalte utfordringer innen XAI presenteres sammen med en rekke relevante XAI-teknikker og metoder for å løse de uttalte utfordringene. Med dette presenteres både dagens etterspørsel og relevant tilbud for XAI i norsk sammenheng. Relevant teori relatert til kunstig intelligens (AI), maskinlæring (ML) og XAI presenteres med den hensikt å gi leseren nødvendig innsikt i kjente utfordringer og løsninger knyttet til bruk av XAI. Teorien er basert på ledende internasjonal forskning og gir en forståelse av de viktigste trendene innen forskningsfeltet. En rekke XAI-teknikker og -metoder presenteres på en lett fordøyelig måte, med den hensikt å fungere som en veiledning for norske og globale organisasjoner som søker å få kunnskap om hvordan de kan implementere forklarbarhet og transparens i sin AI-prosess. På samme måte som konklusjonen i Hannestad (2021) viste at en transparent design-prosess ble funnet å være en primærdriver for å sikre tillit til ML-systemer, har konseptet transparens gjennom dokumentasjon (TTD) blitt presentert som en beste praksis i denne masteroppgaven.
dc.description.abstractThis master's thesis is based on insight gained through interviews with Norwegian organizations about their challenges in eXplainable Artificial Intelligence (XAI), originally presented in a specialization project of Hannestad (2021). The organizations' stated challenges in regards to XAI are presented together with a number of relevant XAI techniques and methods for solving the stated challenges. By doing so, both the current demand and relevant supply for XAI in a Norwegian context are presented. Relevant theory related to Artificial Intelligence (AI), Machine Learning (ML), and XAI is presented with the intention of giving the reader the necessary insight into known challenges and solutions associated with the use of XAI. The theory is based on leading international research and provides an understanding of the major trends in the field of research. A number of XAI techniques and methods are presented in an easily digestible manner, with the intent of acting as a guide for Norwegian, and global organizations seeking to gain knowledge on how to implement explainability and transparency in their AI pipeline. In the same way as conclusions of Hannestad (2021) showed that a transparent design process was found to be a key driver for ensuring trust in ML system end-users, the concept of transparency through documentation (TTD) has been presented as a key best practice in this master's thesis.
dc.languageeng
dc.publisherNTNU
dc.titleSecuring trust in AI systems through increased explainability: linking Norwegian organizations' challenges in regards to eXplainable Artificial Intelligence (XAI) with a 2021 view on relevant techniques and methods
dc.typeMaster thesis


Files in this item

FilesSizeFormatView

This item appears in the following Collection(s)

Show simple item record