Vis enkel innførsel

dc.contributor.advisorØzturk, Pinar
dc.contributor.authorJacobsen, Gunnar Strand
dc.date.accessioned2021-09-15T16:15:28Z
dc.date.available2021-09-15T16:15:28Z
dc.date.issued2020
dc.identifierno.ntnu:inspera:57393545:40090682
dc.identifier.urihttps://hdl.handle.net/11250/2777857
dc.description.abstractAlgoritmiske beslutningssystemer benyttes både i offentlig og privat sektor, blant annet til behandling av lånesøknader, ved høyskoleopptak, ansettelser, til å bestemme hvem som skal få medisinsk behandling, og i domstolene. Systemene brukes både som autonome beslutningstakere og til beslutningsstøtte. Med tanke på hvor stor innflytelse på menneskers liv algoritmene har, er det av viktig de tar etisk forsvarlige beslutninger. Uheldigvis er det en kjent sak at algoritmiske beslutningssystemer påvirkes av bias som kan gjøre beslutningene deres diskriminerende eller urettferdige overfor grupper av befolkningen. Som svar på dette har "fair" maskinlæring oppstått som et aktivt forskningsområde, med mål om å forhindre utilsiktet bias i algoritmene. Forskere fra mange ulike fagområder bidrar, blant annet fra jus, etikk, filosofi, informatikk, statistikk, maskinlæring og samfunnsfag. Siden disse fagområdene mangler felles terminologi, er fair ML-litteraturen tidvis kaotisk og uoversiktlig. I denne masteroppgaven fyller vi et hull i fair ML-litteraturen ved å skape en omfattende oversikt over hvilke vanlige bias-typer som kan påvirke algoritmene. Det er også kjent fra forskning at det å gjøre algoritmer mer rettferdige ofte reduserer deres prediksjonsnøyaktighet. Dermed tvinges ingeniører og beslutningstakere til å gjøre trade-offs mellom nøyaktighet og rettferdighet. Vi utforsker disse trade-offsene ved å optimalisere for nøyaktighet og rettferdighet samtidig, og lage en Pareto-front for resultatene ved hjelp av den genetiske algoritmen NSGA-II. Våre funn viser at programvarepakker og metoder for bias-reduksjon gir signifikante reduksjoner i prediksjonsnøyaktighet, men også at man ofte kan oppnå meget store økninger i rettferdighet gjennom å ofre ganske lite prediksjonsnøyaktighet.
dc.description.abstractAlgorithmic decision-making systems assist, or sometimes even replace, human decision-makers in high impact settings both in the public and private sectors. The systems make decisions that significantly affect peoples' lives, such as access to credit, college admission, employment, medical treatment, or judicial sentencing. Thus it is clear that ethical aspects such as the fairness of these systems are of great importance. Unfortunately, algorithmic decision-making systems are known to be plagued by biases that can make their decisions discriminatory or unfair towards population subgroups. In response to this, "fair machine learning" has emerged as a new field of study, with the overarching goal to mitigate bias unintentionally incorporated into algorithms. This field is contributed to by researchers from diverse disciplines such as law, ethics, philosophy, computer science, statistics, machine learning, and social sciences, and these disciplines often lack common terminology, making fair ML literature scattered and sometimes confusing. Few fair ML papers attempt to present a comprehensive overview of common types of bias that can enter predictive ML systems. In this thesis, we fill a gap in previous research by doing just that. Furthermore, we review literature that shows that approaches intended to enhance the fairness of algorithmic decision-making systems tend to reduce prediction accuracy, forcing engineers and decision-makers to make trade-offs between accuracy and fairness. We explore these trade-offs, using multi-objective optimization via the genetic algorithm NSGA-II. Our findings show that there is a clear accuracy penalty for improving fairness via common bias mitigation tools, but also that sometimes, very large increases in fairness can be achieved at a relatively low accuracy cost.
dc.language
dc.publisherNTNU
dc.titleAn Exploration of Bias and Fairness in Algorithmic Decision-Making Systems
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel