Vis enkel innførsel

dc.contributor.advisorLi, Jingyue
dc.contributor.authorMundal, Halvor
dc.date.accessioned2021-09-15T16:14:00Z
dc.date.available2021-09-15T16:14:00Z
dc.date.issued2020
dc.identifierno.ntnu:inspera:57320302:25626109
dc.identifier.urihttps://hdl.handle.net/11250/2777839
dc.description.abstractNevrale nettverk har det siste tiåret vist seg å ha utmerket ytelse i et bredt spekter av oppgaver, og kan til og med utkonkurrere mennesker på enkelte områder. Imidlertid har de også vist seg å være sårbare for små, umerkelige forandringer i inndataen, kalt motstandereksempler(adversarial examples), som får de nevrale nettverkene til å feilklassifisere eksempler de normalt ville klassfisert korrekt. Siden nevrale nettverk blir brukt i et bredt spekter av løsninger som krever full tillit til deres prediksjoner, er det avgjørende at vi finner en måte å forsvare oss mot motstandereksemplene. Selv om det forskes mye på motstandereksempler, og enkelte hypoteser er blitt presentert, er det fortsatt et mysterium hvorfor de klarer å lure de nevrale nettene. Denne masteroppgaven har som mål å forklare hvorfor nevrale nettverk er sårbar mot motstandereksempler og hvordan man kan unngå dem. Jeg inndeler hypotesene om motstandereksempler fra litteraturen i fire forskningsspørsmål, og unersøker forskningsspørsmålene ved å måle robustheten til nevrale nettverk med forskjellige hyperparametre og med motstandereksempler som treningsdata. Jeg viser at den mest sannsylige hypotesen for hvorfor neverale nettverkene er sårbare for motstandereksempler er at de nevrale nettverhene har beslutningsgrensen(decision boundary) for nær treningseksemplene. I tillegg viser resultatene at forsvaret til Madry et al. (2017) er robust mot alle mulige motstanderangrep under enkelte forrhold.
dc.description.abstractNeural networks have in the last decade shown to have excellent performance in a wide range of tasks and even outperform humans in some areas. However, they have also shown to be vulnerable to small, imperceptible perturbations in the input, called adversarial examples, causing them to miss-classify instances they would otherwise have classified correctly. As neural networks are being applied a wide specter of solutions, many requiring complete trust in their predictions, it is crucial that we find a way to defend against adversarial examples. Although much research is done on adversarial examples, and some hypotheses have been presented, it still remains a mystery why they are able to fool the neural networks. This thesis aims to explain why neural networks are vulnerable to adversarial examples and how to negate them. I divide the different hypotheses about adversarial examples from the literature into four research questions and investigate the research questions by measuring the robustness of neural networks with different hyperparameters and with adversarial examples as training input. I show that the neural networks' vulnerability to adversarial examples most likely is caused by the neural networks having the decision boundary too close to the training examples. Additionally, the results show that the defensive method of Madry et al. (2017) is robust to any possible adversarial attacks under certain conditions.
dc.language
dc.publisherNTNU
dc.titleWhy are neural networks vulnerable to adversarial examples?
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel