Vis enkel innførsel

dc.contributor.advisorIbrahim A. Hameed
dc.contributor.authorHasan Abdul Kader, Ahsan Mafaz
dc.date.accessioned2021-09-24T18:38:55Z
dc.date.available2021-09-24T18:38:55Z
dc.date.issued2020
dc.identifierno.ntnu:inspera:54735404:34502488
dc.identifier.urihttps://hdl.handle.net/11250/2782090
dc.description.abstractDen nylige utviklingen innen maskinlæring muliggjorde fremveksten av kraftige nevrale nettverk i domener som Computer Vision, NLP som er i stand til å oppnå nøyaktighet på menneskelig nivå. Som et resultat av dette ble utrolige applikasjoner født fra ansiktsbasert autorisasjons- og autentiseringssystemer, selvkjørende biler til chatbots, språkoversettere, og antallet stiger hver dag, inkludert i mange sikkerhetssikkerhetsmiljøer. Med denne enorme velsignelsen kommer det et stort problem ved siden av "Adversarial Attacks on Neural Networks". For å utnytte fordelene som tilbys av Neural Networks og for å overta kontrollen av systemene som kontrolleres av Neural Networks, har Adversaries utviklet en rekke teknikker for å angripe nettverket ved å mate inn håndverksinnganger kjent som Adversarial Inputs og få Neural Network til å forutsi en feil utdata fremfor den sanne utdata, og dermed lurer nettverket. Ovennevnte problem undersøkes i flere dimensjoner. Den første dimensjonen er de forskjellige smakene av disse angrepene, deres varierte natur med hensyn til faktorer som nøyaktighet, tidsforbruk, forstyrrelsesnivå osv. De forskjellige angrepsstrategiene utføres på forskjellige typer nevrale nettverk som Convolution Neural Network (CNN), Recurrent Neural Network (RNN) og Long-Short-Term-Memory (LSTM) med standard datasett som input. Den andre dimensjonen undersøker om populære forsvarsstrategier som kan motstå / forhindre angrepene på nevrale nettverket, den relative styrken og svakheten, motstandskraften i forhold til forskjellige angrepstyper. I den tredje dimensjonen demonstreres en live-demo av angrepet ved å plukke opp et virkelighetsdatasett og angripe det samme for å produsere den tiltenkte produksjonen i stedet for den originale.
dc.description.abstractThe Recent Advancement in the field of Machine Learning, enabled the emergence of powerful Neural Networks in domains like Computer Vision, NLP which are capable of achieving Human-level accuracy. As the result of this, incredible applications were born ranging from Face-Based Authorization \& Authentication systems, self-driving cars to chatbots, language translators and the number is rising up everyday including in many safety \& security sensitive environments. With this huge boon, there comes a major problem alongside "Adversarial Attacks on Neural Networks". Inorder to exploit the advantages offered by Neural Networks and to take over the control of the systems controlled by Neural Networks, Adversaries has developed variety of techniques to attack the Network by feeding in Handcrafted-Inputs known as Adversarial Inputs and make the Neural Network to predict a wrong output rather than the true output, thereby fooling the Network. The above problem is investigated in multiple-dimensions. The first dimension being the Different flavours of these attacks, their varied nature with respect to factors like accuracy, time-consumption, perturbation-level etc. The different attack strategies are performed on various types of Neural Networks like Convolution Neural Network (CNN), Recurrent Neural Network (RNN) and Long-Short-Term-Memory (LSTM) with standard datasets as input. The second dimension investigates about popular Defense strategies which can resist/prevent the attacks on the Neural Network, the relative strength and weakness, the resisting capability with respect to different attack types. In the third dimension, a live-demo of the attack is demonstrated by picking up a real-world dataset and attacking the same to produce the intended output rather than the original one.
dc.language
dc.publisherNTNU
dc.titleAdversarial Attacks on Neural Networks & Defense for it
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel