Vis enkel innførsel

dc.contributor.advisorLindseth, Frank
dc.contributor.advisorHukkelås, Håkon
dc.contributor.authorSmebye, Morten
dc.date.accessioned2021-10-15T17:21:57Z
dc.date.available2021-10-15T17:21:57Z
dc.date.issued2021
dc.identifierno.ntnu:inspera:74730513:24432921
dc.identifier.urihttps://hdl.handle.net/11250/2823440
dc.descriptionFull text not available
dc.description.abstractTradisjonelle bildeanonymiseringsteknikker er ofte ødeleggende for datadistribusjonen, noe som gjør bildene uegnet for maskinlæringsmodeller. Imidlertid krever disse modellene en enorm mengde data, som personvernlover som GDPR hindrer oss i å samle og lagre fritt uten anonymisering. Derfor er et system som fjerner personvernfølsom informasjon fra bilder men ivaretar datadistribusjonen, av høy praktisk verdi. Eksisterende arbeid i feltet har vist lovende resultater med generativ anonymisering av ansikter, men disse modellene klarer ikke å fjerne all relevant informasjon. Vi presenterer HADE (Human Anonymization using DEnsepose), en flertrinns prosess for anonymisering av mennesker. HADE benytter tett posisjonsinformasjon og et betinget generativt motstandernettverk for å generere realistiske individer for fullstendig anonymisering. Konditioneringen gjør det mulig for modellen å generere realistiske individer som passer til konteksten mens de beholder den komplekse posisjonsinformasjonen til den opprinnelige personen. Videre foreslår vi en metode for å generere et datasett som inneholder menneskekropper som er egnet for opplæring av vår generative modell. I motsetning til ansiksts-anonymisering fjerner HADE all personvernfølsom informasjon som kan identifisere enkeltpersoner. Vi validerer HADE med empiriske eksperimenter, der HADE overgår tradisjonelle anonymiseringsmetoder. Data anonymisert med HADE kan brukes i opplæring og validering av nye maskinlæringsmodeller, og vi viser en minimal reduksjon i ytelse ved hjelp av de anonymiserte dataene.
dc.description.abstractTraditional image anonymization techniques are often destructive for the data distribution, rendering the images unfit for machine learning models. However, these models require a vast amount of data, which privacy regulations like the General Data Protection Regulation (GDPR) hinder us from collecting and storing freely without anonymization. Therefore, a system that removes privacy-sensitive information from images while retaining the data distribution is of high practical value. Existing work in the field has shown promising results with generative anonymization of faces, but these models fail to remove all the relevant information. We propose HADE (Human Anonymization using DEnsepose), a multi-stage pipeline for human body anonymization. HADE utilizes dense pose information and a conditional adversarial network to generate realistic individuals for complete anonymization. The conditioning enables the model to generate realistic individuals that fit the context while retaining the complex poses of the original individual. Furthermore, we propose a methodology for gathering a dataset containing human bodies suitable for training generative models. Contrary to face anonymization, HADE removes all privacy-sensitive information that might identify individuals. We validate HADE with thorough empirical experiments, where HADE significantly outperforms traditional anonymization methods. Data anonymized with HADE can be used in the training and validation of new machine learning models, and we show a minimal reduction in performance using the anonymized data.
dc.languageeng
dc.publisherNTNU
dc.titleGenerative Anonymization of Humans in the Wild Using Dense Pose Information
dc.typeMaster thesis


Tilhørende fil(er)

FilerStørrelseFormatVis

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel