Vis enkel innførsel

dc.contributor.advisorLindseth, Frank
dc.contributor.advisorHukkelås, Håkon
dc.contributor.authorSingh, Navjot
dc.date.accessioned2021-09-15T16:05:19Z
dc.date.available2021-09-15T16:05:19Z
dc.date.issued2020
dc.identifierno.ntnu:inspera:57390197:22540585
dc.identifier.urihttps://hdl.handle.net/11250/2777551
dc.description.abstractTradisjonell veiledet læring krever betydelige mengder med annotert treningsdata for å oppnå tilfredsstillende resultater. Ettersom autonome persepsjonssystemer samler inn data kontinuerlig blir annoteringsprosessen meget kostbar og tidkrevende. Aktiv læring er en spesialisert semi-veiledet lærings-strategi som gjør det mulig for en maskinlæringsmodell å oppnå høy ytelse med mindre treningsdata, og minimerer dermed kostnadene for manuell annotering. I denne oppgaven utforsker vi aktiv læring innenfor autonom persepsjon, og foreslår et nytt dypt aktivt lærings rammeverk for objektdeteksjon og instans-basert segmentering som omfatter ulike aktive lærings strategier. Vi gjennomgår fremtredende metoder innen aktiv læring, studerer deres ytelse i de sistnevnte datasyn oppgavene og utfører flere eksperimenter ved å bruke avanserte R-CNN-baserte modeller for datasett i det selvkjørende domenet. Målet med aktiv læring er å la en maskinlæringsmodell velge sine egne treningsdata som hjelper den i å yte bedre. Ved hjelp av en spørrestrategi kan modellen måle informativiteten til et ikke-annotert datapunkt basert på dens prediksjonsusikkerhet. Den underliggende teorien er at ved å legge til informative datapunkter som ikke er representert i eksisterende treningsdata, vil modellen forbedre seg betydelig. For et stort sett med treningsdata og en godt trent modell kan disse datapunktene representere svært uvanlige scenarier (f.eks.. en hest som går midt på en motorvei). Våre empiriske eksperimenter på en rekke datasett viser at aktiv læring reduserer mengden treningsdata som kreves. Vi observerer at tidlig utforskning med instanse-rike treningssett fører til god ytelse (dvs. aktiv læringsstrategier som bruker sum som aggregeringsteknikk), og at falske positive prediksjoner kan ha en negativ innvirkning hvis de ikke blir behandlet på riktig måte, spesielt på aktiv læringsstrategier som bruker gjennomsnitt som aggregeringsteknikk. Videre utfører vi en kvalitativ evaluering av autonome kjøredata samlet inn fra Trondheim, og illustrerer at aktiv læring kan være til hjelp med å velge mer komplekse scenarier for annotering. Oppmuntrende funn indikerer at aktiv læring kan være fordelaktig i en maskinlærings prosess for autonom persepsjon for å minimere annoterings innsatsen. Vårt arbeid kan sees på som et viktig første skritt for å bidra til det aktive læringsdomenet.
dc.description.abstractTraditional supervised learning requires significant amounts of labeled training data to achieve satisfactory results. As autonomous perception systems collect continuous data, the labeling process becomes expensive and time-consuming. Active learning is a specialized semi-supervised learning strategy that allows a machine learning model to achieve high performance using less training data, thereby minimizing the cost of manual annotation. In this thesis, we explore active learning in an autonomous domain, and propose a novel deep active learning framework for object detection and instance-based segmentation that comprises various active learning strategies. We review prominent active learning approaches, study their performances in the aforementioned computer vision tasks, and perform several experiments using state-of-the-art R-CNN-based models for datasets in the self-driving domain. The goal of active learning is to let a machine learning model choose its own training data that helps it perform better. Using a query strategy, the model can measure the informativeness of an unlabeled sample based on its prediction uncertainty. The underlying theory is that by adding informative samples that are not represented in the current training data, the model will significantly improve. For a large set of training data and a well-trained model, these samples could represent highly unusual scenarios (i.e., a horse walking in the middle of a highway). Our empirical experiments on a number of datasets reflect that active learning reduces the amount of training data required. We observe that early exploration with instance-rich training sets leads to good performance (i.e., active learning strategies using sum as aggregation technique), and that false positives can have a negative impact if not dealt with appropriately, especially for active learning strategies using average as aggregation technique. Furthermore, we perform a qualitative evaluation using autonomous driving data collected from Trondheim, illustrating that active learning can help in selecting more complex scenarios to annotate. Encouraging findings indicate that active learning can be beneficial in a machine learning pipeline for autonomous perception to minimize the annotation job. Our efforts can be seen as an important first step for contributing in the active learning domain.
dc.language
dc.publisherNTNU
dc.titleDeep Active Learning for Autonomous Perception
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel