Vis enkel innførsel

dc.contributor.advisorSchjølberg, Ingrid
dc.contributor.authorSkaldebø, Martin
dc.date.accessioned2020-01-08T15:01:19Z
dc.date.available2020-01-08T15:01:19Z
dc.date.issued2019
dc.identifier.urihttp://hdl.handle.net/11250/2635417
dc.description.abstractDen 4. industrielle revolusjonen har pågått de siste fire årene og resultater har begynt å vise seg i industrimarkedet. Google slipper stadig ny teknologi som kan slå mennesker i et mangfold av strategispill og de har utviklet kunstig inteligens som kan lære å gå på egenhånd. Statlige instanser og klassifikasjonsselskaper sammarbeider mot regler og retningslinjer for autonome skip, Yara Birkeland er et skip som er planlagt ferdig i 2020 som vil gå mot full autonom operasjon innen 2022. Autonomi i undervannsoperasjoner erfarer også vekst som vises igjen i økning i markedet. Maskinlæring er forventet å være en bidragsyter i skiftet mot en mer autonom fremtid. Metoder for innhenting av relevant informasjon i undervannsapplikasjoner som eksisterer idag bruker hovedsakelig akkustiske sensorer. Metoder for informasjonsinhenting som bruker kamerabilder er sjeldent brukt, men forbedringer innen nevrale nettverk, spesielt Convolutional Neural Networks (CNN), har vist lovende resultater. Denne rapporten vil undersøke bruken av slike metoder for undervannsoperasjoner. Rapporten trekker spesielt frem to problemstillinger, som er fordelt på to vedlagte artikler. Den første problemstillingen anngår realitetsgapet, som beskriver fenomenet som oppstår når kunnskap blir overført mellom domener, mer presist mellom det kunstige simuleringsdomenet og den virkelige verden. Eksisterende metoder angående dette har blitt undersøkt og sammenlignet for å danne et utsnitt av eksisterende metoder. Grunnet det tøffe miljøet under vann har bruken av kamerabilder til informasjonsinnhenting vært liten. Dårlig belysning, maritim snø, et miljø i kontinuerlig endring etc. gjør det vanskelig å modellere et undervannsmiljø. Det vil derfor nesten garantert eksistere et realitetsgap mellom det simulerte domenet og den virkelige verden. I løpet av de siste årene har flere rammeverk som angriper realitetsgapet oppstått og blitt publisert. Generative Adversarial Networks (GAN) har muligens stått frem som en av de mest lovende metodene for domenetransformasjon de siste årene. Denne rapporten undersøker en metode av dette rammeverket kalt CycleGAN, som introduserer en sykelkonsistens egenskap i det orginale GAN rammeverket. CycleGAN har vist gode resultater inne flere disipliner og har i denne rapporten for første gang blitt anvendt på undervannsapplikasjoner. Metoden består av å ta et bilde som input og reprodusere det samme bildet i et annet domene som output, e.g. ta et generert bilde fra simuleringsdata av et undervannspanel som input og produsere et virkelighetsnært bilde av det samme undervannspanelet. I denne rapporten er rammeverket anvendt på to forskjellige dataset med bilder fra undervannsmiljøer og en god kartlegging mellom simuleringsbaserte domener og den virkelige verden er oppnådd. Den andre problemstillingen omhandler optisk basert objekt detektering ved bruk av monokularkamera. Deep learning metoder for objekt detektering er undersøkt i unison med metoder for å ekstrakte relevante egenskaper fra de respektive detektorene for å bidra i et dynamsik posisjonerings (DP) system. En detekteringsalgoritme basert på YOLOv3 er anvendt på et dataset sammensatt av bilder fra marin kybernetisk laboratoriet (MC-lab) ved NTNU. Datasettet inkluderer bilder av et kjent objekt i bassenget i laboratoriet. Når detekteringsalgoritmen er ferdig trent og kan vellykket detektere det relevante objectet, er en skaleringsfunksjon samt et DP-system for undervannsdronen BlueROV utviklet. BlueROV2 utfører DP relativ til det kjente objektet ved å innhente relevant informasjon angående posisjon og avstander ved hjelp av detekteringsalgoritmen. Systemet fungerer tilfredstillende og klarer å utføre DP med korrekt informasjonsinnhenting av både posisjon og avstander til objektet fra kamerabilder.
dc.languageeng
dc.publisherNTNU
dc.titleVisual Aided Deep Learning Applications for Underwater Operations
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel