Vis enkel innførsel

dc.contributor.advisorHvasshovd, Svein-Olaf
dc.contributor.authorMuribø, Jonas Hermansen
dc.date.accessioned2019-09-26T14:05:52Z
dc.date.available2019-09-26T14:05:52Z
dc.date.issued2019
dc.identifier.urihttp://hdl.handle.net/11250/2619041
dc.description.abstractDe siste årene har ubemannede flyvende fartøy hatt en stor vekst innen mange forskjellige fagområder, fra inspeksjoner på strømnettet til overvåking av vilt. Et av disse feltene innebærer å lokalisere sau på beite, spesifikt i forbindelse med innsankning nær slutten av beiteperioden. Hovedfokuset i denne oppgaven er å undersøke i hvilken grad YOLOv3 (You One Look Once), en enkelt-stegs objektgjennfinnings-algoritme, er i stand til å lokalisere sau i drone-bilder. Ytterligere mål involverer å undersøke hvordan noen endringer i network påvirker ytelsen. Den første endringen består i å endre hvordan nettverket klassifiserer et funn; nettverket kan enten forsøke å lokalisere og detektere sau som en kategori, eller prøve å separere forskjellig fargede sau som svarte, hvite eller brune. Resterende endringer består av å endre oppløsning, og variere terskelen for hvor sikker nettverket skal være i et funn for at det skal klassifiseres som en sau. YOLOv3 ble implementert gjennom en populær variant av Darknet, et rammeverk for nevrale nettverk med åpen kildekode. Å finne så mange sau som mulig var regnet som det viktigste målet, og dette ble oppnåd ved å gjennfinne sau som en overordnet kategori, med en oppløsning på 832x832 piksler, og en terskel på 0.1. 12 av 1650 sau i testsettet ble ikke funnet, noe som resulterte i en gjennfinningsrate på over 99%. Det er dog noe usikkert i hvor anvendeling nettverket er på dette stadiet; alle bilder er av sau på inngjerdet beite med liten varians i lys og datasettet består av rundt 84% hvite sau. I tillegg har den lave terskelen for gjennfinning ført til usikkerhet knyttet til antall funn per sau. Videre arbeid burde forsøke å anvende betraktelig mer og varierende data for å øke anvendeligheten.
dc.description.abstractRecent years have seen an increase in the use of unmanned aerial vehicles in numerous fields, ranging from power line inspections to wildlife monitoring. One of these fields is locating free-ranging sheep, specifically at the end of the grazing period for the roundup. This thesis examines how well YOLOv3 (You Only Look Once), a one-stage object detector, is able to locate sheep in drone footage. Additional objectives were to examine how some modifications to the network affected performance. The first modification was how the network would make detections; either attempt to detect sheep as a superclass, or detect white, black and brown sheep separately as subclasses. The other modification was to a series of network parameters that related to input resolution, and confidence threshold for predictions. YOLOv3 was implemented through a popular fork of Darknet, an open-source framework for neural networks. The most important metric was to find as many sheep as possible, and this was achieved by detecting sheep as a superclass, with a resolution of 832x832 pixels and a confidence threshold of 0.1. 12 out of 1650 sheep in the test set were not detected, resulting in a recall of 99%. There is, however, some uncertainty to how applicable the network is; all footage was of sheep on pasture with hardly any change in lighting, and 84% of all sheep in the dataset were white. Additionally, the low threshold caused an overabundance of bounding boxes for some predictions. Further work should attempt to capture substantially more data for training to increase generalisability.
dc.languageeng
dc.publisherNTNU
dc.titleLocating Sheep with YOLOv3
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail
Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel