Vis enkel innførsel

dc.contributor.advisorHvasshovd, Svein-Olaf
dc.contributor.authorStemshaug, Hallvard
dc.date.accessioned2022-10-18T17:20:52Z
dc.date.available2022-10-18T17:20:52Z
dc.date.issued2022
dc.identifierno.ntnu:inspera:112046434:24093739
dc.identifier.urihttps://hdl.handle.net/11250/3026821
dc.description.abstractVed hjelp av en velutviklet synssans, klarer mennesker å se kjenne igjen og se forskjell på objekter med høy presisjon. Vi gjør dette basert på objektets form, størrelse eller farge og med ved å oppdage bevegelse. Det er gjort betydelige fremskritt innen datasyn og dyp læring de siste årene. Likevel er baserer datamaskinens synssans seg i de flest tilfeller på å gjenkjenne objektenes synlige kjennetegn. Med infrarøde kameraer lettere tilgjengelig kan dette synssystemet utvides til å inkludere data fra det infrarøde spekteret. I denne oppgaven er temaet gjenfinning av sau i bilder tatt med dronen DJI Mavic 2 Enterprise Dual. Dette blir gjort ved bruk dyplærings basert objektgjenkjenning. Motivasjonen bak arbeidet er å hjelpe bønder med å effektivisere sauesankingen som tradisjonelt har vært basert på manuelt arbeid. Som regel krever sauesankinga mye forberedelse og innsats, med avtagende avkastning når det er færre sauer igjen å finne. Denne oppgaven forklarer sentrale grunnleggende teoretiske konsepter innen datasyn, nevrale nettverk, dyp læring og datasettsammensetning. Deretter presenteres metodene, tilnærmingen og resultatene av et eksperiment i lokalisering av sau ved bruk av dyplæringsmodellen YOLOv5. Målet i oppgaven er å fastslå hvilken effekt bruken av IR (infrarøde) bilder med lav oppløsning brukt sammen med fargebilder har på opptreningen av en YOLOv5-modell. I sum ble 18 modeller opptrent og testet med forskjellige konfigurasjoner av oppdeling av bildet, bruk av IR bildene i datasettet, og hvordan sauene ble delt in i kategorier etter farge. Resultatene fra oppgaven viser at modellen som oppnådde den høyeste gjenkjennelseraten på 98.6% for sauer i testsettet bruker hele bilder, RGB bilder alene, og fire forskjellige kategorier for sauene. Til sammenligning oppnådde modellen med de beste resultatene for kombinert bruk av RGB bilder og IR bilder en gjenkjennelserate på 96.0% sauer i testsettet. Oppgaven konkluderte med at det ikke er lønnsomt for bønder å investere i et lavoppløselig IR-kamera for sauegjenfinning når kameradroner med lignende RGB-bildesensorer finnes til en mye billigere penge.
dc.description.abstractWith a highly developed visual system, humans can recognize objects with high precision. The detection is based on visual cues such as shape, size, color, and motion. In recent years significant progress has been made in computer vision and deep learning. However, compared to the human visual system, the computer's toolbox is more limited, relying only on recognizing the visual features of the objects. With the availability of infrared cameras, features from the infrared spectrum can be added to the set of tools. In this thesis, the topic is detecting sheep in images captured with the drone DJI Mavic 2 Enterprise Dual using Deep Learning-based object recognition. It is motivated by the aim of helping farmers whose method for finding sheep has traditionally been manual search. As a rule, such methods require a lot of preparation and effort, diminishing returns when fewer sheep are found. This thesis explains fundamental theoretical concepts in computer vision, neural networks, deep learning, and dataset composition. Then, the methods, approach, and results of an experiment in the localization of sheep are presented using the object location model YOLOv5. The key question of this research is to determine the impact of low-resolution single-channel IR (infrared) images used in addition to three-channel RGB (red, green, blue) color images on training a YOLOv5 model. A total of 18 models were trained and tested with different configurations based on splitting the images, using IR images in the data, and classifying sheep based on color. The results showed that the model that achieved the highest detection rate at 98.6% of sheep in the test set used full images, the original RGB images, and four different classes of sheep. The IR images had a slight negative impact on the detection of sheep. In comparison, the best performing model fully utilizing RGB and IR images was able to locate 96.0% of the sheep in the test set. The thesis concludes that it is not profitable for a farmer to invest in a low-resolution IR camera for sheep detection when camera drones with similar RGB image sensors exist at a much lower cost.
dc.languageeng
dc.publisherNTNU
dc.titleImpact of Low Resolution IR Images in Drone Based Sheep Detection
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel