Artsgjenkjenning av fisk
Nordølum, Birger Johan; Lavik, Eirik Osland; Haugen, Kristian André Dahl; Kvalvaag, Tom-Ruben Traavik
Bachelor thesis
Permanent lenke
https://hdl.handle.net/11250/2777966Utgivelsesdato
2021Metadata
Vis full innførselSamlinger
Sammendrag
Norsk institutt for naturforskning (NINA) ønsket en løsning som kunne automatisk gjenkjenne arter i undervannsvideo og gi de grunnleggende statistikk om aktiviten i videoene. Dette prosjektet undersøker muligheter for å løse problemet og implementerer en løsning. Et dataset ble annotert med artene NINA var interessert i forbruk i utvikling og test av deteksjon- og sporingalgoritmer. Løsningen implementerer en objektdeteksjon modul hvor dyplæring brukes for å detektere objekter ved bruk av et nettverk basert på You Only Look Once (YOLO)-nettverksarkitektur. Deteksjonene brukes i en sporing modul hvor Simple Online and Realtime Tracking (SORT) er brukt for å assosiere deteksjoner over tid for å generere individuelle objekt observert i videoen. Organisering av objektdeteksjon og sporing er implementert i en kjernemodul som organiserer prosessering og lagrer resultat til en database. Et webbasert brukergrensesnitt kommuniserer med kjernemodulen som lar bruker administrere, se og laste ned resultat av prosesserte videoer. Den totale løsningen gir NINA et fungerende verktøy for bruk i sin forskning. Norwegian Institute of Nature Research (NINA) inquired about a tool toautomatically detect underwater species in videos, and calculate basic statisticsof their activity. Something that would assist them in their research. Thisproject investigates possibilities and implements a solution. Adataset of the relevant species is made for use in the development and testingof object tracking and detection algorithms. The solution implements an objectdetection module where deep learning is used to detect an object by using a YouOnly Look Once(YOLO) based network architecture. The detections are used in atracking module where Simple Online and Realtime Tracking(SORT) is used toassociate detections over time to generate individual objects observed in thevideo. In order to organize the object detection and tracking were a core moduleimplemented. This module processes and then stores the results in a database.A web-based user interface communicates to the core module to administer, view,and download results. The proposed solution gives NINA a working tool for use intheir research.