Vis enkel innførsel

dc.contributor.advisorMester, Rudolf
dc.contributor.authorHjelle, Emil Wiersdalen
dc.contributor.authorKanstad, Sondre Molnes
dc.date.accessioned2023-10-20T17:20:37Z
dc.date.available2023-10-20T17:20:37Z
dc.date.issued2023
dc.identifierno.ntnu:inspera:145904930:35331226
dc.identifier.urihttps://hdl.handle.net/11250/3097881
dc.description.abstractDet har blitt forsket mye på hvordan man kan gjenkjenne ulike gjenstander i bilder, men det finnes færre forskningsartikler som forteller hvordan man kan bruke in- formasjonen fra disse gjenkjennelsene. For at autonome fartøy skal være trygge og effektive er det viktig at dataen den får inn representerer omgivelsene pres- ist. Ved hjelp av et system som klarer å ekstrahere informasjon om posisjonen til båter eller hindringer i omgivelsene øker situasjonsbevisstheten til det autonome fartøyet. For at det autonome fartøyet skal nå det første nivået av situasjonsbevis- sthet er det flere aspekter som må implementeres blant annet objekt deteksjon, sporing og lokalisering. Prosjektet startet med å visualisere simulert data som ble brukt til å eksper- imentere og evaluere forskjellige metoder. Visualiseringen ble laget i Blender og skal imitere en travel havn med båter. I arkitekturen til systemet blir etablerte metoder for objekt deteksjon og sporing kombinert med grunnleggende metoder for å estimere dybde, vinkel og deretter posisjon. Det ble trent en YOLOv8 modell for å oppdage båter i video sekvensene som var generert i Blender. I forbindelse med treningen av modellen ble det også laget datasett som modellen trente på. Videre ble sporingsalgoritmen ByteTrack brukt til å spore de ulike deteksjonene og identifisere dem over tid. Etter at båter har blitt detektert så blir deteksjonene brukt til å estimere vinkelen, dybden og, til slutt, posisjonen til de ulike båtene. Disse estimatene har blitt gjort basert på detekteringen fra et stereokameraoppsett generert i Blender. For å forbedre tolkbarheten av resultatene til situasjonsbevis- sthetsystemet ble resultatene visualisert i et fugleperspektiv med systemet i sen- trum. Disse visualiseringene ble brukt til å kvalitativt analysere systemet ende-til- ende og generere videoer. Ved bruk av de siste og beste metodene innenfor objekt deteksjon og sporing samt grunnleggende metoder for vinkel- og dybde estimering har det maritime situasjonsbevissthet systemet vist en høy grad av nøyaktighet for å representere sine dynamiske omgivelser. Situasjonsbevissthetsystemet hadde en treffsikkerhet på 63% med en feilmargin på 6 meter for detekterte objekter for hele sporet. Derimot, sliter systemet ved komplekse situasjoner som tildekkete og delvis syn- lige fartøy. Lenkene til sporingsvideoene og situasjonsbevissthetssystemets pre- diksjoner kan bli funnet i vedleggs seksjonen.
dc.description.abstractThere has been extensive research on how to recognize different objects in images, but fewer research articles explain how to utilize the information from these detec- tions. For autonomous vessels to be safe and efficient, it is crucial that the data they receive accurately represent their surroundings. By employing a system capable of extracting information about the position of boats or obstacles in the surrounding environment, the situational awareness of the autonomous vessel is enhanced. In order to achieve first-degree situational awareness in the autonomous vessel, several aspects must be implemented, including object detection, tracking, and localization. The project began by visualizing simulated data used to experiment and eval- uate various methods. The visualization was created in Blender and aimed to rep- licate a busy harbour with boats. In the architecture of the system, established methods for object detection and tracking were combined with fundamental meth- ods for estimating depth, bearing, and, subsequently, position. A YOLOv8 model was trained to detect boats in the video sequences generated in Blender. During the model’s training, datasets were also created on which the model was trained. Furthermore, the tracking algorithm ByteTrack was used to track and identify the various detections over time. After the boats were detected, the detections were utilized to estimate the angle, depth, and, ultimately, the position of the respective boats. These estimates were made based on the detection from a stereo camera setup generated in Blender. In order to enhance the interpretability of the results of the situational awareness system, the outcomes were visualized from a bird’s- eye view with the system at the centre. These visualizations were generated to analyze the end-to-end system and generate videos qualitatively. By utilizing state-of-the-art methods in object detection and tracking, as well as fundamental techniques for bearing and depth estimation, the maritime situ- ational awareness system has demonstrated a high level of accuracy in represent- ing its dynamic surroundings. The situational awareness system achieved a preci- sion rate of 63% with an error margin of 6 meters for detected objects throughout the track. However, the system struggles with complex situations, such as occluded and partially visible ships. The links to the tracking videos and the situation aware- ness system’s predictions can be found in the appendix. i
dc.languageeng
dc.publisherNTNU
dc.titleAn Approach to First-Level Situation Awareness for Autonomous Surface Vehicles
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel