Vis enkel innførsel

dc.contributor.advisorPettersen, Kristin Ytterstad
dc.contributor.advisorHaavardsholm, Trym Vegard
dc.contributor.authorBjerkås, Fredrik
dc.date.accessioned2019-10-31T15:02:28Z
dc.date.issued2019
dc.identifierno.ntnu:inspera:35771502:20946651
dc.identifier.urihttp://hdl.handle.net/11250/2625675
dc.description.abstractForsvarets forskningsinstitutt (FFI) utvikler for tiden et ubemannet bakkekjøretøy, kalt Olav, som skal fungere som en del av fremtidens baseforsvar . Olav skal være i stand til å utføre oppklaringsoppdrag autonomt, som krever at den må kunne estimere sin posisjon pålitelig og nøyaktig relativt til en global referanseramme. I denne oppgaven presenteres et navigasjonssystem basert på visuell samtidig lokalisering og kartlegging (V-SLAM) som kan benytte GNSS målinger. Dette kombinerer de lokalt nøyaktige estimatene fra V-SLAM med den globalt nøyaktige GNSS sensoren, som setter vertsplatformen i stand til å presist rapportere sin globale posisjon. Systemet ble tested på datasett produsert av Olav, men på grunn av problemer med kamerakalibreringen ble hoveddelen av testingen utført på det offentlig tilgjengelige KITTI datasettet. Testresultatene viser at kameraodometrimodulen produserer bedre estimater enn LIBVISO2 algoritmen på majoriteten av de testede datasettene, samtidig som den oppnår en høyere bilderate. Testresultatene viser også at systemet er i stand til å fortsette å operere i tilfeller der kameraodometrien feiler, og er robust mot falske løkkedeteksjoner og GNSS målinger som er påvirket av flerveisinterferens.
dc.description.abstractThe Norwegian Defence Research Establishment (FFI) is currently developing an Unmanned Ground Vehicle (UGV) named Olav which will operate as part of the next generation military base defence system as an effort to improve reliability and minimize risk to human personnel. Olav should be capable of performing Intelligence, Surveillance and Reconnaissance (ISR) missions autonomously, which implies the need for it to be able to estimate its position reliably and accurately relative to a global reference frame. In this project, a real-time capable stereo Visual-Simultaneous Localization and Mapping (V-SLAM) system which incorporates Global Navigation Satellite System (GNSS) measurements was developed. It combines locally accurate estimates from V-SLAM with the globally accurate GNSS sensor, enabling the host platform to report precise trajectory estimates relative to a global reference frame. The developed system was tested on datasets recorded from Olav, but because of issues with the camera calibration, the main portion of the testing was performed on the publicly available KITTI dataset. Testing showed that the Visual Odometry (VO) module outperforms the popular stereo VO system LIBVISO2 on most tested datasets, while achieving a much higher frame-rate. Testing also showed that the system is able to recover from tracking failures without discarding information from previously explored areas, and is robust to false positive loop closure detections and GNSS measurements corrupted by multipath artifacts.
dc.languageeng
dc.publisherNTNU
dc.titleRobust GNSS-Aided V-SLAM for an Unmanned Ground Vehicle
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel