Vis enkel innførsel

dc.contributor.advisorThor I.Fossen
dc.contributor.advisorMarco Leonardi
dc.contributor.authorØystein Volden
dc.date.accessioned2020-06-04T16:02:38Z
dc.date.available2020-06-04T16:02:38Z
dc.date.issued2020
dc.identifier.urihttps://hdl.handle.net/11250/2656720
dc.description.abstractFokuset på autonomi i den maritime industrien har økt betraktelig de siste årene. Autonome fartøy har potensiale til å redusere kostnader og øke sikkerheten betraktelig. Men det er flere utfodringer som må løses før helt autonome skip kan brukes i det kommersielle markedet. En av dem er autonom dokking. Denne masteroppgaven er en studie om hvordan et lavkost stereo kamerasystem kan bli brukt som et redundant posisjonsystem i dokkingoperasjoner. Det vil si, når GPS signaler ikke er tilgjengelige eller redundante posisjonsestimat er ønskelig, kan autonome fartøy skaffe navigasjonsinformasjon med kameraer montert på fartøyet. Et kamerabasert posisjonssystem bestående av en objektdetektor oppfulgt av forskjellige 3D rekonstruksjonsteknikker er foreslått. Mitt hovedbidrag er å utvide og videreutvikle et 3D lokaliseringssystem basert på relevante objektdeteksjonsrammeverk, samt designe en kamerarigg fra bunnen av. For å oppnå lav forsinkelse i systemet med nøyaktige og hyppige lokaliseringsestimat fra et kamerasystem, er en rask og presis deteksjonsmodell nødvendig. Videre, for å takle utfodringen med robuste deteksjoner under utendørsforhold, er en læringsbasert objektdeteksjonsmodell foreslått siden den kan takle variasjon i omgivelsene påvirket av miljøendringer, så lenge slike eksempler er bredt representert i datasettet. Nøkkelideen er å utnytte datadrevne metoder i utendørsmiljø hvor klassiske datasyn-metoder kanskje feiler. Altså, det endelige fungerende systemet tar i bruk datadrevne dyp læringsmetoder hvor det er nødvendig, og samtidig anvender tradisjonelle datasyn-metoder hvor omfanget og kompleksiteten av oppgaven er redusert. Både monokulært og stereokamera vil bli utforsket for sammenligning. For å forenkle oppgaven med å lokalisere kameraet relativt til sine omgivelser, er enkelt identifiserbare markører (med antatt kjente globale koordinater) brukt til å finne referansepunkt. En liten USV med lidarsignal tilgjengelig er brukt for å verifisere at det kamerabaserte posisjonssystemet produserer nøyaktige lokaliseringsestimat under ulike dokkingoperasjoner. Eksperimenter beviser at det utviklede systemet fungerer bra og kan supplementere det tradisjonelle navigasjonssystemet for sikkerhetskritiske dokkingoperasjoner.
dc.description.abstractThe focus on autonomy in the maritime industry has increased significantly the recent years. Autonomous vessels have the potential to reduce costs and improve safety significantly. However, there are several challenges to face before fully autonomous ships may enter the commercial market. One of them is autonomous docking. This master thesis is a study of how a low-cost stereo vision system can be used as a redundant positioning system in docking operations. That is, when GPS signals are not available or redundant position estimates are desirable, autonomous vehicles can obtain navigation information with cameras mounted on the vehicle. A vision-based positioning system consisting of an object detector followed by different 3D reconstruction techniques are proposed. My main contribution is to extend and further develop a 3D localization pipeline based on relevant object detection frameworks, as well as designing a stereo camera rig from scratch. To achieve a low-latency pipeline with accurate and frequently localization estimates from a camera system, it is necessary to have a fast and precise detection model available. Furthermore, to face the challenge of robust detections concerning outdoor conditions, a learning-based object detection model is proposed since it can handle variations in the scene affected by environmental changes as long as such examples are widely represented in the dataset. The key idea is to utilize data-driven methods in outdoor environments where classical computer vision techniques may fail. That is, the final working system employs a complementary part-based approach that uses a combination of data-driven deep learning methods, utilizing data wherever required, and at the same time use traditional computer vision techniques when the scope and complexity of the task is reduced. Both monocular and stereo vision techniques will be investigated for comparison. To simplify the task of locating the camera relative to its surroundings, easily identifiable markers (with assumed known geocentric coordinates) are used to obtain reference points. A small USV with lidar signals available is used to verify that the vision-based positioning system produces accurate localization estimates under various docking scenarios. Experiments prove that the developed system works well and can supplement the traditional navigation system for safety-critical docking operations.
dc.languageeng
dc.publisherNTNU
dc.titleKamerabasert Posisjonssystem for Autonom Dokking av Ubemannede Overflatefartøy
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail
Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel