SLAM-based Global Positioning and Sensor Fusion for Uncrewed Surface Vessels
Description
Full text not available
Abstract
I takt med at utviklingen av autonome systemer går raskere enn noensinne, øker samtidig behovet for situasjonsbevvisthet for å sikre robust og sikker bruk av fartøyene våre. Den maritime industrien er intet unntak. På tross av at maritime fartøy har nytt godt av autopiloter under kryssing av åpent hav (Fossen et al., 2003), så vil et helt nytt sett med utfordringer tre i kraft når man ser på autonome operasjoner i trange og dynamiske havneområder. Nylige studier peker også på økende sikkerhetstrusler som en sterk bidragsyter til økt risiko ved autonom kontroll i operasjoner der man har gjort seg avhengig av konvensjonell satellitt-basert posisjonering (GNSS) (Androjna et al., 2020, Solnør et al., 2022, Volden et al., 2023).
Denne masteroppgaen presenterer en ny metode for GNSS-uavhengig posisjonering av ubemannede overflatefartøy (USV) i kjente havneområder. Metoden har som mål å øke robusthet redundans i tilfeller der satellitt-basert posisjonering feiler. Det nye posisjonsestimatet føyes sammen med posisjonering fra markørdeteksjon med datasyn i en sensorfusjon for å oppnå multimodal posisjonering fra tre ulike sensorer.
Ved å utnytte 3D-punktskyer fra en laserscanner (LiDAR) sammen med simultan kartlegging og posisjonering (SLAM) oppnår vi presis kartlegging av det omkringliggende miljøet. Metoden som er utviklet benytter kjent informasjon om miljøet til å estimere fartøyets posisjon gjennom punktsky-kart-tilpasning (PCMF). Først benyttes et sett med prosesserings-steg for å detektere hjørner i SLAM-punktskyen. Disse blir så brukt i en algoritme kalt anker-pivotering for å finne en initiell pasning av det kjente kartet med den begrensede kartleggingen fra SLAM. I neste steg finjusteres pasningen med en iterativ registrerings-algoritme (G-ICP). De resulterende posisjons-estimatene filtreres så gjennom et avansert Kalman Filter for å fjerne avvikende verdier.
I tillegg til PCMF benytter vi datasyn sammen med fysiske markører som en tilleggskilde til posisjon. Disse estimatene blir føyd sammen med PCMF posisjoner og konvensjonell GNSS med sensorfusjon for å demonstrere redundans og robusthet ved multimodal posisjonering.
Fysisk testing er gjennomført i havneområdene i Trondheim, for å demonstrere systemets funksjon ute i virkelige scenarioer. Flere lokasjoner, samt ulike vær- og tidevannsforhold har gitt oss verdifull innsikt i systemets funksjon under ulike forhold. Sensorfusjonen har blitt stress-testet med syntetiske angrep på GNSS-signalene for å bekrefte funksjon i "edge-case" scenarioer. De endelige algoritmene og resultatene i oppgaven er oppsummert i en vitenskapelig artikkel, sendt inn til Journal of Field Robotics i begynnelsen av juni 2024. As the field of autonomy progresses faster than ever, enhanced situational awareness is crucial to ensure robust and safe operation for our vehicles. The maritime industry is no exception. Although maritime operations have relied on autopilot systems for open sea transit for many years (Fossen et al., 2003), new challenges arise when expanding the ambition of autonomy to close-quarter navigation in unstructured and dynamic environments like harbors. Recent studies emphasize the need for robust positioning methods in such environments. The increase in recent cyber-threats poses additional risk to the continued operation and development using conventional positioning systems like Global Navigation Satellite Systems (GNSS) (Androjna et al., 2020, Solnør et al., 2022, Volden et al., 2023).
This master’s thesis presents a novel method for GNSS-independent positioning of Uncrewed Surface Vessels (USV) within areas of prior knowledge, aiming to enhance positioning redundancy and reduce vulnerability to GNSS failure. This novel method is combined with computer vision pose triangulation and GNSS to obtain multimodal sensor fusion for position estimation from three independent sensors.
By utilizing 3D point cloud measurements from a Light Detection and Ranging (LiDAR) sensor with Simultaneous Localization and Mapping (SLAM), we can achieve accurate mapping of the environment. The proposed pipeline utilizes prior knowledge of the harbor environment to estimate the vessel position through Point Cloud Map Fitting (PCMF). A set of processing steps is performed to extract corner features in the SLAM point cloud before applying a rotational alignment process called Anchor Pivoting. This process determines the initial alignment of the large prior map and the limited SLAM point cloud. Further, the Generalized Iterative Closest Point registration algorithm is used to find the best possible alignment for the prior map point cloud and the processed SLAM point cloud. The final position estimates are filtered using an Unscented Kalman Filter for efficient outlier mitigation.
In addition to the PCMF positioning method, computer vision is applied for fiducial marker detection and pose triangulation, producing a second positioning estimate independent of conventional GNSS. These two positioning methods are merged with GNSS positioning in a sensor fusion algorithm to demonstrate the redundancy and robustness of multimodal position estimation.
Field tests have been conducted in the harbor areas of Trondheim, Norway, to demonstrate the feasibility of the algorithms and the overall system. Field testing in multiple locations with variations in precipitation, wind, tide, and surrounding vessels demonstrates the functionality of the system in real-life scenarios. The sensor fusion module has been stress-tested with synthetic GNSS jamming to confirm the performance of the multimodal system in edge-case scenarios. The outcome of the research, development, and testing has culminated in a scientific paper, submitted to the Journal of Field Robotics in early June 2024.