Autonomous Navigation, Mapping, and Exploration for Underwater Robots
Abstract
Denne masteroppgaven legger frem, og implementerer, en arkitektur for et autonomt system som er i stand til kontektsbasert resonnering under inspeksjonsoppdrag utført med ubemannede undervannsfartøy. For å forenkle design- og implementasjonsprosessen har arkitekturen blitt delt inn i fem undermoduler: maskinvare, simultan lokalisering og kartlegging (SLAM), klassifisering, planlegging og kontroll. Utvikling av disse modulene undergikk fire hovedfaser: ytelsesspesifikasjon, design, implementasjon og testing. Som følge av dette har hver av undermodulene blitt verifisert, både individuelt og kombinert med hverandre, for å luke ut software bugs og svakheter som kunne forringe totalsystemets ytelse.
En tilpasset stereovisuell-treghetssensor ble konstruert slik at presis undervannstesting av toppmoderne visuelle SLAM-metoder (VSLAM) kunne gjennomføres. Ved å kombinere en moderne VSLAM-metode og en avansert objektgjenkjenningsalgoritme, ble semantiske kart generert for å gi økt kontekstbevissthet i uutforskede omgivelser. Gjennom bruk av en informert, asymptotisk optimal samplingbasert metode, produserer planleggingsmodulen gjennomførbare, kollisjonsfrie baner som er i overensstemmelse med C2-kontinuitetsrestriksjonene pålagt av kontrollsystemet. Ved å kombinere planleggingsmodulen med en informasjonsdrevet randbasert utforskningsmetode, ble et system for autonom utforskelse av ukjente omgivelser implementert. Kontrollmodulen bestod av et uniformt globalt asymptotisk stabilt kaskadebasert styringssystem som oppnådde full konvergens på 3D-kurver forsynt fra planleggingsmodulen.
For å løse det spesifikke problemet med autonom rørinspeksjon med en svømmende undervannsmanipulator ble klassifisering og planleggingsmodulene designet for å kombinert kunne planlegge ruter basert på semantisk informasjon om omgivelsene som, sammen med utforskningsmodulen, kunne håndtere situasjoner hvor sporet av røret gikk tapt under operasjonen. This thesis proposes a system architecture for an autonomous system capable of context-based reasoning when performing autonomous mapping and inspection tasks with unmanned underwater vehicles. To simplify design and implementation, the system architecture was divided into five submodules: hardware, simultaneous localization and mapping (SLAM), classification, path planning, and control. Development of these modules went through four main phases: performance specification, design, implementation, and testing. Consequently, each submodule was verified, both individually and in pairs, to weed out bugs and weaknesses that could impair the performance of the complete system.
A custom stereo-visual-inertial sensor was constructed to allow for precise testing of state-of-the-art visual SLAM (VSLAM) methods underwater. Through the integration of a VSLAM method and an advanced object detection algorithm, semantic maps were generated for increased context-awareness in unknown environments. Using an informed, asymptotically optimal sampling-based approach, the planning module produced feasible, collision-free paths consistent with the C2 continuity constraint imposed by the control system. By combining the planning module with an information-driven frontier exploration strategy, an autonomous exploration method was implemented. The control module consisted of a uniform global asymptotically stable cascaded guidance and kinematic control algorithm, which achieved full body convergence on the 3D curves provided by the planning module.
To solve the specific case of autonomous pipe inspection with an underwater swimming manipulator, the classification and planning modules were designed to plan routes based on semantic environment information, which, combined with the exploration module, could handle cases where the pipe was lost.