3D-LiDAR Localization and SLAM on a Multirotor UAV for Inspection
Description
Full text not available
Abstract
Selv om LiDAR-teknologi har vært brukt i stor grad innen forskning i robotikk, har 3D-LiDARer i stor grad vært for tunge og kostbare for å kunne brukes på mobile og lette roboter. Men nye utviklinger innen LiDAR-teknologi har gjort de brukbare for flere applikasjoner innen robotikk.
En av disse områdene er innendørs inspeksjon av industrielle omgivelser. Det er en oppgave som generelt er kostbar og tidskrevende å gjennomføre manuelt. Det motiverer bruken av multirotor UAVer. En utfordring ved å inspisere mørke og trange innendørs omgivelser, er behovet for robust navigasjon for uten GNSS-signaler. Denne masteroppgaven undersøker mulighetene som kommer ved å bruke en 3D-LiDAR i et sånt scenario.
En av metodene for å navigere innendørs i slike områder er å lage et kart av omgivelsene og samtidig lokalisere i kartet, kjent som Simultaneous Localization and Mapping. LiDAR-sensorer genererer mye data, og mange av de eksisterende metodene for lokalisering og kartlegging krever mye datakraft. Flere teknikker for å redusere nødvendig datakraft diskuteres, med spesielt fokus på trange områder som innendørs rom og shippingtanker.
Åpent tilgjengelig software er brukt for å gjennomføre initielle SLAM-forsøk på ekte data. Videre presenteres en implementasjon for lokalisering i forhåndsbygde kart. Det tillater å redusere datakraften som trengs for å navigere når et kart generert av SLAM er ansett som tilstrekkelig.
En annen nødvendig komponent ved autonom inspeksjon er UAVens evne til å selv planlegge hvor den skal fly. Et litteraturstudie har blitt gjennomført for å undersøke mulige løsninger for å dekke et kjent kart eller utforske ukjente deler av miljøet. Ulike kartrepresentasjoner som er nyttige for planlegging blir generert.
I tillegg presenteres en metode implementert for generere målpunkter for å observere inspeksjonsområdet med et kamera. Metoder for å planlegge en rute mellom disse målpunktene blir også foreslått. En algoritme for å kontrollere UAVen til å fly langs ruter mellom slike målpunkter er implementert.
Lokaliseringen og følgingen av målpunkter er eksperimentelt validert gjennom forsøk med en UAV-plattform. Resultatene viser at UAVen med suksess klarer å følge forhåndsgenererte ruter i et kart. Resultatene indikerer at grunnleggende autonome funksjoner kan oppnås i et inspeksjonsscenario ved bruk av en UAV utstyrt med en 3D-LiDAR. Although LiDAR laser scanners have been used extensively within robotics research, 3D LiDARs have to a large extent been too heavy and costly for lightweight mobile robotics platforms. However, new developments in LiDAR technology have made them suitable for a wider range of robotic applications.
One of these areas is indoor inspection of industrial environments. This is often a costly and time-consuming task to do manually, motivating the use of a multirotor UAV. A challenge when inspecting poorly lit and confined spaces, is the need for robust navigation solutions for GNSS-denied environments. This master thesis investigates the possibilities that come from using a 3D LiDAR scanner in such a scenario.
One of the ways to perform such navigation indoors is to create a map of the environment and localize within it, referred to as SLAM. LiDAR sensors generate a lot of data, and many existing algorithms for localization and mapping are computational heavy. Several techniques for lowering the computational cost of localization and mapping algorithms are discussed, in this case specialized for small confined spaces like indoor rooms and shipping tanks.
Available software is used to perform initial \gls{slam} calculations on real-world datasets. Further, an approach for localizing within pre-built maps is implemented. This allows for reducing the computational cost of navigation when the map generated by a SLAM approach is considered to be sufficient.
Another necessary component of autonomous inspection is the ability for the UAV itself to plan where it is going to fly. A literature review is carried out, considering possible solutions for covering a known map or exploring unknown parts of the environment. Different map representations useful for planning are generated.
Moreover, a method for viewpoint selection for covering the inspection environment with a camera is implemented. Methods for generating the path between the viewpoints is suggested. An approach for waypoint guidance and control is implemented to follow such paths between waypoints.
The localization and waypoint guidance and control are experimentally validated on a UAV platform. The results show that the UAV successfully follows pre-generated paths within a map, indicating that initial autonomous capabilities can be achieved in an inspection scenario using a UAV equipped with a 3D LiDAR.