Vis enkel innførsel

dc.contributor.advisorAlexis, Kostas
dc.contributor.authorFijalkowski, Jan Aleksander
dc.date.accessioned2021-09-23T19:04:16Z
dc.date.available2021-09-23T19:04:16Z
dc.date.issued2021
dc.identifierno.ntnu:inspera:76427839:45156640
dc.identifier.urihttps://hdl.handle.net/11250/2781096
dc.description.abstractDenne oppgaven tar for seg utviklingen og evalueringen av en navigasjons- og kollisjonsunngåelseskontroller for et autonomt multirotorfartøy. For å løse dette ble det brukt et rammeverk som utnytter dyp forsterkende læring. Det autonome fartøyet hadde til hensikt å navigere kollisjonsfritt til et bestemt mål gjennom trange og lukkede miljøer. Dette ble gjort uten å ha noe kjennskap til miljøet fra før eller å aktivt konstruere et 3D-kart. En ende-til-ende læringsalgoritme ble brukt for å transformere rådata fra sensorer til kommandoer brukt til å styre det flyvende fartøyet. Den utviklede metoden gjør dette ved å hente ut viktig data fra en 3D LiDAR og odometrisensor, og bruker dette til å trene en kontroller. Denne kontrolleren blir trent i et spesifikt miljø og overfører den lærte kunnskapen til et nytt, mer komplisert miljø. De forskjellige miljøene ble konstruert i simulatoren Gazebo. For å validere den utviklede metoden ble fartøyet testet i forskjellige miljøer som flyvende roboten ikke hadde blitt eksponert for tidligere. Hensikten med dette var å teste alle aspekter ved den utviklede metoden. Kontrolleren om bord på fartøyet ble også testet i en sjakt, og ble guidet ved hjelp av en algoritmisk baneplanleggerekspert. Metoden var i stand til å løse alle de forskjellige scenarioene den ble eksponert for, og navigerte raskt og effektivt til sitt endemål.
dc.description.abstractThe thesis aims to develop and evaluate a navigation controller for quadcopters using deep reinforcement learning frameworks. The quadcopter is deployed in confined environments and should navigate collision-free to a goal region without any prior information or any online construction of a map. For this an end-to-end learning algorithm was used that transforms raw sensory data directly into actuation commands for a flying robot. It does so by extracting relevant data from a 3D LiDAR and odometry sensor and trains the robot using a curriculum-based transfer learning strategy. To train the specific quadcopter, several different environments were created with diversified complexity in Gazebo simulator. After the training stage, the robot was deployed to several different unseen, simulated environments to evaluate the controller. In addition, the proposed method was evaluated and tested in a underground mine structure with an expert planner. The controller was able to generalize to unseen situations and navigate fast through all of the environments.
dc.languageeng
dc.publisherNTNU
dc.titleLiDAR-based Resilient Collision-free Navigation for Aerial Robots in Closed Environments
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel