Vis enkel innførsel

dc.contributor.advisorAlexis, Konstantinos
dc.contributor.authorFyhn, Sondre Holm
dc.date.accessioned2021-11-09T18:20:56Z
dc.date.available2021-11-09T18:20:56Z
dc.date.issued2021
dc.identifierno.ntnu:inspera:76427839:45151941
dc.identifier.urihttps://hdl.handle.net/11250/2828766
dc.description.abstractTrygg og pålitelig navigasjon med ubemannede luftfartøy har de siste årene fått økt oppmerksomhet, mye grunnet en betydelig prisreduksjon av ombord-sensorer, aktuatorer og innvevde datamaskiner kraftige nok til å kjøre toppmoderne teknologi. Motstandsdyktig autonomi for flyvende roboter avhenger av robotens kapasitet til å planlegge handlinger som effektivt optimaliserer robotens oppdragsmålsettinger samtidig som den forsikrer egen sikkerhet. Dagens toppmoderne metoder for autonom utforskning av omgivelsene bruker høydimensjonalitetsensorer til å gjennomføre kollisjonsfrie baner eller bevegelsesplanlegging ved å søke gjennom et kontinuerlig oppdatert rekonstruert kart av omgivelsene, noe som a) er beregningsmessig krevende og b) er økende vanskelig i dynamiske miljøer. Motivasjonen bak denne masteroppgaven er å konstruere en metode som direkte bruker ubehandlede sensormålinger til å kontrollere dronens handlinger uten å måtte rekonstruere et kart i sanntid. Mer spesifikt, fra et enkelt dybdebilde, vil planleggeren som er presentert i denne masteroppgaven gi en bane basert på en foroverhastighetskommando og en girvinkelkommando, og dermed erstatte behovet for en kartleggingsmodul og en posisjonskontroller. Dessuten, siden planleggeren er realisert ved et nevralt nettverk, kan den utnytte den parallelle beregningsevnen til en GPU for å redusere planleggingstiden. Dette muliggjør raskere omplanlegging i tilfeller med dynamiske objekter eller i svært tette omgivelser. Følgelig foreslår denne masteroppgaven et rammeverk for et dypt kollisjonspredikasjonsnettverk som kan bli brukt for lokal bevegelsesplanlegging av flyvende roboter. Prediksjonsmodellen, $P(o_t, a_{t:t+H})$, gir kollisjonssannsynligheten over en $H$-lang handlingshorisont, $a_{t:t+H}$, og et dybdebilde, $o_t$. Lokal bevegelsesplanleggelse blir gjort ved å evaluere et sett med bevegelsesprimitiver som er delt i $H$ antall deler, hvor modellen avgjør den beste banen basert på hvilken bevegelsesprimitiv som har den laveste gjennomsnittlige sannsynlighet til å krasje med omgivelsene. Dyp læring-baserte metoder kan kunne kreve hundretusener dataprøver for trening. Simulering er et kraftig verktøy som hurtig kan generere store mengder data til en lav kostnad, og som muliggjør bruken av dype nevrale nettverk for motstandsdyktig autonomi av flyvende roboter. Rammeverket presentert i denne masteroppgaven er tredelt og består av: (i) en metode for generere selv-markerende data i simulerte omgivelser, (ii) dannelsen og treningen av et kollisjonprediksjonsnettverk og (iii) en lokal planlegger som bruker modellen til å navigere i tette omgivelser mens den er utelukkende motivert av egen sikkerhet. Modellen er testet med perfekt simulerte dybdebilder, støyete dybdebilder, filtrerte dybdebilder, og til slutt med filtrerte dybdebilder fra virkeligheten. Modellen er også studert i forskjellige typer miljøer, med økende vanskelighetsgrad, ukjente hindringer og i ukjente omgivelser. Resultatene er lovende og presenterer det dype kollisjonspredikasjonsnettverket som en ny metode til å gjennomføre bevegelseplanlegging for flyvende roboter.
dc.description.abstractSafe and reliable navigation of unmanned aerial vehicles (UAVs) has received increasing attention over recent years, largely due to a significant price-drop of onboard sensors, actuators and embedded computers powerful enough to run state-of-the-art technologies. Resilient aerial robotic autonomy depends on the robot’s capacity to plan actions that efficiently optimize the robot’s mission objectives while ensuring the safety of the robot. Current state-of-the-art methods for autonomous exploration use high-dimensionality sensors to perform collision-free path or motion planning by querying an online reconstructed map of the environment which a) is computationally intensive and b) is increasingly more challenging in dynamic settings. The motivation behind this thesis is to construct a method that directly uses raw sensor data to control the drone’s action without needing to reconstruct a map in real-time. Specifically, from a depth image, the planner presented in this thesis outputs directly from a forward velocity and a yaw angle command, replacing the need for a mapping module and a position controller. Moreover, since the planner is realized by a neural network, it can utilize the parallel computing capability of the GPU to speed up the planning time, allowing fast replanning when dealing with dynamic obstacles or severely cluttered environments. As such, this thesis proposes a framework for a deep collision prediction model that can be used for local motion planning of aerial robots. The prediction model, $P(o_t, a_{t:t+H})$, provides the collision probability over an $H$-long action horizon, $a_{t:t+H}$, and a depth image, $o_t$. Local motion planning is done by evaluating a set of $H$-step motion primitives, where the model determines the best trajectory based on which motion primitive that has the lowest average probability of colliding with the environment. Deep learning-based methods may require hundreds of thousands of data samples for training. Simulation engines are a powerful tool that quickly generates vast amounts of data at a low cost, enabling the utilization of deep neural networks for resilient aerial robotic autonomy. The framework presented in this thesis is divided into three components: (i) a self-labeling data generation method in a simulated environment, (ii) the creation and the training of the collision prediction network and (iii) a local planner which uses the model to navigate in cluttered environments while being exclusively motivated by intrinsic objectives. The model is tested with perfectly simulated depth images, noisy depth images and filtered depth images, as well as with real-life filtered depth images. The model is also studied in different types of environments, including different levels of difficulty, with unfamiliar obstacles and with unfamiliar environments. The results from the study are encouraging and present the deep collision prediction network as a novel method of performing motion planning for aerial robots.
dc.languageeng
dc.publisherNTNU
dc.titleLearning-Based Navigation in Cluttered Environments Using A Deep Collision Prediction Network
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel