Vis enkel innførsel

dc.contributor.advisorAlexis, Konstantinos
dc.contributor.advisorNguyen, Dinh Huan
dc.contributor.authorDyre-Moe, Magnus
dc.date.accessioned2022-10-12T17:20:33Z
dc.date.available2022-10-12T17:20:33Z
dc.date.issued2022
dc.identifierno.ntnu:inspera:102231297:37324298
dc.identifier.urihttps://hdl.handle.net/11250/3025730
dc.description.abstractLæringsbaserte tilnærminger i UAV-er har fått økt oppmerksomhet de siste årene. Motivasjonen for den økende populariteten stammer fra tradisjonelle metoder, som SLAM, hvor dataassosiasjon er et aktivt og utfordrende forskningstema. Mer effektive og lettere sensorer, mer innebygd beregningskraft og bedre algoritmer har gjort det mulig for UAV-er å kjøre stadig mer komplekse modeller i sanntid. Disse fremskrittene, tilrettelagt av et voksende fellesskap med åpen kildekode og komplekse simuleringsverktøy, har muliggjort raskere utvikling av komplekse modeller samtidig som de er kostnadseffektive og uten behov for menneskelig tilsyn. Selv om det er effektivt med tanke på tid og penger, har utvikling av modeller i simulering en ulempe, da simuleringer ikke er en perfekt kopi av den virkelige verden. En ulempe med å utvikle modeller i simulering er at dybdebilder er mer utsatt for støy og manglende data i den virkelige verden, mens dybden i simulering er nærmere perfekt. Ulike metoder brukes for å sikre akseptabel overføring mellom simulering og den virkelige verden i det som er kjent som simulering-til-virkelighet overføring. Denne masteroppgaven utforsker bruken av et dypt nevralt network til å predikere kollisjon, trent gjennom veiledet læring, for å forutsi kollisjonssannsynligheter for ulike sekvenser av handlinger, hentet fra et bevegelsesprimitivbibliotek for å navigere i sanntid i rotete miljøer på en sikker måte. Videre prøver vi å forbedre simulering-til-virkelighet overføring ved å bruke representasjonslæring på observert dybde, skapt gjennom stereomatching, som lignet mer på virkelige dybdebilder. Algoritmen sliter likevel med å matche områder der tekstur mangler. Videre resulterte bruk av en variasjonsautokoder for representasjonslæring i rekonstruksjoner der dybden stort sett ble bevart, men så større mangler med å beholde geometriske trekk. For mer komplekse bilder, hvor mange særtrekk var til stede, smuldret disse resultatene delvis opp ettersom de rekonstruerte bildene strevde mer mot å bevare dybden. Resultatene for kollisjonsfri navigasjon illustrerer hvordan observasjoner brukes til å evaluere sannsynligheten for kollisjoner langs forskjellige kjørbare baner, slik at roboten trygt kan krysse et relativt enkelt miljø med en suksessrate på $80\%$. For et mer komplekst miljø skjedde kollisjoner oftere, noe som resulterte i en suksessrate på $20\%$. Likevel er resultatene oppmuntrende, men de kan forbedres ytterligere for å gjøre navigasjon tryggere.
dc.description.abstractLearning-based approaches in unmanned aerial vehicles have seen increased attention over recent years. The motivation for the increasing popularity of learning-based methods stems from traditional methods, such as SLAM, where data association is an active and challenging research topic. More efficient and lighter sensors, more onboard computation power, and better algorithms have allowed UAVs to run increasingly complex models in real-time. These advancements, facilitated by a growing open source community and complex simulation tools, have allowed the more rapid development of complex models while being cost-effective and without human supervision. Though effective concerning time and money, developing models in simulation comes at a drawback as it is not yet a perfect replica of the real world. One drawback with developing models in simulation is that depth images are more prone to noise and missing data in the real world, whereas depth in simulation is close to perfect. Various methods are used to ensure acceptable transfer between simulation and the real world in what is known as sim-to-real transfer. This thesis explores the use of a deep collision predictor network, trained through supervised learning, to predict collision probabilities of action sequences drawn from a motion primitives library to navigate real-time in cluttered environments safely. Furthermore, we attempt to improve sim-to-real transfer by utilizing representation learning on observed depth, created through semi-global matching, a stereo matching algorithm. Semi-global matching provided depth images more akin to real-world depth images. Still, the algorithm struggles to match areas where the texture was lacking. Furthermore, using a variational autoencoder for representation learning resulted in reconstructions where the depth was largely preserved but lacked more towards retaining geometric features. For more complex images, where many features were present, these results partially crumbled as the reconstructed images struggled more towards preserving depth. The results for collision-free navigation illustrate how observations are utilized to evaluate the probability of collisions along different executable trajectories, allowing the robot to safely traverse a simplistic environment with a success rate of $80\%$. For a more complex environment, collisions occurred more frequently, resulting in a success rate of $20\%$. Nonetheless, the results are encouraging but could be further improved to make navigation safer.
dc.languageeng
dc.publisherNTNU
dc.titleLearning-based Collision-free Navigation for Aerial Robots
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel