Show simple item record

dc.contributor.advisorMester, Rudolf
dc.contributor.authorAaslund, Bjørn André
dc.date.accessioned2022-11-08T18:19:29Z
dc.date.available2022-11-08T18:19:29Z
dc.date.issued2022
dc.identifierno.ntnu:inspera:112046434:33620575
dc.identifier.urihttps://hdl.handle.net/11250/3030758
dc.description.abstractAutonome kjøretøy har gjort betydelig fremgang og fått mye oppmerksomhet de siste årene. Denne avhandlingen undersøker en ny tilnærming til simulert autonom kjøring med fokus på sikkerhet. Det er for tiden to forskjellige grupper av tilnærminger til autonome kjøretøy; ende-til-ende tilnærminger og strukturerte tilnærminger. En strukturert tilnærming er valgt i denne avhandlingen fordi hver modul kan testes og sertifiseres. Dette er avgjørende for systemets sikkerhet og vesentlige aspekter for de største interessentene. Simuleringsmiljøet CARLA er valgt som simuleringsmiljø for dette systemet. CARLA tilbyr et bredt utvalg av sensorer. Semantiske kamera er en av disse sensorene, og det blir bruket til å lage en fugleperspektivsensor som brukes i denne avhandlingen. CARLA opererer med mange semantiske klasser som ikke er relevante for kjøring. Derfor er de semantiske klassene inndelt i fire nye semantiske klasser: vei, objekt i bevegelse, ikke kjørbart objekt og uinteressant. Det modifiserte fugleperspektivet brukes til å lage et kompakt, men tilstrekkelig representasjon av miljøet. Sentrum av ego-kjøretøyet i den modifiserte fugleperspektivsensoren sender ut simulerte stråler for likt fordelte vinkler rundt kjøretøyets senter, som slutter når de treffer et objekt i bevegelse eller et objekt som ikke kan kjøres. Disse simulerte strålene brukes til å beregne avstander mellom den ytre overflaten av kjøretøyet og andre bevegelige objekter og ikke kjørbare objekter. Denne representasjonen av mellommiljøet utvides ytterligere ved å legge til den semantiske klassen og den relative hastigheten til treffpunktene. Denne representasjonen av mellommiljøet inneholder ikke informasjon om kjøretøyets midlertidige målposisjon. For å inkludere denne informasjonen, inkluderes et potensialfelt som inneholder informasjon om den midlertidige målposisjonen til egokjøretøyet. Potensialfeltet skapes også fra det modifiserte fugleperspektivet. Planlegging krever muligheten til å forutsi hvordan det autonome kjøretøyet vil bevege seg gitt noe informasjon om miljøet rundt kjøretøyet. Ikke-holonomiske begrensninger (eng: nonholonomic constraints) begrenser bevegelsen til kjøretøy, og derfor er det avgjørende å designe en bevegelsesmodell som forutsier mulige veier som tilfredsstiller disse begrensningene. Utformingen av bevegelsesmodellen gjøres ved først å utføre systemidentifikasjon av drivverket og styreinngangen til den omvendte radiusen til den sirkulære banen som kjøretøyet følger. Den komplette bevegelsesmodellen gjør det mulig å lage gjennomførbare planer basert på kontrollhandlingssekvenser (eng: control action sequences). Kontrollhandlingssekvensen er et tidssegment av styrings- og gasssignaler over en begrenset tid. Disse kontrollhandlingssekvensene kan beskrives kompakt med et lite antall parametere, i denne avhandlingen blir dette kalt lokale planparametre (eng: local plan parameters) i denne avhandlingen. I prinsippet kan slike lokale planparametre velges tilfeldig, testes for gjennomførbarhet (kollisjoner må unngås), og rangeres i forhold til egnede kvalitetstrekk. Det nåværende arbeidet trener en agent til å generere egnede lokale planparametre basert på miljøbeskrivelsen. Til dette formålet bruker systemet imitasjonslæring (eng: imitasjon learning) og forsterkende læring (reinforcement learning). Den beste kortsiktige planen utføres ved å bruke lateral og langsgående kontroll eller ved å bare utføre den underliggende kontrollhandlingssekvensen. Den valgte kortsiktige planen utføres i en kort periode før det autonome kjøretøyet oppretter en ny kortsiktig plan. Dette resulterer i et autonomt kjøretøy som trygt kan kjøre gjennom en testrute med forskjellige hindringer. Det er enkelt å teste og sertifisere hver komponent i hele systemet. Resultatene viser også at det autonome kjøretøyet kjører på stier som ligner clothoider (eng: clothoids) i kurvene.
dc.description.abstractAutonomous vehicles have made significant progress and gained much attention in the last years. This thesis studies a new approach for simulated autonomous driving with a focus on safety. There are currently two different families of approaches to autonomous vehicles; end-to-end approaches and structured approaches. A structured approach is selected for this thesis because each module can be tested and certified. These are crucial for the system’s safety and essential aspects for the prominent stakeholders. The simulation environment CARLA is selected as the simulation environment for this system. CARLA offers a wide variety of sensors. A semantic camera is one of these sensors, and it is used to create a bird´s eye view sensor that is used in this thesis. CARLA operates with many semantic classes that are not relevant for driving. Therefore, the semantic classes are mapped into four new semantic classes: road, moving object, not driveable object, and don’t care. This modified bird´s eye view is used to create a compact but sufficient intermediate representation of the environment. The center of the ego vehicle in the modified bird’s eye view sensor sends out simulated rays for equally distributed angles around the vehicle’s center, which end when they hit a moving object or a not driveable object. These simulated rays are used to calculate distances between the outer surface of the vehicle and other moving objects and not driveable objects. This intermediate environment representation is further extended by adding the semantic class and the relative velocity of the hit points. This intermediate environment representation does not contain information about the temporary goal pose of the vehicle. To include this information, a potential field containing information about the temporary goal pose of the ego vehicle is included. The potential field is also created from the modified bird´s eye view. Planning requires the possibility of predicting how the autonomous vehicle will move for some control action signals. Nonholonomic constraints restrict the motion of vehicles, and therefore it is crucial to design a motion model that predicts feasible short-term plans that satisfies these restrictions. The design of the physical vehicle motion model is done by first performing system identification of the drive train and the steering input to the inverse radius of the circular path that the vehicle is following. The complete physical vehicle motion model makes it possible to create feasible shortterm plans based on control action sequences. The control action sequence is a time segment of the steering and throttle signals over a limited time. These control action sequences can be compactly described by a small number of parameters, called local plan parameters in this thesis. In principle, such local plan parameters can be randomly chosen, tested for feasibility (collisions need to be avoided), and ranked in terms of suitable quality measures. However, the present work aims to train an agent to generate a small set of suitable local plan parameters based on the environment description. For this purpose, the system uses imitation learning and reinforcement learning. The best short-term plan is executed by applying lateral and longitudinal control or to simply execute the underlying control action sequence. The selected short-term plan is executed for a short time period before the autonomous vehicle creates a new short-term plan. This results in an autonomous vehicle that is able to safely drive through a testing route with different obstacles. It is easy to test and certify each component of the complete system. The results also show that the autonomous vehicle drives on paths similar to clothoids in the curves.
dc.languageeng
dc.publisherNTNU
dc.titleA Structured Approach to Autonomous Driving in Simulated Environments
dc.typeMaster thesis


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record