Show simple item record

dc.contributor.advisorLekkas, Anastasios
dc.contributor.authorSauar, Aurora Opheim
dc.date.accessioned2023-08-11T17:19:35Z
dc.date.available2023-08-11T17:19:35Z
dc.date.issued2023
dc.identifierno.ntnu:inspera:124179917:22306562
dc.identifier.urihttps://hdl.handle.net/11250/3083654
dc.description.abstractAutonom dokking av skip har vært et forskningsområde i flere tiår, og det første automatiske dokkingssystemet ble utviklet på 1960-tallet. Fremskritt innen teknologi har ført til stadig mer sofistikerte systemer, som kan testes ved hjelp av simuleringer og feltprøver for å sikre trygghet og pålitelighet. Kunstig intelligens (KI) og dyp forsterkende læring er kraftige og viktige verktøy for å utvikle autonome dokkingssystemer som kan tilpasse seg endrede miljøforhold. Det er imidlertid essensielt at kapteinen forstår hvordan KI-systemet fungerer, spesielt i situasjoner der beslutningsprosessen kan påvirke skipets og mannskapets sikkerhet. Forklarende KI gir innsikt i beslutningsprosessen til systemet og sikrer gjennomsiktighet og forståelighet. Dermed forstår kapteinen også bedre når hen skal overstyre KI-systemets beslutning. I sammenheng med autonom dokking er forklarende KI avgjørende for å identifisere områder for forbedring. Forklarende KI har sitt opphav i maskinlæring, der algoritmer fokuserer på prediksjoner uten å gi en forklaring på sine beslutninger. Utviklingen av forklarende KI har som mål å sikre gjennomsiktighet og ansvarlighet, og gjør det til et viktig verktøy i utviklingen av autonom dokkingssystemer. Ved å bruke forklarende KI kan både forskere og kapteinen forstå hvordan systemet tar beslutninger. \newline Hovedmålet med denne oppgaven er å undersøke bruken av en proximal policy optimization-algoritme for å styre et autonomt skip med 3 frihetsgrader under dokking. I tillegg tar rapporten sikte på å forklare systemets atferd gjennom anvendelse av LIME og SHAP-verdier. Proximal policy optimization-algoritmen er en effektiv algoritme for å utforme autonome dokkingssystemer, mens LIME- og SHAP-verdiene tilbyr en mekanisme for å forklare systemets atferd. I denne studien ble to forskjellige modeller undersøkt og vurdert for ytelse, og deres atferd ble analysert ved hjelp av SHAP- og LIME-verdier. Videre ble en av modellene trent ved hjelp av ulike læringsrater. Observasjonsvektoren omfattet ni parametere, som ble brukt av belønningsfunksjonen for å gi en belønning, mens handlingvektoren omfattet fem parametere for å kontrollere de to azimut-thrustere og en tunnel-thruster på fartøyet. Ved å bruke en proximal policy optimization-algoritme og forklarende KI-teknikker som LIME og SHAP-verdier, er det mulig å utvikle svært effektive autonome styringssystemer for dokking som kan brukes i en rekke applikasjoner. Resultatene i denne oppgaven viser at proximal policy optimization-algoritmen er en effektiv algoritme for et dokking problem. I tillegg gir resultatene innsikt i atttribusjonen til hver av tilstandene for hver av kontrollhandlingene. Dette er nyttig for å utvikle autonome dokkingssystemer som er sikre, pålitelige og transparente. Det er viktig å fremheve behovet for ytterligere arbeid for å fullt ut utnytte potensialet til forklarende KI for dokkingproblemet. Selv om disse teknikkene kan gi innsikt i hvordan et autonomt dokkingssystem tar beslutninger, er det fortsatt nødvendig å undersøke hvordan denne innsikten kan overføres til praktisk bruk. Videre forskning og utvikling av forklarende KI vil være avgjørende for å utvikle autonome dokkingssystemer som er enda mer pålitelige og sikre, og som kan brukes i stadig mer krevende miljøer. For eksempel kreves det ytterligere arbeid for å forbedre robustheten til det autonome dokkingssystemet, som omfatter implementering av havstrømmer, vind og bevegelige hindringer. Videre kan det også være interessant å undersøke Counterfactuals nærmere, ettersom teknikken kan gi en mer personlig og kvalitativ forklaring på beslutninger og hjelpe brukere med å forstå hvordan man kan endre input-variabler for å oppnå ønsket output-variabel.
dc.description.abstractAutonomous docking of ships has been a focus of research for decades, with the first automatic docking system developed in the 1960s. Advances in technology have led to increasingly sophisticated systems that can be tested using simulations and field trials to ensure safety and reliability. AI and Deep Reinforcement learning have emerged as powerful tools for developing autonomous docking systems that can adapt to changing environmental conditions. However, it is crucial for the captain on a ship to understand how the AI system operates, especially in situations where its decision-making process could impact the safety of the vessel and crew. Explainable AI provides insights into the decision-making process of the system, ensuring transparency, understandability and increase the quality in the decision making process for a captain that considers to overrule the decision of an AI system. In the context of autonomous docking, Explainable AI is critical in identifying areas for improvement. Explainable AI has its roots in machine learning, where algorithms focus on accurate predictions without providing an explanation for their decisions. The Explainable AI aims to ensure transparency and accountability, making it an important tool in developing autonomous docking systems. By using Explainable AI, researchers can understand how the system makes decisions. The primary objective of this report is to investigate the feasibility of utilizing a proximal policy optimization algorithm to govern the docking maneuvers of a 3 Degree Of Freedom autonomous vessel. Additionally, the report endeavors to explicate the behavior of the system through the application of LIME and SHAP values. The proximal policy optimization algorithm is an effective algorithm for designing autonomous docking systems, while LIME and SHAP values offer a mechanism for elucidating the behavior of the system. In this study, two distinct models were examined and assessed for performance, and their behavior were analyzed through the use of SHAP and LIME values. Furthermore, one of the models was trained using different learning rates. The observation vector encompassed nine parameters, which were employed by the reward function to yield a reward, while the action vector comprised five parameters for controlling the two azimuth thrusters and the one tunnel thruster on the vessel. By using a proximal policy optimization algorithm and Explainable AI techniques such as LIME and SHAP values, it is possible to develop highly effective autonomous docking systems that can be used in a wide range of applications. This study found the Proximal policy algorithm to be effective for a 3 Degree Of Freedom autonomous ship. In addition, it provided insight into the feature attribution of each the states for each of the controlling actions. This is useful for developing autonomous docking systems that are safe, reliable, and transparent. It is important to emphasize the need for further work to fully exploit the potential of Explainable AI for the docking of a marine vessel. While these techniques can provide insight into how an autonomous docking system makes decisions, it is still necessary to investigate how this insight can be transferred to practical use. Further research and development of Explainable AI will be critical to developing autonomous docking systems that are even more reliable and safe, and that can be used in increasingly demanding environments. For example, additional work is required to improve the robustness of the autonomous docking system, which involves implementing ocean currents, wind, and moving obstacles. Additionally, it may be interesting to further investigate Counterfactuals, as this technique can provide a more personal and qualitative explanation of decisions and help users understand how to modify input variables to achieve the desired output variable.
dc.languageeng
dc.publisherNTNU
dc.titleExplainable Artificial Intelligence for the docking of a marine vessel using SHAP and LIME
dc.typeMaster thesis


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record