Sensor Anomaly Detection and Identification using Machine Learning for Digital Twins
Description
Full text not available
Abstract
For faget TFE4940 -- Masteroppgave, skal studentene på NTNU i Elektronisk systemdesign og innovasjon-programmet skrive en oppgave innen dere respektive spesialisering. Denne oppgaven er om å undersøke, validere og samle ny data for et foreslått maskinlærings-rammeverk for sensorvalidasjon i et sikkerhetskritisk system.
Maskinlæring er et felt i vinden når det gjelder forskning og denne oppgaven bygger på en artikkel fra NTNU om nye maskinlærings-rammeverk for sensorvalidasjon. Denne artikkelen tar også for seg bruk av en ny og spennende teknologi - Digitale tvillinger.
Viktigheten av pålitelig data, hvor sensorvalidasjon er en viktig del, er stort for nettverksovervåking og kontroll av sikkerhetskritisk-system.
For å bruke det foreslåtte maskinlærings-rammeverket, bør det ha tilgang til et bra treningsett. Det praktiske arbeidet i denne oppgaven kan deles in i to deler. En del fokuserer på å lage et rent og presist datasett fra et sikkerhetskritisk-annlegg gjennom kalibrering og vedlikehold av sensorer. Feil som trengst for å trene maskinlæringsnettverket kan legges til etterpå, både syntetisk eller i den fysiske realiteten. Den andre oppgaven er å replikere den diskuterte maskinlærings-rammeverket for å prøve å få det samme resultatet, så det orginale resultatet styrkes.
I oppgaven er det vist at det sammlede datasettet fra den eksperimentelle riggen (DeFACTO) kan bli kontaminert med fysiske sensor feil. Avhengig av styrken på feilene, bør datasettet være presist nok til å kunne trene det neurale nettverket i det foreslåtte SFDIA-rammeverket. Resultatet fra det replikerte rammeverket er ikke bra nok til at det kan brukes for å bekrefte funnene fra det originale rammeverket. As part of the course TFE4940 -- master's thesis, students at NTNU in the electronic system design and innovation program should write a thesis within their chosen specialization. This thesis is about investigating, validating and gathering new data for a proposed machine learning framework for sensor validation relating to a safety-critical system.
Machine learning is a "blooming field" at the moment (in the sense of new research) and this thesis builds on an article from NTNU about the novel machine learning framework used for sensor validation. This article is making use of a new and promising technology -- Digital twins.
The importance of reliable data, where sensor validation is an important aspect, is enormous for sensor networks monitoring and controlling safety-critical systems.
In order to utilize the proposed machine learning framework, access to good training data is necessary. The practical work in this thesis can be divided into two parts. One part aims to create a clean and accurate data set from a safety-critical system through calibration and maintenance of sensors. Faults used for training can be added later on, either synthetically through post-processing or introducing real faults physically. The other task is to replicate the discussed machine learning framework to try to create similar results by repetition validation.
It is shown that the gathered data set from the DeFACTO experimental rig can be populated with physical sensor faults. Depending on the strength of the fault, the data set should be accurate enough for the neural network in the SFDIA framework to learn and detect said sensor faults. From the performance of the replicated machine-learning framework its clear that this thesis can not be used as verification for the original SFDIA framework and the related results.