Physics-Informed Neural Networks for Dynamic Modeling of Pipeline-Riser Systems
Master thesis
Permanent lenke
https://hdl.handle.net/11250/3034865Utgivelsesdato
2022Metadata
Vis full innførselSamlinger
Beskrivelse
Full text not available
Sammendrag
Vi introduserer fysikkinformerte nevrale nettverk på en Pipeline-Riser-modell. Fysikkinformerte nevrale nettverk er nevrale nettverk som er trent til å løse overvåket læringsoppgave mens de følger et fysisk prinsipp uttrykt av en ikke-lineær vanlig differensialligning. Denne rapporten ser på treningsutfordringene og hvordan de kan forbedres. Pipeline-Riser-modellen blir raskt ustabil og har raskt skiftende dynamikk. Dette har vist seg å være en utfordring ved trening av nettverket. Derfor har vi sett på metoder som kan forbedre treningsresultatene. Vi har prøvd tre ulike metoder for å forbedre treningen: Normalisering og skalering, Fjerning av treningsdata som ikke har en løsning (som data som gir «not a number») og et forbedret nettverk. Resultatet er ikke tilfredsstillende. Alle metoder klarer ikke å gi ønsket resultat. Men bruk av normalisering og skalering med fjerning av feil data og forbedret nettverk gir et mye bedre resultat på et lite intervall. På grunn av at denne metoden ønskes å brukes sammen med kontroll har vi trent nettverkene med tanke på å oppnå dette målet. Det lille intervallet tillater ikke kontroll på grunn av den raskt skiftende dynamikken. We introduce physics-informed neural networks on a Pipeline-Riser model. Physics Informed Neural Networks are neural networks trained to solve supervised learning task while adhering to a physical principle expressed by a nonlinear ordinary differential equation. This report looks at the training challenges and how to improve them. The pipeline-Riser model becomes unstable quickly and has fast-changing dynamics. This has proven to be a challenge when training the network. Therefore we have looked into methods that can improve training outcomes. We have tried four different approaches to improve the training: Normalization and scaling, Removing insufficient data in collocation points and initial conditions (such as data that gives "not a number") and an improved network. The outcome is not satisfying. All methods fail to give the desired output. However, using normalization and scaling with removing the faulty data and improved network gives a much better result on a small interval. Due to the goal of using this type of network is to use it with control and therefore the training methods are trying to achieve this goal. The small interval does not allow control due to the fast-changing dynamics.