Vis enkel innførsel

dc.contributor.advisorBerg, Carl Fredrik
dc.contributor.authorAdelved, Dennis
dc.date.accessioned2021-09-24T17:49:41Z
dc.date.available2021-09-24T17:49:41Z
dc.date.issued2020
dc.identifierno.ntnu:inspera:54978166:8605467
dc.identifier.urihttps://hdl.handle.net/11250/2781583
dc.description.abstractDenne oppgaven presenterer to fremgangsmåter for å trene en Faster Region-based Convolutional Neural Network (Faster R-CNN) objektgjenkjenningsmodell. Denne modellen kan brukes til automatisk gjenkjenning av både CCA og ikke-CCA kjerneplugger i optiske kjernebilder, ved å finjustere parameterne til en ferdig trent modell ved bruke av Tensorflows objektgjenkjennings-API. Den første fremgangsmåten besto av å trene en opprinnelig modell på bilder fra to brønner, 6406/3-2 og 6406/8-1, som er valgt på grunnlag av sin henholdsvis lave og høye varians i det visuelle utseendet til kjernepluggene. Til slutt testes den opprinnelige modellen på to forskjellige testsett. Det første testsettet består av bilder fra kun to brønner, og det andre testsettet består av tilfeldig utvalgte bilder fra 25 brønner. Den andre fremgangsmåten omhandler ytterligere finjustering av parametrene til den opprinnelige modellen der målet var å øke ytelsen til modellen på et spesifikt datasett. I den andre fremgangsmåten ble den opprinnelige modellen finjustert ved hjelp av en liten delmengde av bildene fra det første testsettet, og testet på de gjenværende bildene i dette datasettet. I begge fremgangsmåtene ble input-bildene konvertert til gråtoner før de ble brukt til å trene modellen, noe som resulterte i en liten økning i ytelsen til modellen basert på en referansemåling av forskjellige preprosesseringsmetoder utført i denne oppaven. Resultatet fra den første fremgangsmåten viste at modellen var i stand til å oppnå en høy ytelse med hensyn til vurderingskriteriene på valideringssettet. Et betydelig ytelsestap ble observert på begge testsettene, noe som indikerer at variansen i det visuelle utseendet til kjernepluggene for brønnene i testsettene er for stor til å kunne læres fra kun to brønner. Resultatene fra den andre fremgangsmåten viste imidlertid at hvis variansen i det visuelle utseendet er begrenset, så kan ytelsen økes betraktelig ved å finjustere den opprinnelige modellen med en liten delmengde av kjernepluggene, med minimal treningstid. Ved å bruke denne fremgangsmåten ble modellens presisjon økt til et akseptabelt nivå for den tiltenkte oppgaven. I tillegg kan finjusteringsmetoden brukes som et halvautomatisk verktøy til å generere treningsdata, noe som kan redusere tiden som kreves for å merke data for videre opplæring av modellen og til andre relaterte objektgjenkjenningsoppgaver.
dc.description.abstractThe work presented in this thesis outlines two approaches for the training of a faster region-based convolutional neural network (Faster R-CNN) object detection model. This model can be used for automatic detection of both CCA and non-CCA core plugs in optical core images, by fine-tuning the parameters of a pre-trained model using the Tensorflow object detection API. The first approach consisted of training an initial model on images from the two wells, 6406/3-2 and 6406/8-1, which are chosen based on low and high variance in the visual appearance of the core plugs, respectively. Finally, the initial model is tested on two different test sets. The first test set consists of images from only two wells, and the second test set is randomly sampled from 25 wells. The second approach deals with further fine-tuning of the parameters of the initial model to increase the model performance on a specific data set. In this second approach, the initial model was fine-tuned using a small subset of the images from the first test set and tested on the remaining images in this set. Also, in both approaches, the input images are converted to grayscale before training, which resulted in a slight increase in the model performance based on the benchmarking of different preprocessing techniques conducted in this thesis. The result from the first approach showed that the model was able to achieve high performance with respect to the evaluation metrics on the validation set. A significant performance loss was observed on both test sets, indicating that the inter-well variance in the visual appearance of the core plugs is too large to be learned from only two wells. However, the results from the second approach showed that if the variance in visual appearance is kept relatively low, the performance can be significantly increased by fine-tuning the initial model using a small number of plug locations and with minimal training time. Employing the second approach, the precision of the model increased to an acceptable level for the considered task. Additionally, the fine-tuning approach can be used as a semi-automatic labelling tool, which can significantly reduce the amount of time required for labelling data for further training of the model and other related object detection tasks.
dc.language
dc.publisherNTNU
dc.titleFine-Tuning of Faster Region-Based Convolutional Neural Network for Automatic Core Plug Detection in Optical Core Images
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel