Pulmonary Tumor Segmentation Utilizing Mixed-Supervision in a Teacher-Student Framework
Master thesis
Permanent lenke
https://hdl.handle.net/11250/2976466Utgivelsesdato
2021Metadata
Vis full innførselSamlinger
Sammendrag
Kreft er en av de fremste dødsårsakene i den utviklede verden, og den mest dødelige typen er lungekreft. Kliniske eksperter er avhengig av avanserte medisinske bildebehandlingsteknikker og visuell analyse for å oppdage kreftsvulster. Hvor lenge kreften har utviklet seg påvirker i stor grad prognosen, og dødeligheten kan reduseres ved tidlig påvisning. Utvikling innen maskinlæringsteknikker den siste tiden har åpnet for optimisme knyttet til å kunne automatisere tidkrevende oppgaver som i dag utføres manuelt av trente eksperter.
Begrenset tilgang til annotert data er en av de største utfordringene knyttet utviklingen av automatiserte metoder for medisinsk bildesegmentering. Offentlig tilgjengelige datasett inneholder ofte ulike typer annoteringer. I et forsøk på å løse noen av disse problemene, har vi undersøkt potensialet i å trene dype nevrale nettverk som kan lære av et større datasett, med mindre nøyaktig annoterte data, for å forbedre ytelsen på lungesvulstsegmentering. Vi implementerte et rammeverk basert på et nytt konsept kalt Teacher-Student Design for å utnytte datasett annotert med avgrensningsbokser for å lære lungesvulstsegmentering.
Vår forskning viser at ved bruk av et tilstrekkelig stort, mindre nøyaktig annotert datasett, kan Teacher-Student-rammeverket forbedre segmenterings- og deteksjonsytelsen til helautomatiske metoder. Vi demonstrerer også at vår implementasjon av the teacher kan brukes som en halv-automatisk metode for å bistå i prosessen med å annotere medisinske bilder.
Vår beste modell, trent på kun 48 bilder annotert av eksperter, og 991 bilder annotert av the teacher}, oppnådde en Dice Coefficient Score på 0.7156 på MSD-datasettet, testet på ni bilder. En annen modell trent på samme måte oppnådde en perfekt tumornivådeteksjon målt i F1 på 1.0 på det samme datasettet. Cancer is a leading cause of death in the developed world, and lung cancer is the most lethal. Clinical experts rely on advanced medical imaging techniques and visual inspection to detect lung tumors. Prognosis is highly dependent on the stage of cancer, and mortality can be reduced by early detection. Recent development in machine learning techniques shows promise for automating time-consuming tasks that are currently performed manually by trained experts.
Lack of annotated data is one of the primary constraints in developing automatic methods for medical image segmentation tasks. Public datasets often contain different degree of annotations, if any. In an attempt to address some of these problems, we have investigated the potential of training deep neural networks that can learn from a larger set of less accurately annotated data, to improve performance on lung tumor segmentation. We implemented a framework, based on the recently emerging Teacher-Student design, to utilize bounding box annotated datasets to facilitated lung tumor segmentation learning.
Our research shows that using a sufficiently large, less accurately annotated dataset, the Teacher-Student framework can improve segmentation and detection performance. We also demonstrate that our produced teacher may be used as a semi-automatic method to facilitate the labeling of medical images.
Our best model, trained from only 48 human-annotated images and 991 teacher-annotated images (given bounding box supervision), reached a Dice Coefficient Score of 0.7156 on the MSD dataset, tested on nine images, which is on the state-of-the-art level. Another model trained under the same conditions, reached a perfect tumor-level F1 Score of 1.0 on the MSD dataset. only 48 human-annotated images and 991 teacher-annotated images (given bounding box supervision), reached a Dice Coefficient Score of 0.7156 on the MSD dataset, tested on nine images, which is on the state-of-the-art level. Another model trained under the same conditions, reached a perfect tumor-level F1 Score of 1.0 on the MSD dataset.