Patient Adaptive Imaging in Echocardiography
Abstract
Denne oppgaven foreslår en dyp læring-basert metode for generalisering av B-modus-signalbehandlingen til Vivid E95 ultralydskanneren fra GE, med det formål å forbedre bildekvaliteten i ekkokardiografi. En annen metode ble utviklet for flekkstøyreduksjon. Bildeforbedringer kan gjøre det lettere å oppdage kreftsvulster i tidlig stadium, og det kan bedre diagnostisering av enkelte sykdommer.
Ultralydbildekvalitet er avhengig av signalbehandlingskjeder med manuelt innstilte parametere. En datadrevet løsning kan forbedre båndpassfiltrering, tidsfrekvenskompensasjon, bildefiltrering og andre signalbehandlingsoperasjoner ved å gjøre dem pasientadaptive. Fjerning av flekkstøy kan legge til rette for bedre visuell persepsjon ved vurdering av ultralydbilder.
Maskinlæringsmodeller ble trent til å transformere ufiltrert stråleformet in-fase- og kvadraturkomponentdata (IQ) til E95-prosesserte bilder ved hjelp av en overvåket-læringsalgoritme. Datasettet besto av 7424 ekte hjertebilder og tilsvarende IQ-data fra 22 pasienter, tatt opp med en 4Vc-D 4D-probe. Flekkstøyreduksjonsnettverket ble trent til å gå fra IQ-data fra ett høydeplan til B-modus-bilder av to sammenslåtte plan. På denne måten kunne flekkstøyreduksjonseffekten av høydeplansammenslåing oppnås med en M5Sc-D-probe som ikke har denne funksjonaliteten.
Forbehandling av data var avgjørende for å oppnå gode resultater. Dataene ble oppsamplet med bilineær interpolasjon, skalert med global maksimal absolutt skalering, og IQ-dataene ble representert på kartesisk form.
Hundrevis av konvolusjonelle nevrale nettverk ble testet. Modellene ble trent med gradientnedstigning av tapsfunksjoner basert på strukturell likhetsindeks (SSIM) og topp signal-til-støy forhold (PSNR) med Adam-optimalisatoren. Kvalitativ evaluering ble utført ved å inspisere skan-konverterte bilder, differensesplott og histogrammer. Ytelse ble målt kvantitativt med SSIM og PSNR.
Resultatene viste at et lite Inception U-Net kan brukes til å gjenskape signalbehandlingskjeden i Vivid E95-scanneren. Evaluering på et 10 % testdatasett ga en SSIM-verdi på (98,8 ± 0,50) % og en PSNR-verdi på (35,8 ± 1,38) dB. Visuelt var de predikerte bildene nesten identiske med E95-bildene. Testing av replikasjonsmodellen på data fra M5Sc-D-proben viste en økt kontrastoppløsning, men en endret flekkstøy. Flekkstøyreduksjonsmetoden ga glattede bilder med redusert flekkstøy på bekostning av kontrastoppløsningen. This thesis proposes a deep learning-based method for generalization of the native B-mode signal processing of the GE Vivid E95 ultrasound scanner, for the purpose of improving image quality in echocardiography. A second method was developed for speckle noise reduction. Image enhancements may facilitate early-stage cancer tumor detection and better diagnosis of some diseases.
Ultrasound image quality is dependent on signal processing chains with manually tuned parameters. A data-driven solution may improve band-pass filtering, time frequency compensation, image filtering, and other signal processing operations by making them patient adaptive. Despeckling may facilitate better visual perception in the assessment of ultrasound images.
Using a supervised learning algorithm, models were trained to map unfiltered beamformed in-phase and quadrature component (IQ) data to E95 processed images. The dataset consisted of 7,424 real cardiac images and corresponding IQ data from 22 patients, acquired with a 4Vc-D 4D probe. Despeckling was achieved by mapping IQ data from one elevation plane to compounded B-mode images. This way, the speckle reduction effect of elevation compounding could be obtained when using an M5Sc-D probe without this functionality.
Pre-processing was critical for achieving good results. The data was upsampled with bilinear interpolation, scaled with global maximum absolute scaling, and the IQ data was represented in Cartesian form.
Hundreds of convolutional neural networks were tested. Using the Adam optimizer, the models were trained with gradient descent of loss functions based on the structural similarity index measure (SSIM) and the peak signal-to-noise ratio (PSNR). Qualitative evaluation was performed by examining scan converted images, difference plots, and histograms. Performance was measured quantitatively by the SSIM and PSNR metrics.
The results showed that a small Inception U-Net can replicate the Vivid E95 native signal processing. Evaluation of a 10% test dataset gave an SSIM value of (98.8 ± 0.50)% and a PSNR value of (35.8 ± 1.38) dB. Visual inspections showed that the predicted images were nearly identical to the E95 images. Testing the replication model on M5Sc-D probe data showed an increased contrast resolution but altered speckles. The despeckling model produced smeared images with reduced speckle noise at the cost of lowering the contrast resolution.