Vis enkel innførsel

dc.contributor.advisorLøvstakken, Lasse
dc.contributor.authorKjenstad, Lars Egil
dc.date.accessioned2020-06-10T16:00:28Z
dc.date.available2020-06-10T16:00:28Z
dc.date.issued2020
dc.identifier.urihttps://hdl.handle.net/11250/2657612
dc.description.abstractStråleforming blir brukt av enheter som tar opp eller sender signaler med flere enn én kanaler for å gi sterkere signalstyrke i en gitt retning. Innen ultralyd kan bedre algoritmer for stråleforming gi økt bildekvalitet, noe som vil kunne hjelpe klinikere i å gi en bedre vurdering av pasienters helse. Et nevralt nettverk, trent opp til å anslå apodiseringsvekter basert på kanaldata ble implementert. Nettverket tar inn piksler med tidsjustert kanaldata. Tilsvarende piksler fra ferdig stråleformede bilder blir brukt som fasit under trening. Implementasjonen ble testet med "delay-and-sum"-algoritmen med hamming-apodisering som fasit. Metoden ble testet med både radiofrekvens (RF) and invers-kvadratur (I/Q) som dataformater. Det trente nettverket var ikke i stand til å lære de korrekte apodiseringsvektene. Resultatene viser at nettverket yter bedre når det er trent opp med RF-data i forhold til IQ. "Speckle" og artefakter fra sidelober er derimot synlig redusert. Avvik mellom fasitbildet og den implementerte stråleformeren, ble målt til å være $(6.1\pm0.4)\cdot10^{-3}$ og $(5.4\pm0.3)\cdot10^{-3}$ for IQ and RF som angitt med fortegnsjustert logaritmisk kvadratisk gjennomsnitt. Til sammenligning ble det opprinnelige signalet målt til å ha et avvik på $(18.7\pm2.1)\cdot10^{-3}$ fra fasitbildet.
dc.description.abstractBeamforming is used in multi-channel recording (or transmitting) devices to focus signal strength in a given direction. For ultrasound, better beamforming algorithms could yield higher imaging quality and increase accuracy of patient assessments. A fully-connected neural network beamformer trained to predict apodization weights based on channel data was implemented. The network accepts channel data from one-and-one time-aligned pixels as input. Corresponding pixels from ground-truth beamformed images are used as training targets. The implementation was tested using delay-and-sum with hamming apodization as target output. The method was tested using both radio frequency (RF) and inverse quadrature (I/Q) data formats. The network underperformed and was not able to learn the correct apodization weights. Results show that the network performs better when trained on data in RF format in comparison to IQ. Decreased side lobe artifacts and reduced speckle can be observed. Deviancy between ground truth and the predicted beamformed, as measured by signed-mean-squared-logarithmic-error was $(6.1\pm0.4)\cdot10^{-3}$ and $(5.4\pm0.3)\cdot10^{-3}$ for IQ and RF, respectively. For comparison, the time-aligned data was measured with a deviancy of $(18.7\pm2.1)\cdot10^{-3}$ from ground truth.
dc.languageeng
dc.publisherNTNU
dc.titleUltrasound Beamforming based on Deep Learning
dc.typeMaster thesis


Tilhørende fil(er)

FilerStørrelseFormatVis
no.ntnu:inspera:49865203:24256438.pdfn/aapplication/pdfÅpne

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel