Camera-based methods for estimation of position and orientation
Master thesis
Permanent lenke
https://hdl.handle.net/11250/2670219Utgivelsesdato
2020Metadata
Vis full innførselSamlinger
Sammendrag
Under en hjerteundersøkelse med ultralyd plasserer klinikeren ultralydtransduseren på brystet til pasienten i forskjellige posisjoner for å få standardiserte bilder av hjertet. I prosessen med å finne disse standardvisningene bruker en spesialist bildene i sanntid som visuell tilbakemelding. Nøyaktig estimering av ultralydprobens posisjon og orientering kan bidra til å veilede en mindre trent kliniker til å utføre en standard ultralydundersøkelse raskere og mer effektivt.
Denne oppgaven har som målsetting å gi en estimeringsmetode for et kamera sin posisjon og orientering ved hjelp av en innenfra-ut optisk sporingsmetode. Ettersom kameraet vil være plassert på ultralydproben, vil kameraets posisjon og orientering brukes til å veilede den utrente klinikeren under undersøkelsen.
Tre objekter med kjent form brukes for å estimere kameraets posisjon og orientering med en \newline perspektiv-trepunkts-posisjonsestimering. Disse objektene blir projisert fra verdenskoordinater til bildekoordinater, og disse punktkorrespondansene brukes til å estimere kameraposisjonen i forhold til verdens koordinatsystem. Dette er en mye brukt posisjonsestimeringsmetode som kan gi opptil fire reelle løsninger når en bruker tre punktkorrespondanser.
Evalueringen av posisjonsestimeringen gjøres både eksperimentelt og ved simulering. Kameraposisjonen har seks frihetsgrader, tre forflytninger langs X-, Y- og Z-aksen, og tre rotasjoner rundt hver akse. Evaluering av nøyaktigheten til posisjonsestimeringen gjøres ved å endre posisjon og orientering av kameraet i en retning av gangen, for så å beregne middelavviket fra den sanne posisjonen.
Den eksperimentelle evalueringen gjøres for de tre forflytningene og en av rotasjonene, mens simuleringen gjøres for de to andre rotasjonene. Dette gjøres for å ha en sikker sannhet å sammenligne med. For den eksperimentelle testingen er posisjonsavviket omtrent 1-2 millimeter fra den sanne posisjonen. Vinkelavviket når kameraet roteres rundt egen Z-akse er 1,6 grader. Et posisjonsavvik på 0,4 millimeter og et vinkelavvik på 0,4 grader er mulig å oppnå under simulering av kameraet når det roterer rundt egen X-akse. Å simulere rotasjonen rundt kameraets Y-akse gir et posisjonsavvik på 0,4 millimeter og vinkelavvik på 0,7 grader.
Et fjerde punkt implementeres i simuleringen for å bestemme hvilken av de fire kameraposisjonene som er riktig. During a cardiac examination with ultrasound, the clinician places the ultrasound transducer on the chest of the patient in different positions to obtain standardized images of the heart. In the process of finding these standard views, the trained clinician uses the real-time images as visual feedback. Precise estimation of the ultrasound probe's position and orientation may help to guide a non-trained clinician to perform the standard ultrasound exam faster and more efficient.
This thesis aims to provide a position and orientation (pose) estimation method for a camera using an inside-out optical tracking method. Since the camera is positioned on the ultrasound probe, the pose of the camera will be used to guide the non-trained clinician during the examination.
Three feature points are used to estimate the pose of the camera with the perspective-three-point problem pose estimation. The feature points are projected from world coordinates to image coordinates, and these point correspondences are used to estimate the camera pose with respect to the world frame. This is a much-used pose estimation method which can give up to four real solutions when using three feature points.
The pose estimation evaluation is done both experimentally and by simulation. The camera pose has six degrees of freedom, three movements along the X-, Y-, and Z-axis, and three rotations around each axis. Evaluation of the accuracy of the pose estimation is done by changing the position and orientation of the camera in one direction at a time and calculate the mean deviation from the true position.
The experimentally evaluation is done for the three translations and one of the rotations, while the simulation is done for the two other rotations. This is to ensure an accurate ground truth. For the experimentally testing, the positional deviation is approximately 1-2 millimeters from the ground truth. The angle deviation when rotating the camera around its Z-axis is 1.6 degrees. A positional deviation of 0.4 millimeters and an angular deviation of 0.4 degrees are possible to achieve during simulation of the camera rotating around its X-axis. Simulating the rotation around the camera's Y-axis yields a positional deviation of 0.4 millimeters and angular deviation of 0.7 degrees.
A fourth feature point is implemented in the simulation to disambiguate the four possible solutions of the camera pose.