Show simple item record

dc.contributor.advisorStahl, Annette
dc.contributor.advisorYip, Mauhing
dc.contributor.advisorMester, Rudolf
dc.contributor.authorSchmidt, Magnus Stray
dc.date.accessioned2022-10-01T17:25:41Z
dc.date.available2022-10-01T17:25:41Z
dc.date.issued2022
dc.identifierno.ntnu:inspera:102231297:28135016
dc.identifier.urihttps://hdl.handle.net/11250/3023117
dc.description.abstractAutonome undervannsfarkoster (AUV-er) kan utvide vår tilgang til havene betydelig. For en AUV kan det være nødvendig å ha et kart omgivelsene for å gjennomføre noen typer oppgaver, som ruteplanlegging og kollisjonsunngåelse. Dessverre blir kvaliteten på noen typer sensorer brukt over vann betydelig redusert under vann. Samtidig har Visual Simultaneous Localization and Mapping (VSLAM) metoder basert kun på RGB kameraer blitt mer stadig nøyaktige. I denne oppgaven presenterer vi et system for å rekonstruere omgivelser basert kun på VSLAM output data. Med tilgang på et syntetisk undervanns datasett presenterer vi også en ny metode for å produsere realistisk VSLAM data fra dette datasettet og liknende datasett. I tillegg, som et steg mot å rekonstruere omgivelsene, implementerer vi et en metode for å interpolere dybden i et bilde fra noen få datapunkter gitt fra VSLAM dataen. Den siste delen av rekonstruksjonen blir gjennomført av en tredjeparts programvare, som blir presentert sammen med et utvalg av relevant litteratur. Det resulterende samlede modulære systemet står som et eksempel for å teste rekonstruksjonsmetoder på syntetisk data.
dc.description.abstractAutonomous Underwater Vehicles (AUVs) can significantly extend our access to the oceans. For an AUV, having a map of its surroundings may deem necessary to perform certain tasks, such as path planning and collision avoidance. Alas, the performance of some sensors used on land is somewhat impaired underwater. Simultaneously, Visual Simultaneous Location and Mapping (VSLAM) methods based purely on RGB cameras are becoming increasingly accurate. In this thesis we present a surface reconstruction system that uses the output from a VSLAM system to reconstruct a dense 3D model of the scene. Having access to a synthetic underwater dataset, we also present a novel method of emulating VSLAM data on this dataset and similar datasets. In addition, as a step towards reconstructing the surface, we implement a per-frame depth interpolation method, based on the sparse depth samples obtained from the VSLAM data. The final reconstruction is then performed by a third-party software, presented along with a selection of relevant literature. The resulting reconstruction system thus consists of three separate modules, in which one is a third-party software, and all modules can be exchanged for other methods. Utilizing a synthetic dataset, the modular system stands as an example for testing surface reconstruction methods on simulated underwater environments.
dc.languageeng
dc.publisherNTNU
dc.titleUnderwater Incremental Surface Reconstruction from Dynamic 3D Point Clouds
dc.typeMaster thesis


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record