Vis enkel innførsel

dc.contributor.advisorDunn, Benjamin Adric
dc.contributor.authorMyklebust, Even Moa
dc.date.accessioned2021-09-15T17:27:38Z
dc.date.available2021-09-15T17:27:38Z
dc.date.issued2020
dc.identifierno.ntnu:inspera:55607230:51503887
dc.identifier.urihttps://hdl.handle.net/11250/2778366
dc.description.abstractNye teknikker for nevrale opptak setter forskere i stand til å gjøre simultanopptak av aktiviteten til stadig flere nevroner. Teknikker for dimensjonsreduksjon kan brukes til å undersøke hvordan nevroner jobber sammen som et system ved å ekstrahere lavdimensjonale latente variabler fra høydimensjonal nevral data. En dobbelt ikke-lineær modell for inferens av latent variabler, kalt ``the latent manifold tuning model'', ble introdusert av Anqi Wu og medforfattere i 2017. Vi beskriver eksplisitt noen antakelser som ikke ble beskrevet i den opprinnelige artikkelen, og undersøker hvordan modellens initialisering påvirker dens konvergens. Vi evaluerer modellens robusthet i forhold til ulike responsstyrker (hvor mye aktiviteten til et nevron påvirkes av en variabel) og ulike datalengder, og finner en optimal responsstyrke som avhenger av datalengden. Avslutningsvis anvender vi modellen på nevral data innsamlet av Adrien Peyrache og medforfattere, hvor vi bruker en periodisk kovarians-kjerne til å estimere hoderetningen til en mus.
dc.description.abstractRecent advances in neural recording techniques give access to simultaneous recordings of increasingly many neurons. Dimensionality reduction techniques can be used to investigate how neurons work together as a system by extracting low-dimensional latent variables from high-dimensional neural data. A doubly nonlinear model for latent variable inference called the latent manifold tuning model was introduced by Anqi Wu and colleagues in 2017. We explicitly state some assumptions that were not mentioned in the original article and investigate how the model's initialization affects its convergence. We evaluate the robustness of the model with regards to different tuning strengths and data lengths and discover an optimal tuning strength that depends on the data length. Finally, we apply the model to neural data by Adrien Peyrache and colleagues, where we use a periodic covariance kernel to infer the head direction of a mouse.
dc.language
dc.publisherNTNU
dc.titleA robustness evaluation of the latent manifold tuning model
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel