A Spline-based Latent Variable Model for Neural State-space Discovery
Abstract
Nylige fremskritt innen opptak av nevrale data har gitt forskere muligheten til å betrakte store ansamlinger av nevroner, noe som motiverer bruken av dimensjonsreduksjonsmetoder som et verktøy for å oppdage skjulte variabler som styrer oppførselen til nevronene. Wu et al. (2017) utarbeidet modellen "latent manifold tuning", og vi bygger videre på denne ved å introdusere parametriserbare B-Spline-funksjoner, som et alterativ til ikke-parametriserbare Gaussiske prosesser, for å modellere nevroners tuningkurver (sammenhengen mellom en ekstern påvirkning og et nevrons aktitivitet). Ved å ta i bruk en iterativ maksimum a posteriori-metode sammenligner vi de to modellene, og evalurerer hvor godt de presterer i forhold til ulik datamengde, initialisering og valg av hyperparametere. Avslutningsvis utvider vi modellen vår til å ta høyde for fellestrekk blant tuningkurver hos nevronene, og bruker denne modellen til å avdekke hodebevegelsene til en mus basert på data innsamlet av Peyrache et al. (2015). Recent advances in neural data recording have given researchers the opportunity to harness the power of large neural populations, motivating the use of dimensionality reduction methods as a way to uncover latent variables that govern the activity of the neurons. Expanding upon the latent manifold tuning model devised by Wu et al. (2017), we propose replacing the non-parametric Gaussian process to model the tuning curves with a parametric B-spline function. Using an iterative maximum a posteriori procedure, we compare the performance of the two models with respect to scaling in data size, initialisation and choice of hyperparameters. Ultimately, we extend our model further to account for feature sharing among tuning curves of neurons, and utilise this to infer the head direction of a mouse from neural data gathered by Peyrache et al. (2015).