Bayesian optimal experimental design for studying synaptic plasticity
Abstract
Hjernen er senteret av nervesystemet til både oss mennesker og andre arter. Nevroner er de fundamentale cellene i hjernen, som gir opphav til den komplekse og kraftige hjernen som vi innehar ved å kommunisere med hverandre gjennom elektriske og kjemiske signaler. Læring og hukommelse er forstått å bli utløst av endringer i nevrale forbindelser. Slike forandringer er kjent som synaptisk plastisitet. Innsikt i hvordan disse mekanismene fungerer kan være essensielt innen medisinsk forskning for identisfisering og forståelse av nevrologiske lidelser. I dette arbeidet tar vi for oss synaptisk plastisitet fra et matematisk perspektiv, med mål om å utvikle et rammeverk for statistisk inferens av plastisitet i hjernen. Dette arbeidet tar utgangspunkt i og videreutvikler et rammeverk presentert av Linderman og medforfattere [1] for å studere synaptisk plastisitet. Nevrale endringer antas å følge noen underliggende mønstre, kalt læringsregler. Nærmere bestemt, benytter vi såkalte STDP læringsregler, som ble foreslått i [2]. Dette arbeidet presenterer en nylig utviklet metode for statistisk inferens for å estimere parametere i læringsregelen. Imidlertig viser vi at metoden både er sensitiv til ekstern stimulering av nevronene og krever store datasett for å gi troverdige resultater, noe som setter spørsmålstegn ved anvendbarheten til metoden. Derfor sikter vi i dette arbeidet på å utvikle en Bayesisk optimal eksperiment design metode, som optimerer stimulering for å minimere datamengden som kreves for å oppnå advekate inferensresultater. Såvidt vi vet, er dette en ny tilnærming som ikke før har blitt utforsket med formål om å studere synaptisk plastisitet.Eksperimenter gjort på syntetisk data viser at algoritmen presterer betydelig bedre ennandre normale stimuleringsprotokoller. Funnene ble også presentert som en forskningsartikkel,som kan være av stor interesse for forskningsfeltet rundt synaptisk plastisitet. The brain is the command center for the nervous system for humans, as well as for other species. Neurons are the fundamental cells of the brain, giving rise to the complex and powerful functioning brain that we possess by communicating through electrical and chemical signals. Learning and memory are often understood to be induced by changes in neural connections. This evolution of neural connectivity is referred to as synaptic plasticity. Insight and understanding of how these mechanisms are driven could be crucial within medical research for recognising and understanding neurological disorders. In this work, we approachsynaptic plasticity from a mathematical perspective, aiming to devise a statistical inference framework to understand these dynamics. This work extends on the framework presented by Linderman and coauthors [1] for studying synaptic plasticity, where the dynamics are believed to follow some underlying patterns, called learning rules. Specifically, employing spike-timing-dependent plasticity STDP learning rules, as suggested in [2]. This work presents a recently developed statistical inference method to infer the learning rule parameters. When applied to real data, the methods performance seems sensitive to external stimulation of the neurons and requires a lot of data to yield confident estimates, which might limit its applicability. Therefore, this work aims to develop a Bayesian optimal experimental design algorithm, which optimises the stimulation in order to minimise the amount of data required for obtaining adequate results. This is a novel approach for studying synaptic plasticity, which to our knowledge has not yet been explored.Experiments on synthetic data show that our algorithm improves significantly on traditional stimulation protocols. The findings were formalised in an article, which could be of great interest to the plasticity community.