Integration of Mobile Physiological Sensors For Use in Pilot Experiments
Description
Full text not available
Abstract
Denne oppgaven undersøker hvordan blikksporingsteknologi kan bli brukt som et forskningsverktøy i piloteksperimenter. En skjermbasert ideeringsstudie (N = 24), som bygger videre på eksperimentet av Goucher-Lambert et al. (2019), er blitt gjennomført for å bli kjent med bruken av teknologien i en forskningssetting. Målet med studien var å ytterligere utforske hvordan inspirerende stimuli har effekt på idegenerering fra et blikksporingsperspektiv og validere resultater fra den originale studien hvis mulig. Imens den originale studien bruker funksjonell magnetresonanstomografi (fMRI) for å undersøke nevrologiske prosesser som foregår under ideering, bruker denne studien blikksporingsteknologi for å undersøke visuell allokasjon under ideering og bidrar med ny innsikt i denne eksperimentelle konteksten.
Deltagernes oppgave var å utvikle så mange ideer som mulig for 12 forskjellige designproblemer, imens de tenkte høyt og forklarte løsningene sine kort. Ord ble vist på skjermen under ideeringsrutinene, og var enten inspirerende stimuli (ord nære eller fjernt fra problemområdet) eller kontrollord gjenbrukt fra problemstillingen. Etter hvert problem vurderte deltagerne stimuliordene og deres egne designkonsepter i et spørreskjema. Hver deltager ble tilordnet en av tre motbalanserte grupper, hvorav hver gruppe ble tildelt forskjellige nære, fjerne og kontrollord til hvert designproblem. Eksperimentet i seg selv er programmert fra bunnen ved bruk av den Python-baserte stimuliprogramvaren PsychoPy. Blikksporingsdata for denne studien ble tatt ved bruk av den hodemonterte blikksporeren Pupil Core fra Pupil Labs. Ved bruk av nettverksprogrammeringsgrensesnittet fra Pupil kjørte eksperimentet sømløst fra PsychoPy, som automatisk sendte prosedyremessige annotasjoner til Pupil og tok opp lyd for hver ideeringsrutine.
Blikksporingsdata ble analysert ved å regne ut fordelingen av fikseringer fordelt over flere interesseområder på skjermen og ble visualisert ved bruk av varmekart. Opptak fra ideeringen ble automatisk transkribert ved bruk av Google Speech-to-Text API for å få en forståelse av typen ideer som ble skapt for hvert designproblem. Resultatene bekreftet funn fra den originale studien; at inspirerende stimuli øker idegenereringen. Statistisk signifikante resultater ble også funnet for vurderingene av stimuliordene i spørreskjemaet. Blikksporingsdata bidrar også med statistisk signifikant innsikt i hvordan blikket er forskjellig mellom kontroll- og inspirerende stimuli. Analysen av de transkriberte opptakene antyder at ideene som ble skapt varierer basert på stimulien.
Hele kodebasen for det eksperimentelle oppsettet har blitt publisert og dokumentert slik at det kan enkelt kan gjenskapes. Den gir også informasjon om hvordan man kan sette opp eksperimentet med ytterligere sensorikk ved bruk av protokollen LabStreamingLayer (LSL). Rådata og et prosessert datasett har blitt publisert, som gjør det mulig å gjenbruke dataen fra eksperimentet og undersøke sammenhenger som ennå ikke er blitt utforsket. This thesis explores how eye tracking technology can be used as a research tool in pilot experiments. A monitor-based design ideation study (N = 24), extending on the experiment of Goucher-Lambert et al. (2019), was conducted to get experience with using the technology in a research setting. The goal of the study was to explore further how inspirational stimuli affects the fluency of idea generation from an eye tracking perspective and validate results from the original study if possible. While the original study uses functional magnetic resonance imaging (fMRI) to explore the underlying neurological processes of design ideation, this study uses eye tracking technology to explore visual allocation during ideation and yields new insight for this experimental context.
The participant's task was to develop as many ideas as possible for 12 different design problems while thinking aloud and briefly explaining their solutions. Words were shown on the monitor during the ideation routines, either inspirational stimuli (words near or far from the problem space) or control words reused from the problem statement. After each problem, the participants rated the stimuli words and their own design concepts in a questionnaire. Participants were assigned to one of three counterbalanced groups, of which each group was assigned different near, far, or control words for each design problem. The experiment itself was programmed using Python-based stimuli software PsychoPy. Eye tracking data for this study were captured through the head-mounted eye tracker Pupil Core from Pupil Labs. Utilizing the network API from Pupil, the experiment ran seamlessly from PsychoPy, automatically sending procedural annotations to Pupil and recording audio for each ideation routine.
Eye tracking data was analyzed by calculating distribution of fixations across different areas of interest (AOI) on the monitor and visualized using heatmaps. Audio recorded during ideation were automatically transcribed using Google Speech-to-Text API to get an understanding of the kinds of ideas that were generated for every design problem.Results confirm what was found in the original study; that near or far stimuli improve the fluency of idea generation. Statistically significant results for questionnaire ratings across the stimuli were also found. Eye tracking data provides statistically significant results of how the gaze differs between inspirational and control stimuli. Analysis of transcribed audio suggests that the kinds of ideas generated vary based on the stimuli presented.
The entire code base for the experimental setup has been published and documented so that the experiment can be reproduced with ease. It also provides information on setting up the experiment with additional sensors using the LabStreamingLayer (LSL) protocol. Raw data and a processed dataset have been published, making it possible to reuse the data from this experiment and investigate other relations that are yet to be explored.