Explaining a Deep Learning Model for Cerebral Palsy Prediction - Studying the Use of SHAP in the DeepInMotion Project
Abstract
Tidlig diagnose av cerebral parese (CP) er avgjørende for å kunne iverksette tiltak tidlig. Det kan forbedre den motoriske utviklingen til barn med CP betydelig, og minske byrden for foreldrene. DeepInMotion-prosjektet har som mål å utvikle et system basert på dyp læring som kan fungere som en effektiv og tilgjengelig metode for tidlig prediksjon av CP. Dette oppnås ved hjelp av grafkonvolusjonsnettverk (GCN), med grafdata hentet fra sporing av spedbarns spontane bevegelser. For at metoden skal kunne brukes i praksis, må den kunne forklares for klinikere.
I denne masteroppgaven implementerer vi rammeverket Shapley Additive exPlanations (SHAP) i forklarbar kunstig intelligens for å forklare CP-prediksjonene. Så vidt vi vet, er dette den første studien som implementerer SHAP for GCN-er. Resultatet er detaljerte forklaringer med verdier som sier hvor viktig hver inndataparameter er for den endelige CP-prediksjonen. Disse verdiene brukes til å lage fire ulike visualiseringer. Ekspertintervjuer ble gjennomført for å evaluere forklaringene. Funnene fra denne studien viser at forklarbar kunstig intelligens kan gi verdifull innsikt i CP-prediksjonsmodellen, som igjen kan øke tilliten og påliteligheten til modellen. Resultatene fra intervjuene tyder imidlertid på at detaljnivået i forklaringene med SHAP er for komplekst for klinikerne. Ytterligere forbedringer av forklaringsmetoden, særlig med hensyn til effektivitet og balanse mellom detaljnivå og brukervennlighet, kan forbedre den praktiske anvendelsen av CP-prediksjonsmodellen i kliniske settinger. Early diagnosis of cerebral palsy (CP) is crucial for timely intervention, which can significantly improve the motor development of affected children and reduce the emotional and logistical burden on their parents. The DeepInMotion project aims to develop an explainable deep learning-based system to provide an effective and accessible method for early prediction of CP. This is achieved using graph convolutional networks (GCNs), with graph data derived from infant motion tracking. To make the method usable in practice, it must be explainable to clinicians.
In this master's thesis, we implement the explainable artificial intelligence framework Shapley Additive exPlanations (SHAP) to explain the CP predictions. To our knowledge, this is the first study to implement SHAP for GCNs. The result is detailed explanations with importance values for all input features. The values are used to create four different visualizations. Expert interviews are conducted to evaluate the explanations. The findings from this study show that explainable artificial intelligence can provide valuable insight into the CP prediction model, increasing trust and reliability in the model. However, the results from the interviews indicate that with SHAP, the level of detail in the explanations is overly complex for the clinicians. Further refinement of the explanation method, particularly regarding computational efficiency and in balancing the level of detail with usability, can enhance the practical application of the CP prediction model in clinical settings.