Robust Personalization of Cardiac Computational Models

Language
en
Document Type
Doctoral Thesis
Issue Date
2019-08-19
Issue Year
2019
Authors
Neumann, Dominik
Editor
Abstract

Heart failure (HF) is a major cause of morbidity and mortality in the Western world, yet early diagnosis and treatment remain a major challenge. As computational cardiac models are becoming more mature, they are slowly evolving into clinical tools to better stratify HF patients, predict risk and perform treatment planning. A critical prerequisite, however, is their ability to precisely capture an individual patient's physiology. The process of fitting a model to patient data is called personalization, which is the overarching topic of this thesis.

An image-based, multi-physics 3D whole-heart model is employed in this work. It consists of several components covering anatomy, electrophysiology, biomechanics and hemodynamics. Building upon state-of-the-art personalization techniques, the first goal was to develop an automated pipeline for personalizing all components of the model in a streamlined and reproducible fashion, based on routinely acquired clinical data. Evaluation was performed on a multi-clinic cohort consisting of 113 patients, the largest cohort in any comparable study to date. The goodness of fit between personalized models and ground-truth clinical data was mostly below clinical variability, while a full personalization was finalized within only few hours. This showcases the ability of the proposed pipeline to extract advanced biophysical parameters robustly and efficiently.

Designing such personalization algorithms is a tedious, model- and data-specific process. The second goal was to investigate whether artificial intelligence (AI) concepts can be used to learn this task, inspired by how humans manually perform it. A self-taught artificial agent based on reinforcement learning is proposed, which first learns how the model behaves, then computes an optimal strategy for personalization. The algorithm is model-independent; applying it to a new model requires only adjusting few hyper-parameters. The obtained results for two different models suggested that equivalent, if not better goodness of fit than standard methods could be achieved, while being more robust and with faster convergence rate. AI approaches could thus make personalization algorithms generalizable and self-adaptable to any patient and any model.

Due to limited data, uncertainty in the clinical measurements, parameter non-identifiability, and modeling assumptions, various combinations of parameter values may exist that yield the same quality of fit. The third goal of this work was uncertainty quantification of the estimated parameters and to ascertain the uniqueness of the found solution. A stochastic method based on Bayesian inference and fast surrogate models is proposed, which estimates the posterior of the model, taking into account uncertainties due to measurement noise. Experiments on the biomechanics model showed that not only goodness of fits equivalent to the standard methods could be achieved, but also the non-uniqueness of the problem could be demonstrated and uncertainty estimates reported, crucial information for subsequent clinical assessments of the personalized models.

Abstract

Herzfehler gehören zu den häufigsten Erkrankungen und Todesursachen in der westlichen Welt, dennoch stellen deren Früherkennung und Behandlung auch heute noch eine große Herausforderung dar. Computermodelle des Herzens werden immer ausgereifter und stehen kurz davor, Einzug in Kliniken zu erhalten, um dabei zu helfen, Patienten mit Herzfehlern besser zu stratifizieren, Risiken vorherzusagen und die Planung von Eingriffen zu unterstützen. Zuvor muss aber sichergestellt werden, dass die Modelle auch tatsächlich die Physiologie von individuellen Patienten abbilden können. Diese Dissertation befasst sich mit der Personalisierung solcher Modelle, das heißt, mit dem Prozess der Anpassung eines Modells an Patientendaten.

Hierfür kommt ein bildbasiertes Computermodell des Herzens zum Einsatz, welches aus Anatomie-, Elektrophysiologie-, Biomechanik- und Hämodynamikkomponenten besteht. Der erste Teil der Arbeit befasst sich mit der Entwicklung einer automatisierten Pipeline zur reproduzierbaren Personalisierung aller Komponenten, wobei nur Daten verwendet werden, die routinemäßig zur Verfügung stehen. Die Pipeline wurde auf 113 Patienten aus mehreren Kliniken evaluiert. Die erzielte Ähnlichkeit zwischen personalisierten Modellen und klinischen Daten war dabei größtenteils besser als die klinische Variabilität, und jede Personalisierung war innerhalb weniger Stunden abgeschlossen. Diese Ergebnisse lassen darauf schließen, dass biophysikalische Parameter robust und effizient aus den Daten extrahiert werden konnten.

Das Design solcher Personalisierungsalgorithmen ist oft langwierig und modell- und datenspezifisch. Im zweiten Teil der Arbeit wird untersucht, inwiefern künstliche Intelligenz dabei helfen kann, diese Aufgabe zu lernen, so wie es auch Menschen tun. Ein selbstlernender künstlicher Agent basierend auf Reinforcement Learning wird vorgestellt, der zunächst die Verhaltensweisen des Modells lernt, um im Anschluss daraus eine optimale Personalisierungsstrategie zu berechnen. Der Algorithmus funktioniert unabhängig vom verwendeten Modell, es müssen lediglich wenige ``Hyperparameter'' angepasst werden. Die Ergebnisse auf zwei verschiedenen Modellen zeigen, dass im Vergleich zu Standardmethoden äquivalente, oder sogar bessere Personalisierungsergebnisse erzielt werden konnten. Gleichzeitig war der künstliche Agent robuster und konvergierte schneller. Künstliche Intelligenz könnte also Personalisierungsalgorithmen generalisierbarer und adaptierbarer machen.

Aufgrund der limitierten Datenmenge, Unsicherheiten in klinischen Messwerten, Nicht-Identifizierbarkeit von Parametern und Modellannahmen könnten mehrere Kombinationen von Modellparametern existieren, die äquivalente Personalisierungsergebnisse erzeugen. Der dritte Teil der Arbeit befasst sich daher mit der Quantifizierung der Unsicherheit der geschätzten Parameter und der Frage der Eindeutigkeit der Ergebnisse. Es wird ein stochastischer Ansatz vorgestellt, der auf Bayes-Inferenz und schnellen Ersatzmodellen basiert, um die A-posteriori Wahrscheinlichkeit des Modells unter Berüchsichtigung der Messunsicherheiten zu schätzen. Die Experimente zeigten nicht nur, dass damit vergleichbare Personalisierungsqualität wie bei deterministischen Standardmethoden erzielt werden konnte, sondern es wurde auch die Nicht-Eindeutigkeit des Personalisierungsproblems demonstriert. Die automatisch berechneten Konfidenzintervalle können außerdem zur klinischen Beurteilung der personalisierten Modelle verwendet werden.

DOI
Faculties & Collections
Zugehörige ORCIDs