Graduiertenkolleg erforscht erklärbare KI in der Medizin
31.05.2024 - KI kommt in der Medizin immer häufiger zum Einsatz. Doch wie kann man sichergehen, dass Diagnosen wirklich genau sind und von Ärzten auch nachvollzogen werden können?
Und wer ist verantwortlich, wenn falsch behandelt wird? Diesen Fragen widmet sich das neue, interdisziplinäre Graduiertenkolleg „Knowledge Infusion and Extraction for Explainable Medical AI“ (KEMAI) der Universität Ulm, an dem ab 2025 insgesamt 27 Promovierende an der Schnittstelle von Informatik, Medizin und Ethik forschen. Die Deutsche Forschungsgesellschaft (DFG) fördert KEMAI über zunächst fünf Jahre mit rund sechs Millionen Euro.
Computergestützte Verfahren sind bereits seit Jahrzehnten Standard in der Medizin und unterstützen Ärzte bei der Diagnose. Dank Künstlicher Intelligenz (KI) und maschinellen Lernens werden insbesondere diagnostische Bildgebungsverfahren immer wichtiger und präziser, aber auch immer komplexer. Im neuen Graduiertenkolleg „Knowledge Infusion and Extraction for Explainable Medical AI“ der Universität Ulm wird ab dem kommenden Jahr daran geforscht, wie man die Vorteile von wissens- und lernbasierten KI-Systemen für bildbasierte medizinische Diagnosen kombinieren kann. Dabei geht es sowohl um Genauigkeit als auch darum, dass Ärzte die durch KI-Systeme getroffenen Entscheidungen auch nachvollziehen und verstehen können. „Wir hoffen, dass eine bessere Nachvollziehbarkeit den Einsatz und die Akzeptanz von KI in der Medizin deutlich stärkt“, erläutert Professor Timo Ropinski vom Institut für Medieninformatik. Er ist Sprecher des Graduiertenkollegs KEMAI.
In der interdisziplinären Forschungsgruppe werden Wissenschaftler aus Informatik, Medizin, Ethik und Philosophie zusammenarbeiten. „Das ist die große Stärke von KEMAI“, findet Professor Ropinski. Die Forschenden wollen sich COVID-19, Lungenkarzinomen sowie dem Fuchsbandwurm widmen, und zwar mithilfe von Computertomographie- und Positronen-Emissions-Bildgebung sowie weiteren klinischen Bildgebungsverfahren. Doch neben diesen Anwendungsbeispielen geht es auch um ethische Fragestellungen in medizinischen Entscheidungsprozessen: Wann vertraut die Medizinerin, der Mediziner dem KI-System? Wie kann ein solches System auf eine unsichere Entscheidung hinweisen? Wer haftet bei falscher Behandlung? „Es geht um Kommunikation zwischen System und Arzt“, erläutert Co-Sprecherin Professorin Birte Glimm vom Institut für Künstliche Intelligenz. „Wir wollen keine Diagnosemaschine, sondern eine Entscheidungsunterstützung. Die Diagnose soll auch weiterhin durch den Arzt gestellt werden.“ KI-Systeme sollen Medizinern aber bestmöglich erklären können, wie eine Vorhersage zustande gekommen ist. Diese Erklärbarkeit ist auch für die Zertifizierung neuer, KI-gestützter medizinischer Produkte unabdingbar. Damit für diese großen Datenmengen und das maschinelle Lernen auch genügend Rechenpower vorhanden ist, soll an der Uni Ulm zudem im Kontext von KEMAI ein neuer Machine Learning-Cluster aufgebaut werden.
Das ambitionierte Graduiertenkolleg KEMAI will die Promovierenden innerhalb von vier Jahren zum Doktortitel führen und ihnen damit auch einen Startvorteil auf dem Arbeitsmarkt verschaffen. Ein strukturiertes Qualifikationsprogramm und innovative Forschung auf höchstem Niveau gehen dabei Hand in Hand. KEMAI wird in die International Graduate School in Molecular Medicine Ulm (IGradU) integriert, die 2007 im Rahmen der Exzellenzinitiative gegründet wurde, und profitiert so von bereits erfolgreich etablierten Strukturen.