Wie Künstliche Intelligenz ihre Entscheidungen erklären kann
05.09.2022 - Wenn ein Algorithmus in einer Gewebeprobe einen Tumor ausmacht, verrät er bislang nicht, wie er zu diesem Ergebnis gekommen ist. Das ist wenig vertrauenswürdig. Bochumer Forschende verfolgen daher einen neuen Ansatz.
Künstliche Intelligenz (KI) kann so trainiert werden, dass sie erkennt, ob ein Gewebebild Tumor enthält. Wie sie ihre Entscheidung trifft, bleibt bislang jedoch verborgen. Ein Team des Forschungszentrums für Protein-Diagnostik, kurz PRODI, der Ruhr-Universität Bochum entwickelt einen neuen Ansatz: Mit ihm wird die Entscheidung einer KI erklärbar und somit vertrauenswürdig. Den Ansatz beschreiben die Forschenden um Prof. Dr. Axel Mosig in der Zeitschrift "Medical Image Analysis", online veröffentlicht am 24. August 2022.
Für die Arbeiten kooperierte Bioinformatiker Axel Mosig mit Prof. Dr. Andrea Tannapfel, Leiterin des Instituts für Pathologie, der Onkologin Prof. Dr. Anke Reinacher-Schick vom St. Josef Hospital der Ruhr-Universität sowie dem Biophysiker und PRODI-Gründungsdirektor Prof. Dr. Klaus Gerwert. Die Gruppe entwickelte ein neuronales Netz, also eine KI, die einordnen kann, ob eine Gewebeprobe Tumor enthält oder nicht. Dazu fütterten sie die KI mit vielen mikroskopischen Gewebebildern, von denen einige tumorhaltig, andere tumorfrei waren.
"Neuronale Netze sind zunächst eine Black Box: Es ist unklar, welche Unterscheidungsmerkmale ein Netzwerk aus den Trainingsdaten lernt", erläutert Axel Mosig. Im Vergleich zu menschlichen Expertinnen und Experten fehlt ihnen die Fähigkeit, Entscheidungen zu erklären. "Gerade bei medizinischen Anwendungen ist es aber wichtig, dass die KI erklärbar und somit vertrauenswürdig ist", ergänzt der an der Studie beteiligte Bioinformatiker David Schuhmacher.
KI basiert auf falsifizierbaren Hypothesen
Die erklärbare KI des Bochumer Teams basiert daher auf der einzigen Art von sinnvollen Aussagen, die die Wissenschaft kennt: auf falsifizierbaren Hypothesen. Ist eine Hypothese falsch, so muss das durch ein Experiment nachweisbar sein. Künstliche Intelligenz folgt normalerweise dem Prinzip des induktiven Schließens: Aus konkreten Beobachtungen, den Trainingsdaten, erstellt die KI ein allgemeines Modell, auf dem basierend sie alle weiteren Beobachtungen bewertet.
Das Problem dahinter hat der Philosoph David Hume bereits vor 250 Jahren beschrieben und lässt sich leicht veranschaulichen: Wenn man noch so viele weiße Schwäne beobachten würde, könnte man aus diesen Daten trotzdem niemals schließen, dass alle Schwäne weiß sind und dass es keine schwarzen Schwäne gibt. Die Wissenschaft bedient sich daher der sogenannten deduktiven Logik. Bei diesem Vorgehen ist eine allgemeine Hypothese der Ausgangspunkt. Zum Beispiel wird die Hypothese, dass alle Schwäne weiß sind, durch die Beobachtung eines schwarzen Schwans falsifiziert.
Aktivierungskarte zeigt, wo der Tumor erkannt wird
"Auf den ersten Blick erscheinen die induktiv arbeitende KI und die deduktive wissenschaftliche Methode fast unvereinbar", sagt die ebenfalls an der Studie beteiligte Physikerin Stephanie Schörner. Aber die Forschenden fanden einen Weg. Ihr neu entwickeltes neuronales Netz liefert nicht nur eine Klassifikation, ob eine Gewebeprobe tumorhaltig oder tumorfrei ist. Sie erzeugt zusätzlich eine Aktivierungskarte des mikroskopischen Gewebebildes.
Die Aktivierungskarte orientiert sich an einer falsifizierbaren Hypothese, nämlich dass die vom neuronalen Netz abgeleitete Aktivierung genau den Tumorregionen in der Probe entspricht. Mit ortsspezifischen molekularen Methoden kann diese Hypothese überprüft werden.
"Dank der interdisziplinären Strukturen am PRODI haben wir beste Voraussetzungen, um den hypothesenbasierten Ansatz zukünftig in die Entwicklung vertrauenswürdiger Biomarker-KI einfließen zu lassen, beispielsweise um bestimmte Therapie-relevante Tumor-Subtypen unterscheiden zu können", resümiert Axel Mosig.
Förderung
PRODI wird gefördert vom Ministerium für Kultur und Wissenschaft des Landes NRW (Grantnummer 111.08.03.05-133974). Das Bundesministerium für Bildung und Forschung förderte einen Teil der Arbeiten im Rahmen des Projekts "Slide2Mol" unter dem Förderkennzeichen 031L0264.
Originalveröffentlichung: David Schuhmacher et al.: A framework for falsifiable explanations of machine learning models with an application in computational pathology, in: Medical Image Analysis, 2022, DOI: 10.1016/j.media.2022.102594
Kontakt
Ruhr-Universität Bochum
Universitätstr. 150
44801 Bochum
Deutschland
+49 234 32 23 201
+49 234 32 14 14201