Die Maschinen kommen

Künstliche Intelligenz hält Einzug in die Radiologie. Programme, die auf Deep Learning basieren, führen unter anderem bereits Lungenuntersuchungen im großen Stil durch. Weitere Anwendungen stehen vor dem Durchbruch. (CliniCum 4/18)

Man stelle sich ein intelligentes Computerprogramm vor, das auf CT-Bildern automatisch Knoten in der Lunge aufspürt, das deren Form dreidimensional erfasst und deren Volumen genau bestimmt, das diese Knoten ebenso automatisch gemäß dem Lung-RADS-System kategorisiert und das diese Bilder auch noch auf Knopfdruck mit früheren Bildern desselben Patienten vergleicht. Das mag nach Science Fiction klingen, ist aber bereits Realität. Das Programm heißt Veolity™ und ist ein am Markt erhältliches Produkt, das etwa in den USA beim Lungenkrebsscreening eingesetzt wird.

Hinter diesem Computerprogramm steht eine Technologie, die unter Radiologen derzeit in aller Munde ist: Künstliche Intelligenz. Künstliche Intelligenz war das beherrschende Thema auf dem jüngsten Europäischen Radiologenkongress (ECR 2018), der wie immer in Wien stattfand. Mehr als ein Dutzend Sessions zum Thema standen heuer auf dem Programm. Künstliche Intelligenz ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens beschäftigt. Eine zentrale Säule der Künstlichen Intelligenz ist Deep Learning, eine Methode, die der Funktionsweise des Gehirns nachempfunden ist und auf sogenannten künstlichen neuralen Netzwerken basiert. Das Ergebnis jedenfalls ist ein System, das aus Beispielen lernt und darin selbstständig Muster und Gesetzmäßigkeiten erkennt.

Auf dem Gebiet der Künstlichen Intelligenz wird bereits seit den 1950er Jahren geforscht, Deep Learning stammt aus den 1970er Jahren, doch erst in den letzten Jahren – vor allem aufgrund der technischen Entwicklungen auf dem Gebiet der Computer – konnten diese Konzepte so weit umgesetzt werden, dass sie nun Eingang in die klinische Routine finden. „Künstliche Intelligenz wird die Radiologie tiefgreifend verändern“, ist Prof. Dr. Gram van Ginneken, Professor für Medizinische Bildanalyse am Radboud University Medical Center in Nijmegen (Niederlande) überzeugt. „Jede Arte von Detektion oder Klassifikation, für die ein Mensch ein Sekunde braucht, kann genauso gut von einem Computer erledigt werden“, lautet sein Credo.

Der Computer übernimmt

Bereits jetzt gibt es eine Reihe von Anwendungen auf Basis Künstlicher Intelligenz, die – so wie das Programm zum Lungenscreening – bereits am Markt erhältlich und entsprechend im Einsatz sind. Etwa BoneXpert™, eine Software, die anhand von Röntgenbildern der Hand das Alter von Kindern und Jugendlichen bestimmt. Das Programm funktioniert so akkurat, dass laut einer Umfrage die Hälfte der benutzenden Radiologen gar nicht mehr auf die Bilder schaut, sondern nur noch das Ergebnis des Programms zur Kenntnis nimmt. Eine andere Anwendung, die auf Deep Learning bzw. Künstlicher Intelligenz beruht, nennt sich CAD4TB™ (Computer-Aided Detection for Tuberculosis).

Es handelt sich um ein Programm, das auf digitalen Röntgenbildern Strukturen erkennt, die auf Tuberkulose hinweisen. Die Software wird derzeit in insgesamt 24 armen Ländern eingesetzt, in denen Radiologen Mangelware sind und daher eine automatische Tuberkuloseerkennung höchst willkommen ist. „Als wir die erste Ver sion veröffentlicht haben, wurde sie sofort in Sambia verwendet – noch vor der Zulassung“, erzählt van Ginneken, der die Anwendung entwickelt hat. Während sich also in Europa und in den USA Radiologen die bange Frage stellen, ob sie in baldiger Zukunft durch Computerprogramme ersetzt werden, übernehmen die Maschinen dort, wo es gar keine Radiologen gibt, bereits die Rolle der Menschen. Mittlerweile gibt es auf Deep Learning basierende Programme, die mit 99-prozentiger Treffsicherheit Mammogramme richtig beurteilen können.

„In Ländern wie China wird es niemals genug Radiologen geben, um ein Mammographie-Screeningprogramm nach westlichem Muster zu etablieren“, erklärt Prof. Dr. Michael Forsting, Direktor des Instituts für Diagnostische und Interventionelle Radiologie und Neuroradiologie des Universitätsklinikums Essen. Wo keine Radiologen zur Verfügung stehen, springt also die Künstliche Intelligenz in die Bresche. Doch diese Entwicklung werde nicht auf ärmere Länder beschränkt bleiben, ist sich Forsting sicher: „Ich habe keinen Zweifel daran: In einigen Jahren wird Brustkrebsscreening von intelligenten Programmen durchgeführt werden.“ Dieselbe Entwicklung prophezeit er für Followup- Untersuchungen etwa bei Prostatakrebs oder Leberkrebs sowie für MRT-Untersuchungen an Patienten mit Multipler Sklerose, bei denen die für diese Erkrankung typischen Plaques quantifiziert werden.

Blick in die Biologie

Forstings Krankenhaus ist bei der Entwicklung neuer Anwendungen ganz vorne dabei. In einem Essener Forschungsprojekt wurde bei einer Kohorte von Uteruskarzinompatientinnen allein durch PET/MR-Bilder des Karzinoms sowie einiger anderer Parameter mit einer Treffsicherheit von 95 bis 97 Prozent vorhergesagt, ob die Patientinnen bereits Metastasen entwickelt haben. „Da haben wir allein mit Künstlicher Intelligenz ganz tief in die Biologie des Tumors geblickt“, sagt Forsting. An seiner Klinik wurde auch mit nur 50 CT-Scans ein neuronales Netzwerk darauf trainiert, idiopathische interstitielle Pneumonie zu erkennen, eine radiologisch schwer zu diagnostizierende Erkrankung. Die Diagnosen eines spezialisierten Radiologen erwiesen sich in 72 Prozent der Fälle als korrekt, das KI-Programm lag bei 70 Prozent richtig – und kombiniert erreichten beide gemeinsam eine Treffsicherheit von 77 Prozent.

Ein beliebtes Anwendungsgebiet von Künstlicher Intelligenz ist auch die Bildsegmentierung, also die exakte Abgrenzung bestimmter anatomischer oder pathologischer Strukturen von ihrer Umgebung, zum Beispiel gesundes Hirngewebe von Tumorgewebe in Schädel-Magnetresonanztomographien oder Organe in Ganzkörper-Computertomographien oder Magnetresonanztomographien. „Mit Deep-Learning-Methoden lassen sich die inneren Organe genauso gut darstellen wie durch manuelle Bearbeitung – allerdings braucht der Computer zwei Minuten, während der Radiologe zwei Stunden daran sitzt“, sagt Dr. Joon Beom Seo vom Artificial Intelligence for Medical Imaging Research & Development Center der Universität Ulsan in der südkoreanischen Hauptstadt Seoul. „Wenn wir das in die klinische Routine einführen, beginnt eine neue Ära“, ist er überzeugt.

Verborgene Informationen

Deep Learning ermöglicht auch, neue Krankheitsmuster zu erkennen, indem es klinisch nutzbare Informationen aus multimodalen Bilddaten extrahiert, die ansonsten verborgen blieben. Ein internationales Forscherteam hat zum Beispiel eine aus 3D-Gesichtsbildern bestehende Datenbank mit genetischen Informationen verknüpft. Eines der Ergebnisse war, dass dabei in den Bilddaten Biomarker gefunden wurden, die auf eine Genmutation verweisen. „Bestimmte Charakteristika von menschlichen Gesichtern lassen auf eine Mutation des SLC35D1-Gens schließen“, berichtet Prof. Dr. Paul Suetens, Professor für medizinische Bildgebung und Bildverarbeitung an der Katholischen Universität in der belgischen Stadt Löwen. Dieses Gen ist mit der Schneckenbecken-Dysplasie assoziiert, einer sehr seltenen, letalen Form der Skelettdysplasie. Eine weitere Anwendung dieser Verknüpfung von Gesichtsbildern und genetischen Informationen ist die Rekonstruktion von Gesichtern aus menschlicher DNA, so dass sich etwa die Gesichtszüge längst verstorbener Persönlichkeiten rekonstruieren lassen.

Noch gibt es Grenzen

Den beeindruckenden Möglichkeiten zum Trotz sind der Künstlichen Intelligenz in der Radiologie noch enge Grenzen gesetzt. „Künstliche Intelligenz steckt noch in den Kinderschuhen“, betont Suetens. Wenn nur wenige Daten vorliegen, aber auch wenn es um komplexe Formen und um Deformationen gehe, dann funktionieren neuronale Netzwerke nicht gut. Und während etwa ein menschliches Gehirn aus rund 86 Milliarden Nervenzellen besteht, kommt ein typisches künstliches neurales Netzwerk auf nur 20 Millionen Knotenpunkte. Das ist derzeit die Obergrenze. „Wenn wir die Zahl der Knotenpunkte vergrößern, werden die Ergebnisse schlechter. Wir wissen nicht warum“, bekennt Suetens. Ein anderes Problem, mit dem Künstliche Intelligenz zu kämpfen hat, ist die Qualität der Daten.

Jene Bilder, von denen neuronale Netzwerke lernen, sowie jene Bilder, die dann mittels Deep Learning analysiert werden, müssen einheitlich sein. Solange die Daten nicht einheitlich sind, weil jedes Haus und jedes Institut die Untersuchungen auf jeweils eigene Weise durchführen, können diese nicht automatisch nach Informationen durchforstet werden. Dr. Ben Glocker, Senior Lecturer auf dem Gebiet Medical Image Computing am Imperial College London, musste schon oft erleben, dass ihm für entsprechende Projekte homogene Datensätze versprochen wurden, stattdessen aber erhielt er eine Menge an unterschiedlichen, nicht ausreichend strukturierten Daten. Er zieht einen Vergleich mit Kürbissen: „Wir erwarten eine Kiste voll mit gleich großem, gleich geformtem und gleichfarbigem Gemüse, aber wir bekommen eine Ladung unterschiedlich großer Kürbisse verschiedener Sorten.“

Das Black-Box-Problem

Ein weiteres Problem mit der Künstlichen Intelligenz ist grundlegender Natur: Die Maschinen kommen zwar zu guten Ergebnissen, aber die Menschen können nicht nachvollziehen, wie die Resultate zustande gekommen sind. „Wir können nicht sagen, wie das System zu seinen Ergebnissen kommt“, gesteht Seo. Ein Programm, das auf Künstlicher Intelligenz basiert, ist also eine „Black Box“, ein System, deren innere Funktionsweise unbekannt ist. Das ist für Forscher, die ja möglichst alles herausfinden wollen, ein ziemlich unbefriedigender Zustand. Und dieses Faktum spricht auch eine Urangst des Homo technologicus an: nämlich dass der Mensch die Kontrolle über die Maschinen verliert.

ECR 2018 – Europäischer Radiologenkongress, Wien, 28.2.–4.3.18