ÖKG-Jahrestagung: Künstliche Intelligenz in der Medizin
Künstliche Intelligenz (KI) soll menschliche Entfaltung, Autorschaft und Handlungsmöglichkeiten erweitern und nicht begrenzen. KI darf den Menschen nicht ersetzen. Auf diese Kernbotschaft verständigte sich der Deutsche Ethikrat im Rahmen seiner 400 Seiten starken Stellungnahme zur Einschätzung der KI. Die ehemalige Vorsitzende des Ethikrates, Prof. Dr. Alena Buyx, referierte bei der Jahrestagung der Österreichischen Kardiologischen Gesellschaft (ÖKG) in Salzburg.
Die Frage nach dem Umgang mit künstlicher Intelligenz (KI) und ihren potenziellen Gefahren beschäftigt die Philosophie und die Kunst seit den 1950er Jahren – auch wenn die technische Umsetzung damals noch rein in den Bereich der Science Fiction fiel, wie beispielsweise in den Filmen „2001“ und „Dark Star“ zu sehen. „Zum Glück haben wir uns mittlerweile gesellschaftlich darauf geeinigt, dass KI weder die größte Bedrohung der Menschheit ist noch etwas, das uns ein arbeitsbefreites Leben schenken wird“, sagt die ehemalige Vorsitzende des Deutschen Ethikrates, Prof. Dr. Alena Buyx vom Institut für Geschichte und Ethik der Medizin an der Technischen Universität München bei der Jahrestagung der Österreichischen Gesellschaft für Kardiologie (ÖKG) 2024.
In dem über mehrere Jahre erarbeiteten und mehr als 400 starken Bericht zur künstlichen Intelligenz widmete sich der Ethikrat zunächst ausführlich den Fragen nach der Natur von Intelligenz und Verantwortung. Woraus sich eine weitere Frage ergibt, so Buyx, nämlich: Kann eine KI im moralischen Sinne verantwortlich sein? Dies sei jedoch ausschlaggebend dafür, welche Entscheidungen man der KI überlassen könne. In diesem Punkt habe im Ethikrat überraschende Einigkeit geherrscht und man kam zu einem klaren „Nein“. Eine Gleichsetzung der Möglichkeiten künstlicher mit menschlicher Intelligenz im Hinblick auf kluges und planvolles Entscheiden wurde zum aktuellen Zeitpunkt als drastische Abwertung der menschlichen Intelligenz eingestuft.
KI ist Meisterin in Mustererkennung und Management großer Datenmengen
Teile dieser Kapazitäten, also etwa Algorithmen, anhand derer Entscheidungen getroffen werden, besitzt die KI mittlerweile allerdings in höherem Maße als der Mensch. Auch hinsichtlich der Verarbeitung großer Datenmengen und der Erkennung von Mustern ist die KI mittlerweile dem Menschen überlegen. Buyx: „Ein Paper auf Basis vorhandener Literatur erstellen kann die KI viel schneller als wir. Aber das ist nur ein Teil unserer Intelligenz, die mehr ist als rein ,computational‘. Unsere Intelligenz entspringt zu einem wesentlichen Teil einer Leiberfahrung, ist emotional. Wir wissen heute, dass ein erheblicher Teil intelligenter Entscheidungsfindung nicht rein kognitiv abläuft, sondern auch emotive Aspekte einbezieht. Intelligenz ist auch sozial und immer auf ein Gegenüber bezogen. In jede unserer Entscheidungen fließt auch unsere soziokulturelle Geschichte ein. Das ist in absehbarer Zeit nicht durch künstliche Intelligenz zu ersetzen.“ Dieser Punkt sei allerdings kontrovers und es werde derzeit intensiv diskutiert, ob künstliche Intelligenz dies alles einmal wird ersetzen können. Im Ethikrat habe Einigkeit bestanden, dass ein solcher Zustand jedenfalls nicht erreicht werden sollte. Buyx: „Künstliche Intelligenz muss uns dienen. Sie steht nicht mit uns auf Augenhöhe.“ Davon ausgehend hat sich der Ethikrat auf die Position verständigt, dass KI menschliche Entfaltung, Autorschaft und Handlungsmöglichkeiten erweitern und nicht begrenzen soll. KI darf den Menschen nicht ersetzen. Man will also das Potenzial abholen, dabei aber die Nachteile vermeiden, so Buyx.
Verbesserte Algorithmen für Diagnose und Therapie
Im Kontext der Medizin hat KI mittlerweile bereits einige erhebliche Fortschritte ermöglicht. Als Beispiel nennt Buyx Designermoleküle, deren biologische Wirksamkeit nicht zuletzt von der richtigen Faltung abhängt. Diese zu ermitteln bzw. anzupassen bedeutete bis vor kurzem mehrjährige Arbeit im Labor. KI kann die erforderlichen Rechen- und Simulationsaufgaben innerhalb weniger Stunden lösen. Hier ist die Fähigkeit der KI, in großen Datenmengen Muster zu erkennen, ausschlaggebend, so Buyx. Eine weitere Stärke der KI liegt im Bereich der Bildgebung, wo die Fähigkeiten entsprechender Systeme mittlerweile „weit über Facharztniveau“ liegen. Buyx verortet hier noch ein „riesiges Entwicklungspotenzial“.
Die Fähigkeit, Algorithmen mit extremer Schnelligkeit abzuarbeiten, kann beispielsweise auch in der Intensivmedizin oder in der Anästhesiologie genützt werden. Buyx: „Diese Systeme können das Risiko von Patientinnen und Patienten berechnen und innerhalb von Sekunden entsprechende Managementschritte vorschlagen. Das geht so schnell und so weit, dass in Forschungsprojekten die KI-Unterstützung heruntergetaktet werden musste, da sich die Anästhesistinnen und Anästhesisten mit der Menge an Informationen und dem Tempo, mit dem diese präsentiert werden, überfordert fühlten. Nach diesen Anpassungen hatte man ein äußerst hilfreiches System, das im OP quasi in Echtzeit Vorschläge macht.“
Mit den neuen Sprachmodellen werden in naher Zukunft auch medizinische Chatbots an Bedeutung gewinnen. Diese seien mittlerweile in der Lage, auf Fragen sinnvolle und wissenschaftlich fundierte Antworten zu geben, so Buyx. Auffällig sei dabei nicht zuletzt, dass diese Entwicklung nicht in Technologie-affinen Bereichen der Medizin, sondern in der Psychotherapie am weitesten fortgeschritten sind. Erste Anwendungen sind in Kliniken in den USA bereits im routinemäßigen Einsatz. Der nächste Schritt in dieser Entwicklung werden KI-gestützte Avatarärztinnen und Avatarärzte sein, die mit den Patientinnen und Patienten interagieren. Aus Sicht des Ethikrats kann die Anwendung solcher Technologien nicht nur ethisch unbedenklich, sondern sogar geboten sein, wenn man nachweisen kann, dass sie in einzelnen Bereichen besser sind als Ärztinnen oder Ärzte. Dies betreffe nicht zuletzt die Erstattung durch die Sozialversicherungen.
Einblick in die Algorithmen: das ethische Problem der black box
Voraussetzung für den ethisch unbedenklichen KI-Einsatz sei immer, dass die KI menschliche Handlungsoptionen erweitert und nicht verringert. In diesem Zusammenhang müsse auch das Problem des Bias bedacht werden, den die KI in Abhängigkeit von den Daten, mit denen sie trainiert wird, entwickelt. Buyx weist in diesem Zusammenhang auf einen KI-gestützten Algorithmus zur Vorhersage von Nierenversagen auf der Intensivstation hin, bei dem sich gezeigt habe, dass er bei Männern sehr viel zuverlässiger funktioniert als bei Frauen. Ein Blick auf den Datensatz, auf dem der Algorithmus aufbaut, zeige, dass die Daten zu mehr als 90% von Männern stammen. Dies sei nicht nur wissenschaftlich, sondern auch ethisch problematisch. Buyx: „Wir müssen diese Verzerrungen in den Griff bekommen.“
Ein weiteres auch ethisch relevantes Problem stellt der Algorithmus als black box dar. Besonders bei proprietären Systemen sei oft nicht bekannt, auf Basis welcher Daten und Kriterien die KI zu ihren Ergebnissen gelangt. Als Beispiel nennt Buyx einen Algorithmus zur radiologischen Diagnostik von Tuberkulose, von dem sich dann herausgestellt hatte, dass er anhand der Qualität der Röntgenbilder zwischen Industrie- und Entwicklungsländern unterschied und daraus die Tbc-Wahrscheinlichkeit errechnete. Diese Methodik hat sich der selbstlernende Algorithmus selbst beigebracht. Auch wenn derartiges statistisch funktionieren kann, dürfe es nicht die Basis ärztlicher Entscheidungen werden, so Buyx, die auch darauf hinweist, dass KI auf solchen Wegen zu massiven Fehleinschätzungen gelangen kann. Dies sei nicht zuletzt im Zusammenhang mit der Frage relevant, wie viel Verantwortung wir der KI übertragen können und wollen und welche Rolle der Mensch zukünftig in diesen Abläufen spielen wird. Buyx betont, dass die Kenntnis der black box in diesem Zusammenhang essenziell sei. Man müsse wissen, warum die KI tut, was sie tut. Es könne nicht sein, dass beispielsweise Krankenhausanbieter ärztliche Entscheidungen an KI delegieren lassen, ohne dass die damit arbeitende Ärzteschaft wisse, was die KI tut. Neben der ethischen Bedenklichkeit bestehe hier auch das Problem des De-Skilling. Ärztliche Fähigkeiten könnten durch vermehrte Automatisierung verloren gehen. Aktuell befänden wir uns in einer kritischen Phase, so Buyx, da jetzt die Standards festgelegt werden, die unseren Umgang mit der KI in 5 Jahren bestimmen werden.
Sitzung des Präsidenten, ÖKG-Jahrestagung, Salzburg, 31.5.2024