1. Dez. 2023Die digitale Praxis

Wenn KI-Chatbots für menschlich gehalten werden

Anwendungen mit Künstlicher Intelligenz verblüffen. Der Grat zwischen menschlicher und künstlicher Interaktion wird immer schmaler.

healthcare chatbot technology concept with modern flat style vector illustration
ribkhan/AdobeStock

Auf Jama Network, einem Konsortium von begutachteten, allgemeinmedizinischen und fachärztlichen Publikationen, wurde im August eine interessante Studie veröffentlicht („Comparison of Ophthalmologist and Large Language Model Chatbot Responses to Online Patient Eye Care Questions“). Dabei haben US-Forscher einer Gruppe von acht Augenärztinnen und Augenärzten verblindet Antworten auf 200 Beratungsanfragen vorgelegt, die zwischen 2007 und 2016 auf der US-Online-Plattform Eye Care Forum gepostet worden sind. Die Hälfte der Antworten entsprachen tatsächlichen Auskünften von Medizinern. Die andere Hälfte hatte ein Chatbot erstellt.

Vorsicht vor dem Halluzinieren

Die acht Mediziner erkannten die Chatbot-Antworten zu 61,3 % – also mit hoher Genauigkeit. Die Studie ergab aber auch, dass die Chatbot-Antworten jenen der Mediziner qualitativ nicht unterlegen waren – auch nicht unter Sicherheitsaspekten. Die Wahrscheinlichkeit, dass der Chatbot nicht korrekte oder unsachgemäße Antworten gab, war nicht höher als bei den menschlichen Erklärungen. Auch die Wahrscheinlichkeit, Schaden anzurichten, war vergleichbar. Mängel attestierten die Wissenschaftlerinnen und Wissenschaftler beiden Antwortgruppen. Sie fanden, dass 4,6 % der Antworten des Chatbots und 5,5 % der Antworten der Kollegen nicht richtig beantwortet waren. Als definitiv schadenbringend werteten sie jeweils 0,9 % der Antworten.

Was die Studie aber feststellt: Chatbots neigen dazu, Datenlücken mit sogenannten „Halluzinationen“ zu füllen („chatbots may hallucinate incorrect information in their responses“). Es handelt sich dabei um überzeugend formulierte Informationen, die nicht auf Fakten basieren. So bestätigte das KI-Modell einmal einem Patienten dessen Befürchtung, eine Kataraktextraktion könne das Auge kleiner werden lassen.

Dennoch fiel das Urteil zum Chatbot insgesamt positiv aus. Die Studienautoren sehen keinen Grund, eine Verdrängung von (Augen-)Ärzten durch Chatbots zu befürchten. Sie erkennen aber das Potenzial von KI als assistierende Systeme. So könnten Chatbots schon vor dem Arzttermin die Probleme der Patienten und Patientinnen erfragen und kategorisieren.

Bernstein IA et al., JAMA Netw Open. 2023; 6(8): e2330320 doi:10.1001/jamanetworkopen.2023.30320

Dieser Beitrag erschien auch im Printmagazin Medical Tribune