Die intelligente Recherche- und Texterstellungs-Software ChatGPT von OpenAI wartet mit einer Fülle von Fehlern auf, wenn sie darauf angesetzt wird, Krebsbehandlungspläne zu entwickeln. Das haben Forscher am Brigham and Women’s Hospital der Harvard Medical School in Versuchen festgestellt. Der Chatbot vermischte munter richtige und falsche Informationen, die für Laien und auch für Ärzte, die nicht auf die Krebsbehandlung spezialisiert sind, schlecht oder gar nicht auseinanderzuhalten sind.
Trefferquote bei nur 62 Prozent
Von 104 Plänen, die der Chatbot erstellte, enthielten 98 Prozent neben falschen Ratschlägen mindestens eine Behandlungsempfehlung, die den Richtlinien des National Comprehensive Cancer Network (NCCN) entspricht, heißt es in dem Bericht. 34 Prozent enthielten jedoch eine oder mehrere Empfehlungen, die nicht mit den Richtlinien übereinstimmen. Eine vollständige Übereinstimmung kam den Forschern zufolge nur in 62 Prozent der Fälle vor, was ihrer Meinung nach auf die Komplexität der NCCN-Richtlinien sowie den begrenzten Umfang der ChatGPT-Funktionen zurückzuführen ist.
In 12,5 Prozent der Fälle gab ChatGPT Empfehlungen, die an den NCCN-Richtlinien völlig vorbeigehen. Dazu gehörten auch Empfehlungen zu angeblich wirksamen Therapien für nicht heilbare Krebsarten. Die Forscher sagen, dass es sich dabei um „Fehlinformationen“ handelt, die falsche Erwartungen an die Behandlung eines Patienten weckten und dessen Beziehung zu Ärzten beeinträchtigen könnten. „ChatGPT-Antworten können sehr menschlich klingen und sehr überzeugend sein, auch wenn sie falsch oder gar gefährlich sind“, so Onkologin Danielle Bitterman.
Chatbot kann dennoch hilfreich sein
Dennoch gibt es Bemühungen, KI in das Gesundheitswesen zu integrieren, vor allem zur Rationalisierung administrativer Aufgaben. Anfang dieses Monats ergab eine große Studie, dass der Einsatz von KI zur Früherkennung von Brustkrebs bevorsteht. Dadurch könne die Arbeitsbelastung von Radiologen fast halbiert werden. Allerdings hat der Chatbot hier nicht das letzte Wort. Er gibt lediglich Hinweise, die von erfahrenen Ärzten überprüft werden sollen.
OpenAI kennt die Schwachstelle seines ChatGPT. Das Unternehmen betont nachdrücklich, dass der Bot nicht für die Bereitstellung medizinischer Informationen konzipiert ist und nicht für Diagnose und Therapie bei schweren Erkrankungen verwendet werden sollte.
www.pressetext.com