KI-Serie

ChatGPT in der Medizin: Zwischen Revolution und Vorsicht



ChatGPT (Chat Generative Pre-trained Transformer) weckt weltweit in der Medizinbranche sowohl Hoffnung als auch Bedenken. Experten betonen sein revolutionäres Potenzial für den Gesundheitssektor, mahnen aber gleichzeitig zu einer durchdachten Einführung und kritischen Nutzung, um Risiken zu vermeiden. ChatGPT, entwickelt von OpenAI, einem Unternehmen mit Sitz in Kalifornien, erfreut sich grosser Beliebtheit und findet bereits im Alltag vielfältige Anwendung, beispielsweise im Bereich Kundenservice und Support, als Assistent für E-Mail und Präsentationserstellung, in sozialen Medien, bei der Programmierung und Softwareentwicklung sowie in der Bildung und Lehre.

Was ist eigentlich ChatGPT?

ChatGPT ist ein fortschrittliches Sprachmodell (Large Language Model), das auf der Transformer-Architektur basiert. Es wurde durch die Analyse einer riesigen Menge an Textdaten trainiert, um Sprachmuster, Grammatik und Stil zu erkennen. Der Chatbot wurde mit einem umfangreichen Textdatenkorpus trainiert, der etwa 570 GB an Datensätzen umfasst, einschliesslich Webseiten, Büchern und weiteren Quellen. Dies klingt zwar nach einer sehr grossen Datenmenge, doch da es sich um reine Textdaten handelt und das Modell die Daten nicht selbst speichert, sondern nur auf deren Basis trainiert wurde, ist der tatsächliche Speicherbedarf relativ gering. Das Sprachmodell kann bereits 50 Sprachen und verarbeitet ca. 10 Millionen Anfragen pro Tag von 100 Millionen wöchentlichen Nutzern. Dieses Training ermöglicht es ChatGPT, Texte zu generieren, die in Struktur und Inhalt menschenähnlich sind. Bei der Verarbeitung einer Benutzereingabe zerlegt ChatGPT den Text in kleinere Einheiten, sogenannte Tokens, und generiert daraufhin eine Antwort, indem es das nächste wahrscheinliche Token basierend auf dem Kontext der vorherigen Tokens vorhersagt. Anders gesagt, wenn ich dem System ein Wort eingebe, ermit­telt es anhand statistischer Wahrscheinlichkeiten, welches Wort wahrscheinlich folgen wird. Dieser Prozess ermöglicht es ChatGPT, kohärente und kontextbezogene Antworten zu formulieren. Darüber hinaus kann ChatGPT für spezifische Aufgaben oder Richtlinien feinabgestimmt werden, um bestimmten ethischen oder praktischen Standards zu entsprechen.

In der Praxis kann ChatGPT eine breite Palette von Aufgaben bewältigen, die ein Verständnis natürlicher Sprache erfordern, von der Beantwortung von Fragen bis hin zur Textgenerierung, indem es auf sein umfangreiches Training und seine Fähigkeit, den Kontext zu verstehen, zurückgreift. Also, zusammengefasst, besitzt das Modell kein intrinsisches Wissen, sondern stützt sich auf statistische Analysen. Es ist momentan nicht angebracht, zu behaupten, dass dies der menschlichen Intelligenz in irgendeinem Aspekt gleichkommt. Trotzdem eröffnet es schon jetzt zahlreiche Anwendungsbereiche, einschliesslich in der Herz-Gefässmedizin. Es ist wichtig zu betonen, dass ChatGPT und ähnliche Künstliche Intelligenz (KI)-Tools die fachliche Expertise und Urteilskraft von medizinischem Personal nicht ersetzen können.

Einsatz von ChatGPT in der Herz-Gefässmedizin

Ärzte können ChatGPT für verschiedene Aufgaben nutzen, darunter Informationsrecherche zu medizinischen Themen, Unterstützung bei der Patientenkommunikation durch Generierung verständlicher Erklärungen medizinischer Sachverhalte und Übersetzungen in alle Sprachen, Hilfe bei der Ausbildung und Weiterbildung durch Bereitstellung von Lehrmaterialien und als Hilfsmittel zur Ideenfindung für Forschungsprojekte. Andererseits wird ChatGPT bereits von vielen Patienten genutzt, um bestimmte Diagnosen und Vorschläge selbst zu erforschen. In einer kürzlich veröffentlichten Studie schnitt sogar ChatGPT besser ab als Fachpersonen, wenn es darum geht, auf Online-Medizinforen zu beraten. Die Studie, durchgeführt auf der Plattform AskDocs mit ca. 452’000 Mitgliedern, die es Menschen ermöglicht, medizinische Fragen zu stellen, die von verifizierten Gesundheitsfachkräften beantwortet werden, sammelte insgesamt 195 Dialoge. In dieser Studie, bei der Patientenfragen aus dem AskDocs-Subreddit von Reddit gesammelt und sowohl von Ärzten als auch von ChatGPT beantwortet wurden, wurden die Antworten von ChatGPT als deutlich besser gewertet. Im Detail wurde die Studie wie folgt durchgeführt: Die ursprünglichen Fragen wurden anschliessend ChatGPT gestellt, dessen Antworten von einem Gremium aus drei lizenzierten Ärzten bewertet wurden. Die Ärzte verglichen die Antworten hinsichtlich Informationsqualität und Einfühlungsvermögen. Jede Bewertung erfolgte auf einer fünfstufigen Skala von “sehr schlecht” bis “sehr gut” für die Qualität bzw. von “nicht empathisch” bis “sehr empathisch” für das Einfühlungsvermögen. In 78,6% der 585 abgeschlossenen Bewertungen bevorzugte das Gremium die Antworten von ChatGPT gegenüber denen der Ärzte. Die Antworten von ChatGPT waren mit 168 bis 245 Wörtern auch länger als die der Ärzte, die zwischen 17 und 62 Wörtern lagen. Die Antworten der KI wurden zudem signifikant höher sowohl in Bezug auf Qualität als auch Empathie bewertet. Im Durchschnitt erzielten ChatGPTs Antworten eine 4 in Qualität und eine 4,67 in Empathie. Im Vergleich dazu erreichten die Antworten der Ärzte eine 3,33 in Qualität und 2,33 in Empathie. Insgesamt hatte ChatGPT 3,6-mal mehr qualitativ hochwertige Antworten und 9,8-mal mehr empathische Antworten als die Ärzte. Also, KI scheint nicht nur akkurater, sondern auch empathischer zu sein.

Weitere Sprachmodelle

Eine weitere Applikation hat Google entwickelt mit “Google Gemini”, vormals bekannt als “Google Bard”. Dies widerspiegelt eine revolutionäre Software, die das Potenzial hat, die medizinische Suche und Forschung zu transformieren. Diese KI-basierte Anwendung bietet ähnliche Funktionen wie das bekannte KI-Tool ChatGPT, ist jedoch speziell darauf ausgerichtet, medizinischen Fachkräften und Patienten massgeschneiderte Unterstützung zu bieten. Gemini ermöglicht es, individuelle Antworten auf komplexe medizinische Fragen zu generieren, fachspezifische Texte zu verfassen und zu bearbeiten sowie bei der medizinischen Forschung und Programmierung von gesundheitsbezogenen Anwendungen zu assistieren. Ein besonderer Vorteil von Gemini ist seine Fähigkeit, selbst in der kostenlosen Version, mit den neuesten medizinischen Informationen zu arbeiten. Neben Gemini hat Google mit Med-PaLM, kurz für „Medical Pre-trained Attention-based Language Model“, ein medizinspezifisches Modell präsentiert. Im Gegensatz zu ChatGPT, (KI für allgemeine Zwecke), wurde Med-PaLM speziell für den Einsatz im medizinischen Bereich konzipiert und basiert auf 540 Milliarden Parametern. Ein in Nature veröffentlichter Bericht zeigt, dass die von Med-PaLM erzeugten Antworten “sich sehr akkurat mit den Antworten von Klinikern vergleichen lassen.” Dieser spezial­isierte Ansatz von Google zeigt eine gezielte Bemühung, KI in die Gesundheitssysteme zu integrieren.

Risiken von Sprachmodellen

Obwohl diese neuen Tools in Zukunft nicht mehr wegzudenken sind, ist es auch wichtig, dass man sich der Limitationen und Risiken von solchen KI-gesteuerten Systemen bewusst ist. Anwender, die nicht mit den zugrundeliegenden Prozessen vertraut sind, übersehen leicht, dass auch fortschrittliche KI-Systeme im Kern auf Mustererkennung beruhen und Sätze generieren, die lediglich auf Wahrscheinlichkeitsanalysen basieren. Somit repräsentieren sie, entgegen der durch den Namen implizierten Annahme, keine Intelligenz im herkömmlichen Verständnis. Die Nutzung von ChatGPT in der Medizin birgt Risiken, darunter die Genauigkeit der Informationen, Datenschutzbedenken und die potenzielle Abhängigkeit von KI-gesteuerten Entscheidungen. Fehlinformationen können zu fehlerhaften Diagnosen oder Behandlungsempfehlungen führen. Die Haftung und wer dafür verantwortlich wäre in einem solchen Fall ist nicht geklärt, und ob ein solches System als Medizinprodukt zuerst geprüft und zugelassen werden muss, sind alles offene Fragen. Datenschutz ist ebenfalls kritisch, da sensible Patientendaten geschützt werden müssen. Zudem könnte eine übermässige Abhängigkeit vom KI-System die klinische Urteilsfähigkeit beeinträchtigen. Eine sorgfältige Überwachung und regulative Massnahmen sind notwendig, um diese Risiken zu minimieren. Deshalb ist es wichtig, trotz des enormen revolutionären Potenzials von KI, diese Bedenken bezüglich der Systeme von ChatGPT und Co. ernst zu nehmen und nicht blind den neuen Systemen zu vertrauen, ohne diese zu hinterfragen.

Dieser Text wurde von ChatGPT 4.0 auf Grammatik und Stil korrigiert.

Copyright bei Aerzteverlag medinfo AG

Prof. Dr. Dr. med. Christoph Gräni

PhD, FESC, FACC, FSCCT, FSCMR
Leiter kardiale Bildgebung
Universitätsklinik für Kardiologie
Inselspital Bern
Freiburgstrasse 18
3010 Bern

christoph.graeni@insel.ch

Es besteht keine Beteiligung des Autors an den erwähnten Produkten, weder in Bezug auf deren Entwicklung noch in finanzieller Hinsicht.

1. https://openai.com/
2. https://chat.openai.com/
3. https://gemini.google.com/
4. https://sites.research.google/med-palm/
5. Ayers JW et al. JAMA Intern Med. 2023;183(6):589-596. doi:10.1001/jamainternmed.2023.1838
6. Singhal, K et al. Nature 620, 172–180 (2023). https://doi.org/10.1038/s41586-023-06291-2

info@herz+gefäss

  • Vol. 14
  • Ausgabe 2
  • April 2024