Editorial

Das Zwei-Minuten-Echo dank künstlicher Intelligenz



Am diesjährigen ESC Kongress wurden eine ganze Reihe von Studien vorgestellt, die den Wert der künstlichen Intelligenz (KI) im Bereich der Kardiologie evaluierten. Diese Studien und der Einsatz von KI sind Ausdruck der Tatsache, dass die Digitalisierung in der Medizin weiter fortschreitet. Die Zurückhaltung, mit der diese Studien bei den Ärzten aufgenommen wurden, ist Zeugnis der berechtigten Ambivalenz dieser Entwicklung gegenüber. Anhand dieser Studien können ein paar Überlegungen zum gegenwärtigen Stand der KI in der Medizin und speziell der Kardiologie angestellt werden.

1. Hype und Studienqualität: Es herrscht gegenwärtig ein Hype um die KI, welche oft in keiner Weise dem Nutzen der KI für die Medizin entspricht. In drei Studien wurde die KI eingesetzt, um diagnostische Möglichkeiten zu verbessern. In einer südkoreanischen Studie wurde mittels eines Deep Learning Algorithmus untersucht, ob anhand eines 12-Ableitungs-EKG das Auftreten eines Vorhofflimmerns vorausgesagt werden kann. Der positive prädikative Wert betrug 42%. In einer anderen Studie untersuchten schwedische Autoren unter Einbezug von enorm vielen Daten prädikative prognostische Faktoren bei Patienten mit akutem Thoraxschmerz. Wenig überraschend erwies sich das Troponin als sehr guter prädiktiver Faktor. In einer dritten Studie konnte gezeigt werden, dass anhand einer Echokardiografie eine schwere Aortenstenosen mittels KI mindestens so gut wie durch den ärztlichen Untersucher diagnostiziert werden kann. Nur waren die Echokardiografien auf welcher die Untersuchung beruhte zum Teil mangelhaft (keine Angabe von Druckgradienten oder Klappenöffnungsflächen). In diesen drei Studien hat die KI also keinen klinischen Mehrwert gebracht. Die dritte der Studien ist auch ein Beispiel für die bisher schlechte Validierung der KI in klinischen Studien. Eine grosse Meta-analyse publiziert im Lancet Digital Health 2019 ergab sehr ernüchternde Resultate bezüglich der Qualität der Studien zur KI-Technologie. Praktisch alle Studien (99%) hatten einen inadäquaten Studien- aufbau, z.B. nur retrospektive Datenanalyse, kein direkter Vergleich von KI und Mensch, keine Berechnung einer sample size für die statistische Auswertung. Die bisherigen, vielversprechenden Studienresultate müssen daher mit Vorsicht betrachtet werden. Sie überschätzen deren Wert im klinischen Alltag, wo der Arzt meist einen Befund (z.B. Röntgenbild) aufgrund von zusätzlichen klinischen Angaben interpretiert und damit sicher eine grössere diagnostische Genauigkeit hat, als wenn er einen isolierten Befund beurteilen muss.

2. Fehlende Standards und Gesetze: In der am ESC vielbeachteten EchoNet-RCT Studie war KI ähnlich zuverlässig in der Bestimmung der linksventrikulären Auswurffraktion wie geschulte Fachpersonen. Professor Carolyn Lam, ein Mitglied vieler Expertengremien an internationalen Kongressen, hat vorausgesehen, dass die KI zur Unterstützung der kardialen Bildgebung eingesetzt werden wird und hat deshalb bereits 2020 die KI Firma US2.AI gegründet. Das Ziel dieser Firma ist es, die normalerweise 30-60 minütige Echokardiografie durch einen Facharzt in eine 2-Minuten Untersuchung durch einen Techniker zu verwandeln. Melissa Walton-Shirley in einem Kommentar in Medscape (0ktober 10, 2022) hat davor gewarnt, dass diese Entwicklung zu einer Reduktion unserer Bereitschaft dem Patienten zu zuhören, ihn zu beobachten und klinisch zu untersuchen, führen würde. Die Vertechnisierung, Entmenschlichung der Medizin und die damit einhergehende Entfremdung von Patient und Arzt sind ernstzunehmende Gefahren der KI. Die Vereinfachung der technischen Untersuchungen kann aber auch eine Chance sein, weil Zeit gewonnen wird für mehr menschliche Interaktion zwischen Arzt und Patient. Über die Veränderungen der ärztlichen Tätigkeit am Patienten hinaus stellen sich bei Einbezug von KI in den diagnostischen Prozess aber viele regulatorische, rechtliche und Datenschutzfragen, wie sie in der lesenswerten Broschüre der FMH «Künstliche Intelligenz im ärztlichen Alltag» vom September 2022 formuliert sind. Für jedes medizinische Gerät, jede diagnostische Apparatur, sei es röntgentechnisch oder labortechnisch, bestehen strenge Standards, die Sicherheit und Zuverlässigkeit der Diagnose garantieren. Keine solche Standards existieren für die KI und deren Anwendung. Die deep learning Algorithmen sind häufig Geschäftsgeheimnisse, die Validierung nicht geregelt und die Qualitätskriterien nicht definiert. Ganz zu schweigen vom rechtlichen Aspekt der Haftpflicht von Fehldiagnosen durch die KI. Mehrere internationale Gremien versuchen entsprechende Rahmenbedingungen zu definieren. Bevor diese erarbeitet sind, können auch die Regulatoren oder die Gesetzgeber nicht aktiv werden. Momentan operiert die KI in der Medizin, wie in allen anderen Bereichen, in einem regulatorischen und gesetzlichen Freiraum.

3. Ethische Fragen zur KI: Die Probleme der KI mit der Ethik kann am Beispiel der CAUSAL-AI Studie aufgezeigt werden, welche mittels causal AI (kausaler künstlicher Intelligenz) eine genaue Risikoabschätzung für kardiovaskuläre Ereignisse zu finden suchte. Dazu wurden die genetischen und klinischen Daten von 1,8 Millionen Individuen mittels der kausalen KI analysiert. Kausale KI errechnete das Risiko nicht nur viel genauer als die bisherigen Scores, sondern konnte auch den Effekt einer präventiven Therapie voraussagen. Fortschrittsenthusiasten sehen darin die Chance die Präven­tionsmassnahmen zu individualisieren. Das wäre möglich, wenn denn die Algorithmen, welche dieses Risiko definieren neutral und zuverlässig wären. Prof. Asselsberg, der Kommentator der Studie am ESC hat gezeigt, dass ein in Amerika eingesetzter Algorithmus die schwarze Bevölkerung massiv benachteiligt. An der Universität Bern wurde dieses Jahr eine software mit einem Algorithmus entwickelt, welche aus Fotografien des Essens dessen Gesundheitswert ableiten kann. Mit diesen täglichen Aufnahmen kann nun z.B. für Krankenkassen ein gesunder Lebensstil dokumentiert werden. Nur, wer bestimmt was gesundes Essen ist? Ethisch stellen sich daher mehrere Fragen: Wer hat das Anrecht auf das Bestimmen der Algorithmen? Wer Anrecht auf die Daten? Sind die Algorithmen transparent, nachvollziehbar und verantwortungsvoll? Kann vom einzelnen Individuum eine genetische Analyse verlangt werden? Ethisch besteht ein Recht auf das Nichtwissen seiner Genetik. – Wie bei der Gesetzgebung fehlt es im Moment an einer übergreifenden KI-Ethik. Einer Ethik, die umsetzbar, messbar und über Interessengruppen (z.B. Patienten, Industrie etc.), Länder und Kulturen vergleichbar ist. Wenn wir die Chancen der KI nutzen wollen, ist es höchste Zeit, dass wir diese Technik regulatorisch, gesetzgeberisch und ethisch in unserer Gesellschaft verankern. Ansonsten besteht die Gefahr, dass KI uns unvorhersehbare Manipulationen und katastrophale Einschränkungen der persönlichen Freiheiten bringt.

Prof. Dr. med. Franz Eberli

Prof. Dr. med. Franz R. Eberli

Stadtspital Zürich Triemli
Klinik für Kardiologie
Birmensdorferstrasse 497
8063 Zürich

franz.eberli@triemli.zuerich.ch

info@herz+gefäss

  • Vol. 12
  • Ausgabe 6
  • November 2022