Zertifizierte CME-Fortbildung für Ärztinnen und Ärzte. CME-Punkte sammeln. Kostenfrei. service@arztcme.de

MedicalLearning – Blog zur Zukunft der medizinischen Information

Was darf man einer KI tatsächlich glauben?

02. April 2023

Die KI-Meldung der Woche stammt aus der ct‘: „Eine KI hat für Becks ein neues Bier gebraut. Wir haben eine andere KI gebeten, das Bier zu probieren, damit es ein Mensch nicht tun muss“ (Link). Da ich die Meldung just am 1. April gelesen hatte und die ct‘-Redaktion für ihre Aprilscherze berüchtigt ist, dachte ich: Wow, die Jungs und Mädels hatten wieder mal Spaß.

Beim zweiten Blick weit gefehlt. Denn auf der Website von Becks wird das Bier tatsächlich angekündigt (Link). Jetzt gibt es zwei Möglichkeiten: Entweder die Marketingverantwortlichen von Becks sind coole Hunde mit Hang zur Selbstironie oder sie sind geschmacklose Trittbrettfahrer, die vom KI-Hype auch ein bisschen was abbekommen wollen. Ich kann das nicht entscheiden …

Das führt jetzt direkt zum großen KI-Dilemma: Bei allen großartigen Leistungen der Bots weiß man halt nie so genau, was letztlich stimmt und was nicht. Auch das JAMA hat sich in seiner Ausgabe vom 27. März 2023 dem Thema gewidmet. Der Beitrag AI-Generated Medical Advice — GPT and Beyond beschreibt ein paar Anwendungsszenarien (Link) und fasst den Stand der Dinge so zusammen (Übersetzung von chatGPT):

In Bezug auf KI-generierten medizinischen Rat schlagen wir vor, sich wie bei anderen Innovationen auf relevante soziale Beziehungen und deren Auswirkungen auf die Technologie zu konzentrieren. Wenn Ärzte LLMs (language learning models) zur Entscheidungsfindung nutzen, funktionieren sie wie andere medizinische Ressourcen oder Werkzeuge. Wenn jedoch KI eingesetzt wird, um menschliches Urteilsvermögen zu ersetzen, birgt dies Sicherheitsrisiken für Patienten und kann Ärzte einer rechtlichen Haftung aussetzen. Bis seine Genauigkeit und Zuverlässigkeit bewiesen sind, sollte GPT das Urteilsvermögen von Ärzten nicht ersetzen. Obwohl Ärzte nicht für Schäden verantwortlich sind, die durch auf Verbraucher ausgerichtete LLMs verursacht werden, sollten sie die Patienten über die Risiken aufklären. Sie könnten sich auch für eine Regulierung einsetzen, die Patienten vor falschen oder irreführenden, KI-generierten medizinischen Ratschlägen schützt.

Mit diesen Bedenken sind die JAMA-Leute nicht alleine. In einem offenen Brief forderte eine illustre Runde aus Wissenschaftlern und HighTech-Unternehmern (darunter Elon Musk und Apple-Mitgründer Steve Wozniak) letzte Woche eine Zwangspause für die Entwicklung von KI-Modellen (Link). Und das Ziel dieses Aufrufs können wir sicher alle unterschreiben: Wir müssen gewährleisten, dass die KI zum Wohle der Menschheit beiträgt. Und nicht zu ihrem Schaden.

Weitere Beiträge …