Zertifizierte CME-Fortbildung für Ärztinnen und Ärzte. CME-Punkte sammeln. Kostenfrei. service@arztcme.de

MedicalLearning – Blog zur Zukunft der medizinischen Information

ESMO veröffentlicht erste Leitlinie zur sicheren Anwendung von Large Language Models

20. Oktober 2025

Beim ESMO 2025 in Berlin wurde die erste Leitlinie vorgestellt, die bei der verantwortungsvollen Nutzung KI-gestützter Sprachmodelle unterstützen soll.

 

Die European Society for Medical Oncology (ESMO) hat vorgestern im Rahmen des diesjährigen ESMO in Berlin die ESMO Guidance on the Use of Large Language Models in Clinical Practice (ELCAP) vorgestellt. Es ist das erste strukturierte Papier, das den sicheren und effektiven Einsatz von KI-Sprachmodellen in der Onkologie beschreibt.

Die Guideline wurde im ESMO-Fachjournal Annals of Oncology veröffentlicht, parallel wurden die aktuellen Entwicklungen am Sonntag morgen beim Frühstückssysmposium ChatGPT and Cancer Care um 8.30 Uhr diskutiert. Die wachsende Bedeutung von Künstlicher Intelligenz in der Onkologie ist seit langem unstrittig, üder das Tempo, mit dem die LLMs sich in den letzten zwei Jahren entwickelt haben, zeigten sich aber auch die verwundert, die wissenschaftlich an diesem Thema arbeiten.

„Mit ELCAP bietet ESMO einen pragmatischen, onkologiespezifischen Rahmen, der KI integriert, ohne klinische Verantwortung, Transparenz oder einen robusten Datenschutz zu vernachlässigen“, erklärte ESMO-Präsident Fabrice André. Die ESMO trägt der Entwicklung zudem mit einem eigenen Satellitenkongress Rechnung, der in diesem Jahr zum ersten mal stattfindet, vom 12.-14. November ebenfalls in Berlin: ESMO AI and Digital Oncology.

Die Empfehlungen sind in drei Anwendungstypen gegliedert, mit 23 Konsens-Statements zu Do’s und Dont’s für den klinischen Alltag:

  • Typ 1: Patienten-orientierte Anwendungen, etwa Chatbots für Aufklärung oder Symptommanagement. Diese sollen die klinische Versorgung ergänzen und in überwachten Strukturen mit klar definierten Eskalationswegen sowie striktem Datenschutz betrieben werden.
  • Typ 2: HCP-orientierte Tools wie Entscheidungsunterstützung, Dokumentation oder Übersetzung erfordern eine formale Validierung, transparente Angabe von Limitationen sowie eine eindeutige menschliche Verantwortlichkeit für klinische Entscheidungen.
  • Typ 3: Institutionelle Backendsysteme, etwa in elektronischen Gesundheitsakten, bedürfen eines Testings vor Implementierung, einer kontinuierlichen Überwachung hinsichtlich Bias und Leistungsänderungen, institutioneller Governance sowie einer Revalidierung bei Änderungen von Prozessen oder Datenquellen. Die Nutzer müssen zudem wissen, wann solche Systeme im Einsatz sind, da ihre Auswirkungen von Interoperabilität und „Privacy by Design“-Prinzipien abhängen.

Durch die Unterscheidung zwischen patientenorientierten, klinikerorientierten und institutionellen Systemen konzentriert sich ELCAP auf assistive LLMs, die unter menschlicher Aufsicht Informationen bereitstellen oder Inhalte entwerfen, jedoch keine autonomen Entscheidungen treffen.

Doch die „agentischen“ KI-Modelle, die eigenständig Aktionen initiieren können, stehen bereits in den Startlöchern. Diese werden neue sicherheitsrelevante, regulatorische und ethische Herausforderungen mit sich bringen und bei der Diskussion im Rahmen des Frühstückssymposiums war man sich einig: Sie werden neue, spezifische Leitlinien erfordern. Es bleibt spannend.

Text: Reinhard Merz
Bild: Reinhard Merz

Weitere Beiträge …