Die klinische Versorgung durchläuft derzeit eine tiefgreifende Transformation, die maßgeblich durch den Einsatz von künstlicher Intelligenz (KI) vorangetrieben wird.
Diese Innovationen werfen jedoch komplexe ethische Fragen auf, die nicht nur auf das Arzt-Patient-Verhältnis, sondern auch auf den Umgang mit Daten, die Entscheidungstransparenz und die Verantwortungszuweisung in der medizinischen Praxis abzielen.
Das ethische Dilemma besteht in der Balance zwischen technologischem Fortschritt und dem Schutz grundlegender ethischer Prinzipien. Die zentrale Frage, die sich daraus ergibt, lautet: Kann dieses Dilemma durch regulatorische Maßnahmen gelöst werden? Dieser Frage ging eine Session beim Kongress für Kinder- und Jugendmedizin 2024 letzte Woche in Mannheim nach.
Prof. Jan de Laffolie vom Universitätsklnikum Gießen machte für den KI-Einsatz in der Medizin erhebliche ethische Herausforderungen aus und teilte sie in drei Hauptbereiche: Transparenz, Datenschutz und Verantwortlichkeit.
Transparenz: KI-Systeme sind oft „Black Boxes“, deren Entscheidungsprozesse für Menschen schwer nachvollziehbar sind. In der Medizin ist es jedoch essenziell, dass Entscheidungen klar und begründet sind, insbesondere wenn sie Auswirkungen auf Leben und Gesundheit haben. Die fehlende Transparenz kann zu einem Vertrauensverlust seitens der Patienten führen und die Autonomie der Patienten beeinträchtigen.
Datenschutz: Künstliche Intelligenz ist auf riesige Mengen an Gesundheitsdaten angewiesen, um Muster zu erkennen und Vorhersagen zu treffen. Diese Daten sind sensibel und unterliegen strengen Datenschutzbestimmungen, insbesondere in der Europäischen Union, wo die Datenschutz-Grundverordnung (DSGVO) gilt. Die Frage, wie diese Daten sicher gespeichert, verwendet und geteilt werden, ist von zentraler Bedeutung. Unzureichende Schutzmaßnahmen könnten zu Datenmissbrauch oder unbefugtem Zugriff führen, was nicht nur die Privatsphäre der Patienten gefährdet, sondern auch das Vertrauen in das Gesundheitssystem insgesamt untergräbt.
Verantwortlichkeit: Wer ist verantwortlich, wenn ein KI-System eine falsche Diagnose stellt oder eine fehlerhafte Behandlungsentscheidung trifft? Die Zuweisung von Verantwortlichkeiten ist im Kontext von KI-gestützten Systemen schwierig. Haftungsfragen sind besonders relevant, wenn automatisierte Systeme Fehler machen, die schwerwiegende gesundheitliche Folgen haben.
Die Schaffung eines robusten regulatorischen Rahmens ist ein möglicher Ansatz, um diese ethischen Herausforderungen anzugehen. Prof. de Laffolie stellte dazu den Artificial Intelligence Act der EU vor, der darauf abzielt, KI-Systeme zu klassifizieren und strengere Anforderungen an Hochrisiko-Anwendungen, zu denen auch medizinische KI gehört, zu stellen.
Sein Fazit: Regulatorische Maßnahmen können einen wichtigen Beitrag zur Lösung dieser Herausforderungen leisten, indem sie die Sicherheit, Transparenz und den Schutz der Patientenrechte gewährleisten. Dennoch braucht es weitere Maßnahmen um sicherzustellen, dass KI-Systeme nicht nur innovativ, sondern auch ethisch verantwortungsvoll in die klinische Versorgung integriert werden.
Das Konzept des „Human in the loop“ wird auf absehbare Zeit unumgänglich sein. Die Zukunft der klinischen Versorgung könnte daher ähnlich aussehen wie die Luftfahrt. Auch dort sitzt die meiste Zeit aus guten Gründen der Autopilot am Steuer. Doch in kritischen Situationen kann jederzeit der Mensch – hier der Pilot – die Steuerung übernehmen. Die Verantwortung dafür hat er sowieso.
Text: Reinhard Merz
Bild: Dall-E für arztCME