Sie sind Medizinethiker am Inselspital in Bern und arbeiten im neuen «CAIM Embedded Ethics Lab». Was sind Ihre Aufgaben?
In der Insel Gruppe unterstützen wir Gesundheitsfachpersonen, wenn sie bei ihrer Arbeit ethischen Problemen oder Dilemmata begegnen. Dabei geht es nicht darum, dass wir ihnen sagen, was richtig oder falsch ist. Vielmehr helfen wir Ihnen bei ethisch schwierigen klinischen Entscheidungen.
Am CAIM möchten wir alle Aktivitäten ethisch unterstützen – das umfasst mehrere Ebenen. Zum einen wollen wir bewusst einen öffentlichen Dialog mit der Gesellschaft führen. Zweitens möchten wir unseren Forschenden die Möglichkeit geben, über die ethischen Herausforderungen ihrer Arbeit zu reflektieren. Der dritte Bereich ist die Lehre für Studierende und junge Forschende. Und viertens findet ja auch in der Ethik Forschung statt. Und diese Forschung versuchen wir mit dem CAIM zu verbinden.
Die Medizin ist eine jahrtausendealte Wissenschaft: Reicht die Expertise von Medizinerinnen und Medizinern nicht mehr aus? Brauchen wir wirklich Künstliche Intelligenz in der Medizin?
Diese kritische Frage könnte man bei den meisten Innovationen stellen. Auch als die Leute angefangen haben, mit der Eisenbahn zu reisen, fragte man sich, warum Pferde als Transportmittel nicht mehr ausreichen. Ich empfinde die KI nicht als eine Notwendigkeit, die man unbedingt braucht, sondern eher als eine Möglichkeit, die man ausschöpfen will.
Wir sehen ja jetzt schon, dass es Lebensbereiche gibt, in denen uns hochentwickelte Computersysteme helfen können, zum Beispiel der Autopilot beim Fliegen. Das sind grundsätzlich positive Entwicklungen. Mit der KI wollen wir nun herausfinden, welche Vorteile sie der Medizin bieten kann.
Ich empfinde die Künstliche Intelligenz nicht als absolute Notwendigkeit, sondern eher als eine Möglichkeit, die man ausschöpfen will.
Am CAIM möchten klinische Mitarbeitende und KI-Forschende neue Technologien für eine bessere Versorgung der Patientinnen und Patienten entwickeln. Aber: Können wir solchen Technologien vertrauen?
Meiner Meinung nach ja. Wir vertrauen ja auch sonstiger Diagnostik wie Laboranalysen, Magnetresonanz-Bildgebung, genetischen Tests und anderen diagnostischen Errungenschaften. Für mich ist die KI ein Assistenzsystem, das uns unterstützt, nicht beherrscht. KI könnte es den zukünftigen Ärztinnen und Ärzten sogar erlauben, mehr Zeit mit ihren Patientinnen und Patienten zu verbringen.
Künstliche Intelligenz soll auch Vorhersagen treffen: zum Beispiel wie die Chancen eines Patienten oder einer Patientin auf Heilung stehen. Doch sind die damit verbundenen moralischen Implikationen wie etwa ein Therapie-Abbruch nicht extrem heikel?
Jede Zukunftsvoraussage ist riskant. Das Orakel von Delphi hat schon vor 2’500 Jahren im alten Griechenland versucht, die Zukunft vorauszusagen. Auch das hat manchmal zu schlechten Entscheidungen geführt. Ich denke, das Problem liegt hier nicht in der KI, sondern in der Vorstellung, dass die Zukunft präzise vorhergesagt werden kann – obwohl es immer unzählige mögliche Einflussfaktoren gibt.
Was wir nicht wollen, ist, dass eine Verantwortungslücke entsteht.
Wer entscheidet im digitalen Gesundheitswesen letztlich darüber, wie behandelt wird? Ärztinnen und Ärzte? Patientinnen und Patienten? Computer? Und wer trägt die Verantwortung für diese Entscheide?
In den letzten 50 Jahren hat sich gezeigt, dass Ärztinnen und Ärzte immer weniger allein entscheiden, sondern die Patientinnen und Patienten mitentscheiden – anhand der Informationen, die ihnen vorliegen. Computersysteme helfen nun, die Grundlagen für diese Entscheide noch verständlicher zu machen. Unser Gesundheitssystem entwickelt sich nicht in eine Richtung, bei der die Verantwortung gänzlich an die Technik abgegeben wird.
Patientinnen und Patienten werden grundsätzlich weiter selber über ihre Behandlung entscheiden, ausser in Ausnahmesituationen wie auf dem Notfall oder der Intensivstation. Was wir nicht wollen, ist, dass eine Verantwortungslücke entsteht. Ein Grossteil der Verantwortung muss bei den Patientinnen und Patienten bleiben.
Tragen ethische Diskussionen auch zu mehr Transparenz im Bereich KI für die Medizin bei? Es gibt ja eine Art Kontrollverlust, wenn die «Blackbox» KI zu einem Schluss kommt, den wir aus unserer Erfahrung heraus nicht nachvollziehen können...
Ja, es ist eine Aufgabe der Ethik, zur Transparenz beizutragen. Aber die Ethik soll auch zu einem Perspektivenwechsel verhelfen, sodass man Dinge mal aus einem anderen Blickwinkel anschaut.
Natürlich gibt es vieles, was wir nicht verstehen: Hinter meinem Smartphone steckt für mich quasi auch eine Blackbox. Viel interessanter ist für mich jedoch die Frage: Warum gibt es diese Ängste bei der KI in der Medizin, nicht aber bei meinem Auto oder meinem Smartphone, wo auch viel Technik dahintersteckt?
KI ist kulturell noch so neu, dass wir uns mit der gesellschaftlichen Akzeptanz gedulden müssen. Um Ängste abzubauen, braucht es einen verstärkten Dialog mit der Gesellschaft. Schon vor 200 Jahren hat Mary Shelley anhand des Frankenstein-Mythos aufgezeigt, dass sich die Gesellschaft vor einem Kontrollverlust in Bezug auf neue Technologien fürchtet. Aber keiner will eine Science-Fiction-Welt, in der die KI irgendwann die Herrschaft über die Menschheit übernimmt. Die Realität gestalten immer noch wir selbst.