Mensch versus Maschine

Künstliche Intelligenz und Big Data sind aus der Medizin nicht mehr wegzudenken. Immer neue technische Entwicklungen unterstützen die Ärzteschaft bei Diagnose und Therapie. Warum menschliche Naivität die grösste Gefahr für die zunehmende Digitalisierung ist.

Künstliche Intelligenz (KI) in Arztpraxen ist längst keine Science-Fiction mehr. In vielen Bereichen von Untersuchung bis Therapie ist sie an der Tagesordnung, ohne dass man das als Patientin, Patient überhaupt merkt. So bei der digitalen Analyse medizinischer Bilder aus Radiologie oder Pathologie: Dichtes Brustgewebe, ein Warnsignal für Brustkrebs, kann der Computer inzwischen genauso zuverlässig identifizieren wie krebsverdächtige Lungenknoten. Der Arzt, die Ärztin überprüft dann die Bilder und schlägt bei Unsicherheiten weitere Untersuchungen vor. Bei solchen Routineaufgaben hat sich die Maschine in verschiedenen Studien als überlegen erwiesen. Vergleicht der Arzt die Bilder selbst, kann seine Einschätzung je nach Tagesform schwanken. Die Diagnosen der KI sind dagegen zuverlässig genau – und werden immer genauer, je mehr Daten zur Verfügung stehen.

Auch bei besonders spärlicher Datenlage ist KI wertvoll; z. B. bei der Diagnose seltener Krankheiten. Sie begegnen einem Arzt vielleicht nur einmal in seiner gesamten Karriere, und entsprechend schwierig ist es, ihre Symptome von Anfang an korrekt zu deuten. Ganz anders beim Computer, dessen «Erfahrungsschatz» Daten aus der ganzen Welt umfasst. Die Entwicklung ist noch im Anfangsstadium, aber 2019 wurde ein Programm vorgestellt, das Porträtfotos mit Gen- und Patientendaten vergleicht und dadurch seltene Erbkrankheiten erstaunlich zuverlässig anhand von Fotos erkennen kann.

Der Mensch kann nicht ersetzt werden
Bei all diesen Einsätzen von KI in Arztpraxen gilt, dass sie den Menschen nicht ersetzen, sondern nur ergänzen können. Die Computer weisen nach standardisierten Abläufen auf Auffälligkeiten hin – aber die Ärzte prüfen die Brauchbarkeit dieser Hinweise, werten sie aus und legen gemeinsam mit den Patienten das weitere Vorgehen fest. Die menschliche Intelligenz ist schon psychologisch gesehen entscheidend für eine erfolgreiche Behandlung: Viele Studien zeigen, dass ein einfühlsames Patientengespräch positive Effekte auf die Genesung hat. Dazu kommen juristische Fragen: Wer wäre verantwortlich für eine Fehlbehandlung durch einen Algorithmus? Die Entwickler? Der Arzt, der den Fehler nicht bemerkt hat? Die Gesellschaft, die den technischen Innovationen unkritisch begegnet? Oder gar niemand mehr?

Vor allem aber ist der Mensch nicht aus der Arztpraxis wegzudenken, weil die KI keineswegs reibungslos funktioniert. So können Algorithmen nicht immer von einer Region auf die andere übertragen werden: Besonders bei Bildern von Gesichtern oder vom Hautbild können schon kleinste Unterschiede sie stören. Jede neue Anwendung muss daher breit geprüft und überwacht werden. Oft ergibt die automatisierte Auswertung zudem viele falsch-positive Resultate. Das kann ohne umsichtige Triage durch die Ärzteschaft unnötige Ängste auslösen oder Mehrkosten durch Nachfolgeuntersuchungen verursachen.

Wachsam bleiben
Nicht zuletzt die Entwickler selbst machen auf Gefahren eines unref lektierten Ei nsatz es von KI aufmerksam. So Prof. Walter Karlen, der einen Lehrstuhl für «Mobile Gesundheitssysteme» an der ETH Zürich inne hat und selbst an der Digitalisierung des Gesundheitswesens mitarbeitet. Seine Forschungsgruppen arbeiten an maschinellem Lernen bei der Analyse von Wundbildern oder daran, Lungenentzündungen bei Kindern mit digitaler Hilfe vorherzusagen. Auf Anfrage von P+P schreibt er uns, was er bei allem Potenzial der KI für ihre grösste Gefahr hält: «Die Naivität der Menschen, die denken, dass allein Techno logie unsere Gesundheitsprobleme lösen könnte».

Er sieht Parallelen zu den Boeing-Flugzeugunglücken im letzten Jahr. Im Flugverkehr wie in der Medizin geht es um Menschenleben, in beiden Bereichen nimmt die Digitalisierung rasant zu – und in beiden Bereichen ist sie gefährlich, wenn sie missbraucht wird, um zu sparen. Genau das scheint bei der feh lerh aften Software der neuen Boeing-Flugzeuge passiert zu sein. Und es droht, so Karlen, auch dem Gesundheitswesen, wenn die Behör d en nicht wachsam sind: Auch h ier wir d momentan, wie im Flugverkehr, ganz auf Herstellerverantwortung und Selbstdeklaration gesetzt. Die Art und Weise, wie heutzutage Software entwickelt wir d, sei aber «nicht unbe d ingt geeigne t für risikoreic he Anwendungen». Besonders in Branchen mit einem so hohen Kostendruck kann das gefährlich werden – und l a ngfristig sogar dazu führen, dass auch die vielen sinnvollen Innovationen i m Bereich der KI blockiert werden. 

 

Scroll to top icons