KI statt Menschlichkeit: So bedrohen Algorithmen unsrige medizinische Versorgung
Der Computer unterbrach Pamela, während sie noch sprach. Ich hatte meine liebe Freundin kürzlich zu einem Arzttermin begleitet. Sie ist über 70, lebt allein und hat mit mehreren chronischen Gesundheitsproblemen zu kämpfen. Seit einiger Zeit bekommt sie schon beim Treppensteigen zu ihrer Wohnung Atemnot.
Im Untersuchungszimmer sprach sie langsam und selbstbewusst, wie es Menschen oft tun, wenn sie Fremden ihren Körper und ihre Ängste beschreiben. Mitten in ihrer Schilderung klickte der Arzt mit der Maus, und ein Textblock erschien auf dem Computerbildschirm.
Als der Termin vorbei war, fragte ich als Arzt und Anthropologe, der sich für die sich entwickelnde Kultur der Medizin interessiert, ob ich einen Blick auf die von der KI erstellte Notiz werfen könnte.
Die Zusammenfassung war überraschend flüssig und genau. Sie erfasste jedoch nicht das Zucken in Pamelas Stimme, als diese die Treppe erwähnte, das Aufblitzen von Angst, als Pamela andeutete, dass sie diese nun mied, und das generelle Vermeiden, hinauszugehen. Ebenso wenig erfasste sie die Verbindung zu Pamelas traumatischer Beziehung zum Tod ihrer eigenen Mutter, die der Arzt nie angesprochen hatte.
Zwei Drittel der US-amerikanischen Ärzte setzen KI ein
Szenen wie diese werden immer häufiger. Seit Generationen widersetzen sich Ärzte neuen Technologien, die ihre Autorität bedrohen oder etablierte Praktiken ins Wanken bringen. Künstliche Intelligenz bricht jedoch mit dieser Tradition, da sie schneller als fast jede andere Technologie zuvor in die klinische Praxis Einzug hält.
So setzten 2024 zwei Drittel der US-amerikanischen Ärzte – ein Anstieg von 78 Prozent gegenüber dem Vorjahr – und 86 Prozent der Gesundheitssysteme künstliche Intelligenz als Teil ihrer Praxis ein. „KI wird im Gesundheitswesen so alltäglich sein wie das Stethoskop“, prognostiziert Dr. Robert Pearl, ehemaliger CEO der Permanente Medical Group, einer der größten Ärztegruppen des Landes. Mein Kollege Craig Spencer hat dazu Folgendes bemerkt: „Bald könnte es als Behandlungsfehler angesehen werden, wenn man KI nicht zur Diagnose oder Behandlung einsetzt.“
KI wird im Gesundheitswesen so alltäglich sein wie das Stethoskop
Politiker und gleichgesinnte Wirtschaftsvertreter versprechen, dass KI das Burnout von Ärzten lindern, die Gesundheitskosten senken und den Zugang zur Gesundheitsversorgung verbessern werde. Unternehmer preisen sie als großen Gleichmacher an, der Menschen, die von den bestehenden Systemen ausgeschlossen sind, eine hochwertige Versorgung ermöglicht. Führende Vertreter von Krankenhäusern und Ärzten wie Dr. Eric Topol preisen KI als das Mittel an, mit dem die Menschlichkeit endlich wieder in die klinische Praxis zurückkehren wird.
Nach dieser weit verbreiteten Argumentation wird KI Ärzte von der mühsamen Dokumentation befreien und es ihnen ermöglichen, sich von ihren Computerbildschirmen abzuwenden und ihren Patienten in die Augen zu schauen. Unterdessen nutzen Patienten bereits KI-Chatbots als Ergänzung oder Ersatz für Ärzte. Viele betrachten dies als Demokratisierung des medizinischen Wissens.
Wird KI zu einem weiteren Instrument der Kommerzialisierung?
Das Problem ist: Wenn KI im Gesundheitssektor eingesetzt wird, in dem Effizienz, Überwachung und Gewinnmaximierung im Vordergrund stehen, wird sie nicht zu einem Instrument für Fürsorge und Gemeinschaft – sondern lediglich zu einem weiteren Instrument zur Kommerzialisierung des Lebens.
Zwar können große Sprachmodelle Berge von medizinischer Literatur durchforsten, übersichtliche Zusammenfassungen erstellen und in einigen Studien sogar menschliche Ärzte bei diagnostischen Denkaufgaben übertreffen, doch das ändert nichts an der Problematik.
Im vergangenen Monat war so OpenEvidence das erste KI-System, das bei der US-amerikanischen Zulassungsprüfung für Ärzte 100 Prozent der möglichen Punkte erreichte. Untersuchungen zeigen, dass KI radiologische Bilder mit einer Genauigkeit lesen kann, die mit der von menschlichen Spezialisten konkurriert. Sie kann Hautkrebs anhand von Smartphone-Fotos erkennen und frühe Anzeichen einer Sepsis bei Krankenhauspatienten schneller als klinische Teams. Während der Corona-Pandemie wurden KI-Modelle eingesetzt, um Spitzenbelastungen vorherzusagen und knappe Ressourcen zuzuweisen. Dies nährte die Hoffnung, dass ähnliche Systeme alles optimieren könnten – von Intensivbetten bis hin zu Medikamentenlieferketten.
Angetrieben vom Profit geben die USA pro Kopf etwa doppelt so viel für die Gesundheitsversorgung aus wie andere Länder mit hohem Einkommen
KI ist nicht nur aufgrund des Vertrauens in die Technologie überzeugend, sondern auch, weil sie uns suggeriert, dass wir die Medizin verbessern können, indem wir die schwierige Arbeit des Strukturwandels überspringen – die Aufgabe, krankheitsverursachende Ungleichheit, Unternehmensinteressen und oligarchische Macht zu bekämpfen.
Die USA sind das am stärksten medizinisierte Land der Welt. Angetrieben vom Profit geben sie pro Kopf etwa doppelt so viel für die Gesundheitsversorgung aus wie andere Länder mit hohem Einkommen. Gleichzeitig sind Millionen Menschen davon ausgeschlossen und leiden – über alle Einkommensklassen hinweg – unter weitaus höheren Raten vermeidbarer Krankheiten, Behinderungen und Todesfällen.
Wissenschaftler im Bereich der öffentlichen Gesundheit argumentieren seit langem, dass die Medizin allein nicht in der Lage ist, die Probleme der Bevölkerung zu lösen. Vielmehr müssen ihrer Meinung nach viel mehr Aufmerksamkeit und öffentliche Investitionen in die nicht-medizinische Sozialfürsorge fließen. Diese ist für die Prävention von Krankheiten, die Senkung von Behandlungskosten sowie die Wirksamkeit medizinischer Interventionen unerlässlich.
Die KI in der Praxis: Ursachenbeschönigung statt Ursachenbekämpfung
Angesichts des zunehmenden Autoritarismus des Landes scheint es für viele unerreichbar, die Perversität des US-amerikanischen Gesundheitswesens zu bekämpfen. In diesem Zusammenhang wird KI als Lösung angeboten – nicht weil sie die Ursachen für das katastrophale Gesundheitswesen bekämpft, sondern weil sie es Politikern und Unternehmen ermöglicht, diese zu beschönigen.
Dieses Vertrauen in die KI spiegelt auch ein Missverständnis des Fürsorge-Systems selbst wider. Dieses Missverständnis hat sich im Laufe der Jahrzehnte im Dienste einer Idee entwickelt, die heute als unbestreitbares Gut angesehen wird: die evidenzbasierte Medizin (EBM).
Die EBM entstand in den 1990er Jahren mit dem unumstößlichen Ziel, das Gesundheitssystem zu verbessern. Sie stellte Praktiken, die auf Gewohnheiten und Traditionen beruhten, in Frage und bestand darauf, dass Entscheidungen auf strengen Forschungsergebnissen, idealerweise soliden Studien, basieren sollten. Die EBM, die zuerst von den Ärzten David Sackett und Gordon Guyatt an der McMaster University vertreten wurde, verfestigte sich schnell zu einer Orthodoxie. Sie war in Lehrpläne, Akkreditierungsstandards und Leistungskennzahlen eingebettet und gestaltete das klinische Urteilsvermögen so um, dass es statistischen Durchschnittswerten und sogenannten Konfidenzintervallen entsprach. Die Vorteile waren real: Wirksame Therapien verbreiteten sich schneller, veraltete wurden aufgegeben und eine Ethik der wissenschaftlichen Verantwortung setzte sich durch.
Ärzte behandelten nicht mehr einzelne Menschen, sondern Datenpunkte
Während dieses Modell die Medizin veränderte, schränkte es gleichzeitig den Umfang klinischer Begegnungen ein. Die chaotischen, beziehungsgebenden und interpretativen Dimensionen der Fürsorge – also die Art und Weise, wie Ärzte zuhören, um intuitiv zu erkennen und herauszufinden, was Patienten vielleicht zunächst nicht sagen – wurden zunehmend als zweitrangig gegenüber standardisierten Protokollen angesehen.
Ärzte behandelten nicht mehr einzelne Menschen, sondern Datenpunkte. Unter dem Effizienzdruck verfestigte sich die EBM zu einer Ideologie: Vorbildhafte Fälle wurden zu allem, was gemessen, tabellarisch erfasst und erstattet werden konnte. Die Komplexität des Lebens der Patienten wurde durch Messgrößen, Checklisten und Algorithmen ersetzt. Was als Korrektiv für die Vorurteile der Medizin begann, ebnete den Weg für eine neue Kurzsichtigkeit – nämlich die Überzeugung, dass sich die Medizin auf Zahlen reduzieren lässt und dies auch tun sollte.
Der Verlust des Zwischenmenschlichen im Zeitalter der Algorithmen
Der Einsatz von KI beeinflusst nicht nur, wie wir zuhören, sondern auch, wie wir über uns selbst denken und sprechen – insbesondere als Patienten. Vor nicht allzu langer Zeit kam eine junge Frau wegen chronischer Müdigkeit und damit verbundenen Erfahrungen von Traurigkeit, Angst und Verlust zu mir. Sie war von vielen anderen Ärzten abgewiesen worden, an die sie sich um Hilfe gewandt hatte.
Im Laufe der Zeit entwickelte sie Strategien, um die Demütigungen zu vermeiden, die sie mit Arztpraxen verband. Eine dieser Strategien bestand darin, ChatGPT zu nutzen, um ihre Selbstdarstellung zu verfeinern. In der Woche vor ihrem Termin bei mir hatte sie ihre Geschichte der ChatGPT-App, die sie auf ihrem Smartphone installiert hatte, bereits mindestens zehn Mal erzählt. Sie hatte ihre Kopfschmerzen beschrieben, ihr rasendes Herz am frühen Morgen und die Erschöpfung, die auch durch Ruhe nicht nachließ.
Jedes Mal antwortete der Bot in ruhiger, flüssiger, medizinischer Sprache, nannte mögliche Diagnosen und schlug nächste Schritte vor. Mit jedem Versuch verfeinerte sie ihre Antworten und lernte, welche Wörter welche Reaktionen hervorriefen, als würde sie für eine Prüfung lernen.
Die durch KI verzerrte Selbstdarstellung meiner Patientin barg die Gefahr, ihre Behandlung auf einen Weg algorithmischer Pseudolösungen zu lenken
Als sie mit mir sprach, verwendete sie dieselben Formulierungen, die ihr ChatGPT gegeben hatte: eine präzise, klinische und weitgehend emotionslose Sprache ohne Bezug zu ihrer persönlichen Geschichte, ihren Beziehungen und Wünschen. Ihre tiefen Ängste waren nun in geliehenen Phrasen verpackt, übersetzt in ein Format, von dem sie annahm, dass ich es als legitimen medizinischen Fall erkennen, ernst nehmen und angehen würde.
Es stimmt, dass ihre Bemühungen die bürokratische Dokumentation erleichterten. Dabei ging jedoch vieles verloren. Ihre eigene Unsicherheit, ihr Misstrauen gegenüber ihrer Selbstwahrnehmung und ihrem Körper, ihre Lebensgeschichte und ihre eigenwillige Art, ihrem Leiden einen Sinn zu geben, wurden abgeschliffen – auf diese Weise blieb ein glatter, vorgefertigter medizinischer Diskurs übrig, der nur noch darauf wartete, transkribiert und an Apotheker und Versicherungsgesellschaften weitergegeben zu werden.
In den Händen eines Klinikers, der EBM auf der Grundlage von Symptomskalen praktiziert, hätte eine reflexartige Verschreibung von Antidepressiva oder Stimulanzien beziehungsweise eine Reihe von Tests zu Autoimmunerkrankungen als natürliche Reaktion erscheinen können.
Diese Maßnahmen, die später vielleicht angebracht gewesen wären, hätten jedoch die tieferen sozialen und persönlichen Ursachen ihrer Erschöpfung außer Acht gelassen. Die durch KI verzerrte Selbstdarstellung meiner Patientin verschleierte somit nicht nur ihre Erfahrungen, sondern barg auch die Gefahr, ihre Behandlung auf einen Weg algorithmischer Pseudolösungen zu lenken, die ein erhebliches Risiko unbeabsichtigter Schäden mit sich bringen.
Warum ChatGPT kein Verständnis von sozialen Problemen hat
Diese Begegnung hat sich in verschiedenen Formen bei mehreren anderen Patienten wiederholt, die ich im letzten Jahr kennengelernt habe, seit KI-Tools in unseren Alltag Einzug gehalten haben. So kam etwa ein Mann Ende 60 zu mir. Er war nach einer lukrativen Geschäftskarriere in den Ruhestand gegangen, war geschieden, von seinen beiden erwachsenen Söhnen entfremdet und befand sich in einer missbräuchlichen Beziehung. Er kämpfte mit tiefer Einsamkeit, Reue und schwerer Alkoholabhängigkeit. Hinzu kamen so schwere Panikattacken, dass er befürchtete, allein in seiner Hochhauswohnung in der Innenstadt an einem Herzinfarkt zu sterben.
Bevor er zu mir kam, hatte er wochenlang ChatGPT als Therapeuten genutzt – mit großem Erfolg, wie er mir erzählte. Er verbrachte jeden Tag Stunden damit, dem Tool über seine Symptome und seine Vergangenheit zu schreiben, und fand Trost in den durchweg lobenden Antworten, die ihm versicherten, dass er in seinem Leben von anderen ungerecht behandelt worden war.
Der Patient wiederholte die Behandlungsvorschläge, die er von ChatGPT erhalten hatte – allerdings thematisierte keiner seinen täglichen Wodka-Konsum
ChatGPT war nicht nur sein Berater geworden, sondern auch seine wichtigste Bezugsperson. Als wir uns trafen, konnte er fließend seinen Bindungsstil und die Persönlichkeitsstörungen benennen, die ChatGPT seinen Familienmitgliedern zugewiesen hatte. Er wiederholte auch die Behandlungsvorschläge, die er erhalten hatte – allerdings thematisierte keiner von ihnen seinen täglichen Wodka-Konsum. Als ich ihn fragte, wie er sich fühle, zögerte er und schaute dann auf das Handy in seiner Hand, als wolle er überprüfen, ob seine Worte mit dem psychologischen Profil übereinstimmten, das ChatGPT für ihn erstellt hatte. Die Maschine hatte sowohl seine Stimme als auch die menschliche Verbindung ersetzt, nach der er sich sehnt.
Ein perverser Kreislauf: Maschinensprache führt zu Maschinendokumenkation
Wir laufen Gefahr, in einen perversen Kreislauf zu geraten. Maschinen liefern die Sprache, mit der Patienten ihr Leiden schildern, und Ärzte nutzen Maschinen, um dieses Leiden zu dokumentieren und zu behandeln. Dies fördert laut Psychologen die sogenannte „kognitive Knauserigkeit“, also die Tendenz, sich auf die am leichtesten verfügbare Antwort zu verlassen, anstatt kritische Fragen zu stellen oder sich selbst zu reflektieren. Indem Ärzte und Patienten das Denken und letztlich die intimsten Definitionen ihrer selbst an die KI auslagern, laufen sie Gefahr, sich noch weiter voneinander zu entfremden.
In dieser Entwicklung können wir die Entstehung dessen erkennen, was der Soziologe Michel Foucault in Die Geburt der Klinik als „medizinischen Blick“ bezeichnet hat: die Trennung und Isolierung des kranken Körpers von der Lebenserfahrung des Menschen und seinem sozialen Umfeld. Während der Blick des 19. Jahrhunderts den Patienten in für den Kliniker sichtbare Verletzungen und Symptome zerlegte und der evidenzbasierte Blick des späten 20. Jahrhunderts Patienten in Chancenverhältnisse und Behandlungsprotokolle übersetzte, löst der algorithmische Blick des 21. Jahrhunderts sowohl Patienten als auch Ärzte in einem nie endenden Strom automatisierter Daten auf. KI betrachtet sowohl Leiden als auch Fürsorge als rechnerische Probleme.
Die Argumente, die diese Transformation der Klinik stützen, sind bekannt. Menschliche Ärzte stellen Fehldiagnosen, während Algorithmen subtile Muster erkennen können, die für das Auge unsichtbar sind. Menschen vergessen die neuesten wissenschaftlichen Erkenntnisse, während Algorithmen jeden neuen Artikel sofort nach seiner Veröffentlichung aufnehmen können. Ärzte brennen aus, während Algorithmen nie müde werden. Solche Behauptungen sind im engeren Sinne wahr. Der Sprung von diesen Vorteilen zu einer umfassenden Akzeptanz der KI als Zukunft der Medizin beruht jedoch auf gefährlich simplen Annahmen.
Gefährliche Annahmen über die Unfehlbarkeit von KI
Der erste Punkt ist, dass KI angeblich objektiver ist als menschliche Ärzte. In Wirklichkeit ist KI jedoch nicht weniger voreingenommen, sondern lediglich auf eine andere, schwerer erkennbare Weise.
KI-Modelle basieren auf vorhandenen Datensätzen, die jahrzehntelange systemische Ungleichheiten widerspiegeln. Dazu zählen rassistische Vorurteile, die in Nieren- und Lungenfunktionstests verankert sind, sowie die Unterrepräsentation von Frauen und Minderheiten in klinischen Studien. Bestimmte Messgeräte beispielsweise unterschätzen systematisch einen verminderten Sauerstoffgehalt im Blut bei Menschen mit dunklerer Hautfarbe. Während der Corona-Pandemie flossen diese Fehler in Triage-Algorithmen ein und verzögerten die Versorgung schwarzer Patienten. Auf ethnischen Gruppen basierende Angaben zur Nierenfunktion beeinflussten lange Zeit die Transplantationsberechtigung im ganzen Land. Sobald solche Vorurteile in Protokollen verankert sind, bleiben sie oft über Jahre hinweg bestehen.
Diese Probleme werden durch die Annahme verschärft, dass mehr Daten automatisch zu einer besseren Versorgung führen. Doch keine noch so große Datenmenge kann unterfinanzierte Kliniken reparieren, den Ärztemangel beheben oder Patienten vor räuberischen Versicherungsanbietern schützen.
KI droht, Probleme zu verschärfen, indem sie diskriminierende und gewinnorientierte Strategien hinter einem Schleier rechnerischer Neutralität versteckt
KI droht, diese Probleme zu verschärfen, indem sie diskriminierende und gewinnorientierte Strategien hinter einem Schleier rechnerischer Neutralität versteckt. Letztendlich werden neue KI-Tools von den Milliardären und Unternehmen kontrolliert, denen sie gehören. Sie legen die Anreize fest und bestimmen die Verwendung. Wie in Trumps zweiter Amtszeit immer deutlicher geworden ist, sind viele dieser KI-Größen – Elon Musk, Peter Thiel und andere – offene Eugeniker, die von Vorurteilen gegenüber geschlechtlichen und ethnischen Minderheiten sowie Menschen mit Behinderungen geleitet werden.
Es zeichnet sich eine Form des Technofaschismus ab, da diese Regierung einer kleinen Gruppe verbündeter Tech-Magnaten dabei hilft, die Kontrolle über die Daten der Nation zu festigen – und damit auch die Macht, ganze Bevölkerungsgruppen zu überwachen und zu disziplinieren.
KI-Tools eignen sich perfekt für das Projekt der autoritären Überwachung, das die Trump-Regierung mit ihrem „KI-Aktionsplan“ aktiv vorantreibt. Indem der Plan regulatorische Schutzmaßnahmen abschafft und Technologieunternehmen freie Hand lässt, solange sie sich der Ideologie der Regierung anschließen, verleiht er Unternehmen, die bereits von eugenischem Denken durchdrungen sind, beispiellose Macht.
Hinter der Rhetorik der Innovation verbirgt sich eine einfache, ernüchternde Tatsache: KI kann nur funktionieren, indem sie riesige Mengen menschlicher Daten verarbeitet – Daten über unseren Körper, unsere Schmerzen, unser Verhalten, unsere Stimmungen, Ängste, Phobien, Ernährungsgewohnheiten, unseren Substanzkonsum, unsere Schlafmuster, Beziehungen, Arbeitsroutinen, sexuelle Praktiken, traumatische Erfahrungen, Kindheitserinnerungen, Behinderungen und Lebenserwartung. Das bedeutet, dass jeder Schritt in Richtung KI-gesteuerter Medizin auch ein Schritt in Richtung tieferer, undurchsichtigerer Formen der Datenerfassung, Überwachung und sozialen Kontrolle ist.
Bereits jetzt setzen Krankenkassen KI-gestützte „prädiktive Analysen“ ein, um Patienten als zu kostspielig einzustufen, ihre Versorgung herunterzustufen oder ihnen die Kostenübernahme zu verweigern. So lehnte UnitedHealth Rehabilitationsanträge für ältere Patienten ab, bei denen eine schnelle Genesung als unwahrscheinlich galt, während Cigna automatisierte Prüfsysteme einsetzte, um Tausende von Anträgen innerhalb von Sekunden abzulehnen, ohne dass diese von einem Arzt gelesen wurden.
Effizienzgewinne führen zu höherer Produktivität – nicht zu Entlastung
Eine weitere wichtige Annahme, die dem Optimismus gegenüber KI zugrunde liegt, ist, dass Ärzte dadurch mehr Zeit und Aufmerksamkeit für ihre Patienten haben werden. In den letzten Jahrzehnten wurden unzählige technologische Fortschritte in der Medizin – von elektronischen Gesundheitsakten bis hin zur Automatisierung der Abrechnung – als Möglichkeit beworben, die Arbeitsbelastung der Ärzte zu verringern. Tatsächlich führten kontrollierte Studien, in denen KI-gestützte Systeme Patientenberichte für Ärzte verfassten, zu Zeitersparnissen und einer höheren Zufriedenheit mit dem Arbeitsalltag – allerdings nur in kontrollierten Experimenten, in denen die Zeitersparnisse nicht mit erhöhten Produktivitätserwartungen einhergingen.
Die Realität des US-Gesundheitssystems sieht in der Regel anders aus. Jeder technologische Fortschritt, der Ärzten Zeit sparen könnte, hat die Produktivitätsanforderungen stattdessen erhöht. Diese „Effizienzgewinne“ wurden schlichtweg dazu genutzt, um mehr Besuche, mehr Abrechnungen und mehr Gewinn aus jeder Stunde herauszuholen. Mit anderen Worten: Was die Technologie auch immer an Zeit und Energie einspart, wird vom System sofort wieder zurückgeholt, um den Gewinn zu maximieren. Angesichts der Tatsache, dass Private-Equity-Fonds Gesundheitseinrichtungen in alarmierendem Tempo aufkaufen, gibt es wenig Grund zu der Annahme, dass die medizinische Industrie KI anders einsetzen wird.
Jeder technologische Fortschritt, der Ärzten Zeit sparen könnte, hat Produktivitätsanforderungen erhöht
Das Ergebnis all dieser Effizienzmaßnahmen ist weniger statt mehr Präsenz in der Fürsorge. Schon jetzt ist die häufigste Beschwerde von Patienten, dass ihre Ärzte ihnen nicht zuhören. Sie beschreiben, dass sie eher als Bündel von Symptomen und Laborwerten behandelt werden anstatt als ganze Menschen. Gute Kliniker wissen, dass im Umgang mit Patienten das Zögern, das Schweigen und das nervöse Lachen, also die Dinge, die ungesagt bleiben, am wichtigsten sind. Diese lassen sich nicht auf Datenpunkte reduzieren. Sie erfordern Präsenz, Geduld und Einfühlungsvermögen für die Gefühlslage, die sozialen Beziehungen, die Familiendynamik und die Ängste jedes einzelnen Patienten.
Dies gilt selbstverständlich für die psychische Gesundheitsversorgung, aber nicht weniger für die Innere Medizin, die Onkologie oder die Chirurgie. In diesen Fachbereichen bitten Patienten in den oft verletzlichsten Momenten ihres Lebens um Hilfe – Momente, in denen ein Arzt nicht nur als Techniker, sondern als Mensch reagieren muss.
KI ist hingegen darauf ausgelegt, Stille zu beseitigen und Patienten als berechenbare Organismen zu isolieren. KI kann dabei beispielsweise aber nicht erkennen, dass die erste Version der Krankengeschichte eines Patienten oft nicht der Wahrheit entspricht, sondern die, die ihn am wenigsten belastet. Darüber hinaus zeigen Studien, dass die Abhängigkeit von KI bei Ärzten häufig zu einem raschen Verlust klinischer Fähigkeiten führt. Wenn Algorithmen Diagnosen oder Behandlungspläne vorschlagen, verkümmern die Denkfähigkeiten der Ärzte. Sie werden stärker von Maschinen abhängig und sind weniger fähig zu unabhängigem Urteilen.
Anstatt menschliche Fehlbarkeit auszugleichen, scheint KI diese zu verstärken, indem sie Ärzten das Zuhören sowie kritisches, kooperatives und kreatives Denken abtrainiert.
Für eine andere Idee von Fürsorge
Wenn die Gefahr der KI-Medizin darin besteht, zu vergessen, was echte Fürsorge bedeutet, dann müssen wir uns gemeinsam an deren Grundlagen erinnern. Diese sind unter dem Gesundheitskapitalismus der USA in den Hintergrund geraten. Bei der Fürsorge geht es dabei nicht um Diagnosen oder Rezepte. Sie beruht auf etwas Grundlegenderem: der Unterstützung anderer Menschen und dem Entwickeln einer inneren Haltung der Fürsorge zu seiner Umgebung.
Diese Art der Fürsorge ist untrennbar mit Politik und Gemeinschaft verbunden. Wie Philosophen von Sokrates bis Søren Kierkegaard und feministische Theoretikerinnen wie Carol Gilligan und Joan Tronto seit Langem argumentieren, ist Fürsorge nicht nur eine klinische Aufgabe, sondern eine ethische und politische Praxis. Im tiefsten Sinne geht es um die Wiedergewinnung unseres Selbstverständnisses als einzigartige Wesen in einer Gemeinschaft, in der individuelle Unterschiede geschätzt und nicht ausgelöscht werden.
Fürsorge hat eine transformative Kraft, die über die Gesundheit hinausgeht
Deshalb hat Fürsorge eine transformative Kraft, die über die Gesundheit hinausgeht. Wirklich gehört zu werden, also nicht als Fall, sondern als Person anerkannt zu werden, kann nicht nur die Art und Weise verändern, wie man Krankheit erlebt, sondern auch, wie man sich selbst und die Welt erlebt. Es kann die Fähigkeit fördern, sich über Unterschiede hinweg um andere zu kümmern, Hass und Gewalt zu widerstehen und die fragilen sozialen Bindungen aufzubauen, von denen die Demokratie abhängt.
Wenn die Medizin hingegen auf Daten und Transaktionen reduziert wird, versagt sie nicht nur gegenüber den Patienten, sondern demoralisiert auch die Ärzte. Dazu degradiert sie die Demokratie selbst. Ein System, das Menschen in ihren Momenten tiefster Verletzlichkeit entfremdet, sie in den Ruin treibt, ihnen das Gefühl gibt, verrückt zu werden, und ihnen kein Gehör schenkt, schürt Verzweiflung und Wut. Es schafft die Voraussetzungen, unter denen Autoritäre an Einfluss gewinnen.
Vor diesem Hintergrund ist die Eile zur Automatisierung der Fürsorge nicht politisch neutral. Die Aushöhlung der Präsenz und Anerkennung in der Medizin bedeutet die Aushöhlung einer der letzten zivilgesellschaftlichen Institutionen, durch die Menschen das Gefühl bekommen können, für einen anderen Menschen wichtig zu sein. Es bedeutet die Zerstörung der Grundlage unserer Gesellschaft.
Ist KI eine unvermeidbare Entwicklung?
Die vielleicht gefährlichste Annahme hinter dem Aufstieg der KI in der Medizin ist, dass ihre derzeitige Entwicklung und ihre private Eigentumsstruktur unvermeidlich sind. Wenn wir diese Erzählung ablehnen, können wir endlich erkennen, dass die wirkliche Alternative zu unserer Gegenwart politischer und nicht technologischer Natur ist. Sie erfordert Investitionen in medizinisches Personal, die Stärkung öffentlicher Systeme für die medizinische und soziale Versorgung, den Ausbau des Sozialstaates zur Bekämpfung der wachsenden Ungleichheit sowie die Schaffung von Bedingungen, unter denen Ärzte ihre Patienten als Menschen und nicht als Daten behandeln können.
Technologie, einschließlich KI, muss nicht von Natur aus entmenschlichend oder entfremdend sein. In einem nationalen Gesundheitssystem, das auf echte Fürsorge ausgerichtet ist, könnte KI in der Medizin beispielsweise dazu beitragen, die Medikamentensicherheit zu überwachen, die am stärksten gefährdeten Personen zu identifizieren, um ihnen intensive soziale und finanzielle Unterstützung zu bieten, Ungleichheiten zu priorisieren oder überlastete Ärzte und Hilfspersonal zu entlasten, ohne jede ihrer Handlungen zu monetarisieren.
Solche Anwendungen hängen jedoch von einer politischen Ökonomie ab, die auf Fürsorge basiert und nicht auf Ausbeutung und der endlosen Kommerzialisierung des menschlichen Lebens – einer Ökonomie, die die Vielfalt der Menschen, ihr kollektives Gedeihen und die Unterstützung des einzigartigen Lebenspotenzials jedes Einzelnen über Datenerfassung, Standardisierung und Profit stellt.
Wahre Fürsorge ist keine Transaktion, die optimiert werden muss, sondern eine Praxis und eine Beziehung, die es zu schützen gilt
Werden KI-Systeme im Dienste unternehmerischer Imperative zur treibenden Kraft der Medizin, werden diese Dimensionen nicht nur vernachlässigt. Sie werden aktiv ausgelöscht, als Ineffizienzen umcodiert und aus dem, was als Fürsorge gilt, gestrichen.
Widerstand gegen den KI-Optimismus wird häufig als fortschrittsfeindlich dargestellt. Doch Fortschritt, der es wert ist, angestrebt zu werden, erfordert die Ablehnung der Illusion, dass schneller, billiger und standardisierter automatisch besser ist. Wahre Fürsorge ist keine Transaktion, die optimiert werden muss, sondern eine Praxis und eine Beziehung, die es zu schützen gilt: die fragile Arbeit des Zuhörens, der Präsenz und des Vertrauens.
Wenn wir die Fürsorge Algorithmen überlassen, verlieren wir nicht nur die Kunst der Medizin. Wir verlieren auch die menschlichen Beziehungen und die Solidarität, die wir benötigen, um unser Leben von denen zurückzugewinnen, die es auf Daten und Profit reduzieren wollen.