as klingt hart, ist aber schlicht Realität. Medizin ist komplex, Zeit und Personal sind knapp, und unter diesen Bedingungen lassen sich Fehler nie vollständig ausschließen. Nicht aus Inkompetenz, sondern aus Überlastung. Genau deshalb ist Medizin der perfekte Einsatzort für Systeme, die eine Sache extrem gut können: Muster erkennen.

Und hier beginnt die eigentliche Revolution. Nicht bei „Roboterärzten“. Sondern bei KI, die im Hintergrund arbeitet, Bilder vorsortiert, Auffälligkeiten markiert, Risiken priorisiert und Routinearbeit abnimmt.

In den USA listet die FDA inzwischen über 1.300 KI-gestützte Medizinprodukte, davon rund 1.039 allein in der Radiologie. Bildgebung macht damit den Großteil dieser Zulassungen aus. Das ist wichtig, weil es zeigt: KI in der Medizin ist nicht mehr „Experiment“. Sie wird regulatorisch eingeordnet und Schritt für Schritt in echte Abläufe gedrückt.

Warum KI in Bildern so stark ist

Viele denken bei KI zuerst an ChatGPT. Ich hoffe, im Zuge meiner Kolumnen meinen Teil dazu beigetragen zu haben, dass regelmäßige eXXpress-Leser wissen: Large Language Models wie ChatGPT decken nur einen Teil der komplexen KI-Landschaft ab. In der Medizin sind die größten Sprünge oft dort passiert, wo es um Bilder geht: Röntgen, CT, MRT, Mammografie, Histologie.

Technisch steckt dahinter meist Deep Learning, also neuronale Netze, die aus gigantischen Datenmengen statistische Muster lernen. Bei Bildern sind das oft CNNs (Convolutional Neural Networks). Vereinfacht gesagt: Die KI „scannt“ ein Bild mit vielen kleinen Filtern, erkennt erst Kanten, dann Formen, dann Strukturen. Am Ende steht keine Wahrheit, sondern eine Wahrscheinlichkeit: „Das sieht zu 97 Prozent wie X aus.“

Und genau deshalb ist KI so nützlich: Sie ist nicht müde, sie wird nicht unkonzentriert, sie kann hunderttausende Bilder gleichförmig abarbeiten. Menschen sind kreativ, empathisch, verantwortlich. Aber Menschen sind nicht dafür gebaut, monotone Hochvolumen-Diagnostik unter Zeitdruck zu leisten.

Der stärkste Beleg kommt aus Europa

Wer glaubt, das sei alles nur US-Hype, sollte nach Schweden schauen. In einer großen Studie in The Lancet Oncology zeigte sich: KI-unterstütztes Mammografie-Screening senkte die Screen-Reading-Workload um 44,3 Prozent, bei vergleichbarer Leistungsfähigkeit.

Das ist nicht irgendein Gadget. Das ist ein Hebel für ein System, das überall dieselbe Krankheit hat: zu wenig Personal, zu viel Arbeit, zu lange Warteschlangen.

Und genau hier kommt mein Lieblingsvergleich.

Der Auto-Vergleich, der alles klärt

Vor Jahrzehnten starben viel mehr Menschen im Straßenverkehr. Heute ist Autofahren sicherer, weil Technik eingreift: ABS, Notbremsassistent, Spurhalteassistent. Viele dieser Systeme basieren ebenfalls auf KI oder sehr ähnlichen Mustererkennungs-Methoden.

Niemand würde ernsthaft sagen: „Ich will keinen Notbremsassistenten, weil ich selbst eh keinen Fehler mache.“ Wir nutzen Technik, weil sie Fehler reduziert und darüber hinaus unser Leben angenehmer macht.

In der Medizin muss die Logik dieselbe sein. Ärzte machen Fehler. Wir alle machen Fehler. Wenn KI in einem klar definierten Teilprozess nachweislich Fehler reduziert oder Kapazität freischaufelt, dann wird Nicht-Nutzung zur aktiven Entscheidung. Und diese Entscheidung hat Konsequenzen.

ChatGPT Health zeigt den Wendepunkt

Jetzt zur Entwicklung, die in den letzten Tagen besonders sichtbar war: ChatGPT Health. OpenAI hat eine eigene Health-Erfahrung angekündigt, in der Nutzer Gesundheitsdaten optional verbinden oder Dokumente nutzen können, mit dem Versprechen stärkerer Privatsphäre und dem klaren Satz: Das sei nicht dafür gedacht, Diagnosen oder Behandlungen zu ersetzen.

Reuters berichtet dazu eine Zahl, die man sich auf der Zunge zergehen lassen muss: über 230 Millionen wöchentliche health-bezogene Anfragen in ChatGPT. STAT zitiert zusätzlich, dass OpenAI von mehr als 40 Millionen Menschen pro Tag spricht, die ChatGPT mit Gesundheitsfragen prompten.

Das ist der Punkt, an dem jeder versteht: Die Nutzung passiert längst. Die Frage ist nicht, ob Menschen KI in Gesundheitsfragen verwenden. Die Frage ist, ob wir das kontrolliert, sicher, eingebettet und transparent machen oder ob wir es im Wildwuchs lassen. Und übrigens: Dass ChatGPT Health aktuell nicht in der EEA, Schweiz oder UK verfügbar ist, ist kein Zufall. Das ist die Kollision aus Datenschutz, Medizinprodukterecht und Regulierung.

Warum HealthGPT so gefährlich wirken kann

Jetzt kommt die unbequeme Wahrheit: Sprachmodelle sind rhetorisch brillant. Medizinisch korrekt sind sie nur dann zuverlässig, wenn sie sauber angebunden sind.

Ein Large Language Model ist im Kern ein statistischer Vorhersageapparat für Sprache. Es berechnet, welches Wort als nächstes am wahrscheinlichsten ist. Das kann unglaublich überzeugend klingen. Aber „überzeugend“ ist nicht „richtig“.

Deshalb sind zwei technische Konzepte entscheidend:

1. RAG (Retrieval-Augmented Generation):
Statt frei zu „raten“, holt sich das System Informationen aus einer geprüften Wissensquelle (Leitlinien, Studien, Klinikdatenbank) und antwortet auf Basis dieser Dokumente.

2. Guardrails und klinische Grenzen:
Das System muss wissen, wann es stoppen muss. Wann es sagen muss: „Das ist ein Notfall, bitte sofort Arzt.“ Und wann es schlicht nicht zuständig ist.

Genau deshalb betont OpenAI bei ChatGPT Health „support, not replace“ und setzt zusätzliche Privacy-Mechanismen.

KI ist nicht „besser“, sie ist anders

Jetzt zur Kernfrage: Ist KI besser als der Mensch? Die ehrliche Antwort ist: In manchen Teilaufgaben, ja. Und zwar objektiv.

Hier ein paar Beispiele: In der Mustererkennung bei Bildern kann KI extreme Konsistenz liefern, vor allem als Zweitleser oder Vorfilter. In Routineprozessen kann sie Fehler durch Müdigkeit eliminieren. In der Medikamentenentwicklung hat KI der Biologie bereits einen massiven Boost gegeben. Allein die AlphaFold-Datenbank stellt über 200 Millionen Proteinstruktur-Vorhersagen offen zur Verfügung. Das ist ein völlig neuer wissenschaftlicher Unterbau.

Aber: KI hat keine Verantwortung. Kein Gewissen. Kein echtes Verständnis von Kontext, der nicht in Daten abbildbar ist. Sie kann verzerrt sein, weil Daten verzerrt sind. Sie kann falsche Sicherheit geben, weil sie gut formuliert.

Deshalb ist das Ziel nicht „KI statt Mensch“. Das Ziel ist ein System, in dem KI dort arbeitet, wo sie nachweislich besser ist, und der Mensch dort entscheidet, wo Werte, Verantwortung und Empathie zählen.

Meine These bleibt daher klar

Wir müssen die Debatte umdrehen. Nicht: „Ist es ethisch vertretbar, KI in der Medizin zu nutzen?“ Sondern: „Ist es ethisch vertretbar, sie nicht zu nutzen, wenn sie nachweislich hilft?“ Wenn KI Screening-Workloads um rund 44 Prozent reduzieren kann, ist das nicht nur Effizienz. Das ist Versorgungssicherheit. Wenn bereits über 1.300 KI-Medizinprodukte in den USA regulatorisch gelistet sind, ist das nicht Spielerei. Das ist Standardisierung im Entstehen. Wenn Millionen Menschen täglich Gesundheitsfragen an KI stellen, ist das nicht Trend. Das ist Verhalten.

Österreich und Europa brauchen keine KI-Panik. Wir brauchen drei konkrete Dinge: Erstens: klinische Testumgebungen, in denen KI schnell, aber kontrolliert in echten Abläufen geprüft wird. Zweitens: Dateninfrastruktur, die Forschung ermöglicht, ohne Privatsphäre zu opfern. Das ist keine Utopie, sondern Handwerk: Pseudonymisierung, Zugriffskontrolle, Audit-Logs. Drittens: klare Haftung und klare Rollen. KI darf empfehlen, sortieren, warnen. Aber die Verantwortung für Therapieentscheidungen muss eindeutig bleiben.

KI in der Medizin ist keine Zukunftsdebatte. Sie ist gerade dabei, Alltag zu werden. Leise, unspektakulär, aber mit enormer Wirkung. Der moralische Reflex, alles „erstmal zu verbieten“, ist menschlich. Aber er ist gefährlich, weil er ein System konserviert, das heute schon an seine Grenzen kommt.

So wie wir irgendwann nicht mehr ohne Sicherheitsgurt gefahren sind, werden wir in ein paar Jahren nicht mehr verstehen, warum wir Diagnostik und Klinikprozesse so lange ohne digitale Assistenz betrieben haben.