OpenAI betritt mit „ChatGPT for Clinicians” den hart umkämpften Markt klinischer KI-Systeme – und behauptet, das eigene Modell übertreffe menschliche Ärzte. Die Datenlage hinter diesem Anspruch verdient einen zweiten Blick.
OpenAI bringt klinischen KI-Assistenten für Ärzte – eigene Tests zeigen Leistung über Humanmedizinern
OpenAI hat einen spezialisierten KI-Assistenten für klinisches Fachpersonal vorgestellt: „ChatGPT for Clinicians” soll Ärzten bei medizinischen Aufgaben Zeit sparen und die Qualität klinischer Entscheidungen verbessern. Laut eigenen Angaben des Unternehmens übertrifft das System dabei menschliche Kliniker – gemessen an einem intern entwickelten Bewertungsverfahren.
Spezialisierter Assistent für den klinischen Alltag
„ChatGPT for Clinicians” richtet sich explizit an Ärzte und medizinisches Fachpersonal. Das System ist darauf ausgelegt, zeitaufwändige klinische Aufgaben zu unterstützen – etwa die Auswertung von Patientendaten, das Erstellen klinischer Dokumentation oder die Einordnung medizinischer Fachliteratur.
OpenAI positioniert das Produkt dabei nicht als Ersatz ärztlicher Diagnosen, sondern als Arbeitsmittel zur Effizienzsteigerung im Klinikalltag.
Leistungsvergleich mit methodischen Vorbehalten
Die von OpenAI veröffentlichten Testergebnisse zeigen, dass das Modell bei klinischen Aufgaben höhere Bewertungen erzielte als menschliche Ärzte – allerdings wurde dieser Vergleich auf einem eigens vom Unternehmen entwickelten Benchmark durchgeführt. Unabhängige Validierungen durch externe medizinische Institutionen liegen bislang nicht vor.
Benchmarks, die vom Entwickler selbst konzipiert werden, sind anfällig für Verzerrungen zugunsten der eigenen Systeme – und lassen sich nur bedingt als neutrale Leistungsnachweise werten.
Die Medizintechnik- und KI-Forschungsgemeinschaft hat wiederholt darauf hingewiesen, dass klinische KI-Systeme einer unabhängigen Prüfung bedürfen, bevor Leistungsansprüche als belastbar gelten können. Externe Studien in peer-reviewten Fachzeitschriften wären ein deutlich robusteres Kriterium.
Markt für klinische KI wächst
OpenAI tritt mit diesem Produkt in einen Markt ein, in dem bereits mehrere spezialisierte Anbieter aktiv sind. Unternehmen wie Microsoft – über seine Healthcare-KI-Lösungen – sowie Startups wie Abridge oder Nabla bieten ebenfalls KI-gestützte Assistenzsysteme für das Gesundheitswesen an.
Die Verfügbarkeit großer Sprachmodelle mit medizinischem Kontext ist zuletzt deutlich gestiegen; der Wettbewerb um Krankenhäuser und Arztpraxen als Kunden intensiviert sich entsprechend.
Ein zentrales Differenzierungsmerkmal ist dabei die Integration in bestehende Krankenhaussysteme, etwa elektronische Patientenakten oder Praxisverwaltungssoftware. Wie „ChatGPT for Clinicians” in dieser Hinsicht abschneidet, hat OpenAI bisher nicht im Detail kommuniziert.
Regulatorische Lage in Europa bleibt komplex
Für den deutschen und europäischen Markt ist die regulatorische Einordnung entscheidend. KI-Systeme, die in klinische Entscheidungsprozesse eingreifen, fallen je nach Einsatzgebiet unter den EU AI Act sowie unter Medizinprodukteregelungen (MDR). Produkte, die als Medizinprodukt der Klasse IIa oder höher eingestuft werden, benötigen eine Konformitätsbewertung durch eine Benannte Stelle.
Ob und wann „ChatGPT for Clinicians” diese Anforderungen für den europäischen Markt erfüllen wird, ist derzeit offen.
Für Krankenhausbetreiber, Praxisnetzwerke und Gesundheits-IT-Entscheider in Deutschland gilt: Das Produkt sollte weniger anhand eigener Marketing-Benchmarks bewertet werden als anhand unabhängiger klinischer Evidenz und der Erfüllung europäischer Zulassungsanforderungen.
Wer KI im klinischen Umfeld einsetzen möchte, sollte den regulatorischen Rahmen frühzeitig in die Beschaffungsentscheidung einbeziehen.
Quelle: Decrypt AI