Microsoft erweitert seinen KI-Chatbot Copilot um einen eigenen Gesundheitsbereich. „Copilot Health“ ist zunächst in den USA per Einladung verfügbar und soll Nutzern helfen, medizinische Informationen zu ordnen, Symptome besser zu beschreiben und Arzttermine gezielter vorzubereiten.
Dafür setzt Microsoft auf einen sensiblen Ansatz: Die Anwendung kann persönliche Gesundheitsdaten, Auszüge aus Patientenakten sowie Messwerte von Smartwatches und Fitness-Ringen zusammenführen. Genau hier beginnt die Debatte: Wie zuverlässig sind KI-Antworten in Situationen, in denen falsche Empfehlungen gravierende Folgen haben können – und wie sicher sind die Daten?
Start in den USA: eigener Gesundheitsbereich innerhalb von Copilot
Copilot Health erscheint als separates Portal und Chatfenster innerhalb des Copilot-Angebots für Privatnutzer – getrennt von den Copilot-Funktionen, die Microsoft in Unternehmenssoftware integriert. Der Start per Einladung soll die Nutzung zunächst begrenzen und Microsoft ermöglichen, reale Anwendungsfälle auszuwerten.
Nutzer bekommen einen abgeschlossenen Bereich, der wie eine persönliche Gesundheitsakte funktioniert: Dort lassen sich strukturierte Informationen ablegen – etwa Vorerkrankungen, Medikationspläne oder Dokumente. Ziel ist, dass die KI Antworten stärker an den individuellen Kontext anpasst, statt nur allgemeine Ratschläge zu geben.
In einer von Microsoft gezeigten Demonstration mit fiktiven Daten empfahl das System bei Kieferschmerzen nach einem früheren Herzinfarkt eine sofortige ärztliche Abklärung. Solche Fälle sind der Härtetest für Gesundheits-KI: Sie muss im Zweifel zur schnellen Untersuchung raten, statt zu beruhigen.
Mustafa Suleyman, bei Microsoft für KI-Produkte im Verbraucherbereich verantwortlich, beschreibt Copilot Health als Annäherung an eine „Concierge-Medizin“ – also an Modelle, bei denen Patienten gegen Gebühr eng betreut werden. Microsoft betont das Angebot solle keinen Arzt ersetzen, sondern helfen, Fragen für die Sprechstunde zu strukturieren und Befunde besser zu verstehen.
Von Smartwatch bis Patientenakte: Datenintegration als Kernversprechen
Der Nutzen von Copilot Health steht und fällt mit den Daten, die das System verarbeiten kann. Microsoft wirbt mit der Anbindung von mehr als 50 Geräten und Diensten, darunter Schnittstellen zu Apple Health, Oura und Fitbit. Damit fließen je nach Gerät Werte wie Herzfrequenz, Schlaf, Aktivität oder teils auch Sauerstoffsättigung ein.
Der Vorteil: Nutzer können nicht nur nach einem Symptom fragen, sondern nach Trends. Etwa: „Seit zwei Wochen schlafe ich schlechter und mein Ruhepuls steigt“ – statt sich auf ein Bauchgefühl zu verlassen. Das kann helfen, Beobachtungen zu präzisieren und dem Arzt später nachvollziehbar zu schildern.
Für medizinische Dokumente setzt Microsoft auf HealthEx, um sich nach eigenen Angaben mit mehr als 50.000 Krankenhäusern und Versorgungsorganisationen in den USA zu verbinden. Zusätzlich nennt das Unternehmen die Einbindung von Laborwerten über den Dienst Function. Damit rückt ein heikler Bereich in den Fokus: Ergebnisse erklären, ohne sie wie ein Arzt zu bewerten.
Microsoft verspricht, Antworten mit Zitaten und Verweisen auf als verlässlich eingestufte Quellen zu unterfüttern. Das ist eine direkte Reaktion auf ein bekanntes Problem generativer KI: Sie kann überzeugend klingende, aber falsche Aussagen produzieren. Doch auch korrekt zitierte Informationen können im Einzelfall fehlleiten – etwa wenn wichtige Angaben fehlen, Medikamente nicht genannt werden oder besondere Umstände wie Schwangerschaften unberücksichtigt bleiben.
Datenschutz und Sicherheit: Microsoft verspricht Trennung und Verschlüsselung
Microsoft stellt Sicherheitszusagen in den Vordergrund: Gesundheitsdaten in Copilot Health sollen verschlüsselt gespeichert werden. sollen sie strikt von anderen Copilot-Konversationen getrennt sein – damit etwa Reiseplanung oder Rechnungsfragen nicht mit medizinischen Informationen vermischt werden.
Ein weiterer zentraler Punkt: Microsoft erklärt, die in Copilot Health eingegebenen Daten nicht zum Training seiner KI-Modelle zu verwenden. Nutzer sollen ihre Informationen jederzeit löschen können. In der Praxis bleibt die Frage, wie verständlich solche Einstellungen sind – und wie konsequent Nutzer kontrollieren, was gespeichert, protokolliert oder für Produktverbesserungen ausgewertet wird.
Microsoft positioniert Copilot Health ausdrücklich nicht als Diagnose- oder Therapieinstrument. Dominic King, ein leitender Manager im KI-Gesundheitsumfeld bei Microsoft, hebt das Risiko von Fehlentscheidungen beim „Triage“-Prinzip hervor: also bei der Frage, ob ein Symptom harmlos ist oder dringend abgeklärt werden muss. Ein falsches Entwarnen kann gefährlich sein, ein unnötiges Alarmieren kann Ängste schüren und Notaufnahmen belasten.
Auffällig ist: In den öffentlich zitierten Aussagen verweist Microsoft nicht ausdrücklich auf eine HIPAA-Konformität. HIPAA ist in den USA ein zentraler Rechtsrahmen für den Umgang mit Gesundheitsdaten – vergleichbar in der Bedeutung mit strengen Datenschutz- und Compliance-Anforderungen, wie sie in Deutschland etwa im Zusammenspiel aus DSGVO, ärztlicher Schweigepflicht und spezialgesetzlichen Regeln gelten. Solange die Grenze zwischen Informationshilfe und Gesundheitsversorgung unscharf bleibt, dürfte die Frage nach Prüfungen, Audits und Haftung die Debatte prägen.
230 Ärzte als Berater – aber die Bewährungsprobe kommt im Alltag
Um Vertrauen aufzubauen, verweist Microsoft auf eine interne klinische Einheit und ein externes Beratergremium mit mehr als 230 Ärzten aus 24 Ländern. Diese Experten sollen Antworten, Sicherheitsmechanismen und Risikoszenarien bewerten – bei Beschwerden, bei denen falsche Empfehlungen schnell gefährlich werden.
Zusätzlich nennt Microsoft Partnerschaften mit etablierten medizinischen Informationsanbietern wie Harvard Health und UpToDate (Wolters Kluwer). Solche Quellen können die Qualität heben, lösen aber das Kernproblem nicht: Medizin ist kontextabhängig, und ein Chatbot muss Unsicherheit aushalten, Rückfragen stellen und im Zweifel auch sagen können, dass er nicht weiterkommt.
Die entscheidende Frage ist, ob das System in Millionen realer Gespräche zuverlässig bleibt – auch wenn Nutzer Symptome ungenau beschreiben, Informationen weglassen oder widersprüchlich formulieren. Eine überzeugende Demo ist dafür nur ein erster Schritt.
Wettlauf der Tech-Konzerne: OpenAI, Amazon und Google drängen in den Gesundheitsmarkt
Microsoft stößt in ein Feld, das sich rasant füllt. OpenAI kündigte im Januar „ChatGPT Health“ an, ebenfalls mit der Möglichkeit, Dokumente hochzuladen und Gesundheitsdaten aus Apps zu synchronisieren. Amazon startete über seine Arztketten-Tochter One Medical einen „Health AI“-Assistenten, der neben Gesundheitsfragen auch Terminorganisation und Medikamentenmanagement adressiert.
Microsoft begründet den Vorstoß mit schierer Nachfrage: Nach Unternehmensangaben verarbeiten Copilot und Bing zusammen mehr als 50 Millionen gesundheitsbezogene Fragen pro Tag. Ein großer Teil betreffe allgemeine Informationen, ein weiterer Symptome, Fitness-Coaching oder Fragen zu Erkrankungen und Behandlungen. Copilot Health soll diese Nutzung in einen stärker kontrollierten Rahmen lenken.
Brisant ist auch eine weitere Zahl: Microsoft zufolge enthalten rund 20 Prozent dieser Gesundheitsgespräche persönliche Daten – von Symptombeschreibungen bis zu intimen Details. Das zeigt, wie sehr Nutzer solche Systeme bereits als erste Anlaufstelle verwenden, oft auch, weil Arzttermine schwer zu bekommen sind. Genau dadurch verschiebt sich aber Verantwortung: Wer sich auf KI-Antworten verlässt, muss Risiken einschätzen können – eine hohe Hürde für Laien.
Als praxisnahes Element bewirbt Microsoft die Echtzeit-Suche nach medizinischem Personal: Nutzer können demnach nach Fachrichtung, Standort, gesprochenen Sprachen und Versicherungsabdeckung filtern. Das kann Wege verkürzen, löst aber ein Grundproblem nicht: KI kann keine zusätzlichen Termine schaffen. Wenn Wartezeiten lang bleiben, wächst die Versuchung, den Chatbot als Ersatz zu nutzen – trotz aller Warnhinweise.
Was der Start für Europa bedeuten könnte
Ob und wann Copilot Health nach Europa kommt, ist offen. Sollte Microsoft das Angebot ausweiten, dürfte es hierzulande an strengen Erwartungen gemessen werden: an Datenschutz, an Transparenz über Datenflüsse und an klare Grenzen zwischen Informationsdienst und medizinischer Leistung.
Für Nutzer könnte der Dienst attraktiv sein – als digitales Notizbuch für Symptome, Messwerte und Fragen, die man sonst im Alltag verliert. Für das Gesundheitssystem wäre entscheidend, ob solche Werkzeuge Arztgespräche effizienter machen oder ob sie neue Unsicherheiten erzeugen. Die Antwort wird weniger in Marketingversprechen liegen als in der Alltagstauglichkeit – und in der Frage, wer am Ende Verantwortung trägt.
Wichtige Punkte
- Microsoft startet Copilot Health in den USA per Einladung, innerhalb des Copilot-Angebots für Endverbraucher
- Der Dienst bündelt Daten aus Wearables und medizinischen Akten über HealthEx, mit Quellenzitaten
- Microsoft verspricht Verschlüsselung, Datentrennung und dass die Modelle nicht mit diesen Informationen trainiert werden
- Eine klinische Aufsicht wird hervorgehoben, mit einem internen Team und der Konsultation von mehr als 230 Ärzten
- Der Wettbewerb verschärft sich mit OpenAI und Amazon, vor dem Hintergrund von Dutzenden Millionen täglicher Gesundheitsfragen
Häufig gestellte Fragen
Kann Copilot Health einen Arzt ersetzen?
Nein. Microsoft stellt Copilot Health als Ergänzung dar, die dabei helfen soll, Informationen zu verstehen, Fragen vorzubereiten und bei Bedarf zu einer Konsultation zu führen – ohne eine endgültige Diagnose oder einen Behandlungsplan zu liefern.
Welche Daten kann Copilot Health nutzen?
Das Tool kann die vom Nutzer bereitgestellte Gesundheitsgeschichte, über HealthEx angebundene medizinische Akten, Daten aus mehr als 50 Wearables und Diensten wie Apple Health, Oura und Fitbit sowie Laborergebnisse über Function einbeziehen.
Werden Gesundheitsdaten zum Trainieren von Microsofts KI verwendet?
Microsoft erklärt, dass die in Copilot Health eingegebenen Daten nicht zum Training seiner KI-Modelle verwendet werden. Das Unternehmen gibt außerdem an, dass der Nutzer seine Informationen jederzeit löschen kann.
Wie versucht Microsoft, Triage-Fehler zu begrenzen?
Microsoft sagt, es stütze sich auf ein internes klinisches Team, ein externes Panel von mehr als 230 Ärzten in 24 Ländern sowie mehrschichtige Bewertungs- und Sicherheitsprinzipien. Der Chatbot ist so konzipiert, dass er in Risikosituationen zu einer persönlichen medizinischen Versorgung anleitet.
Warum investieren Big-Tech-Unternehmen so stark in KI im Gesundheitsbereich?
Microsoft gibt an, dass seine Tools täglich mehr als 50 Millionen Gesundheitsfragen verarbeiten – ein Zeichen für eine enorme Nachfrage. Gesundheitsassistenten sollen diese Interaktionen strukturieren, Antworten mithilfe von Daten personalisieren und konkrete Schritte erleichtern, etwa einen Kliniker zu finden.
Quellen
- Microsoft joins crowd with health assistant for copilot chatbot
- Microsoft joins the AI chatbot market with Copilot Health – TechTarget
- Microsoft launches dedicated health AI chatbot – Healthcare Dive
- Microsoft unveils Copilot Health – eMarketer
- Microsoft AI To Start Giving Medical Advice 'You Can Act On' – Forbes
En tant que jeune média indépendant, The Inquirer 🇫🇷 a besoin de votre aide. Soutenez-nous en nous suivant et en nous ajoutant à vos favoris sur Google News. Merci !

















