
Microsoft quiere que su chatbot Copilot deje de ser solo un “buscador con conversaciĂłn” y se convierta en un apoyo para gestionar la salud. La compañĂa ha activado en Estados Unidos, por invitaciĂłn, una nueva pestaña llamada Copilot Health, pensada para centralizar datos personales y ofrecer respuestas más contextualizadas.
La promesa suena tentadora: una experiencia cercana a la “medicina concierge”, servicios privados de seguimiento más personalizado, sin sustituir al mĂ©dico. Pero el movimiento reabre un debate incĂłmodo: quĂ© pasa cuando una IA se equivoca con sĂntomas, urgencias o resultados clĂnicos, y quiĂ©n asume la responsabilidad.
Un lanzamiento limitado en EEUU para probar usos reales
Copilot Health aparece como un portal y un chat especĂficos dentro del Copilot para consumidores, separado de las funciones de Copilot orientadas a empresas. Microsoft lo ha estrenado con un sistema de invitaciones en Estados Unidos, una forma de controlar el despliegue y observar cĂłmo lo usa la gente antes de ampliarlo.
El usuario se encuentra con un espacio diferenciado del resto de conversaciones, con lógica de “expediente personal”. Ahà puede subir historial médico, documentos y datos de dispositivos conectados para que el asistente responda con más contexto que un chatbot generalista.
La idea es simple: la misma pregunta, por ejemplo, “llevo semanas con cansancio”, no significa lo mismo en funciĂłn de la edad, antecedentes, medicaciĂłn o nivel de actividad. En una demostraciĂłn con datos ficticios, el sistema recomendĂł acudir a una evaluaciĂłn presencial “hoy” ante dolor de mandĂbula en una persona con antecedente de infarto, un caso en el que el asistente debe empujar hacia la urgencia.
Mustafa Suleyman, responsable de la IA de consumo en Microsoft, lo vende como una herramienta para preparar consultas: ordenar sĂntomas, entender resultados y llegar al mĂ©dico con preguntas claras. En la práctica, ese será probablemente el uso más habitual. El riesgo, advierten expertos, es que el usuario acabe tratándolo como árbitro mĂ©dico: ayudar sin diagnosticar, orientar sin prescribir.
Datos de relojes y anillos, y conexiĂłn a historiales clĂnicos con HealthEx
El corazĂłn del producto es la integraciĂłn de datos. Microsoft asegura que Copilot Health puede conectarse con más de 50 dispositivos y servicios, con pasarelas hacia Apple Health, Oura o Fitbit. Para muchos usuarios, eso significa mĂ©tricas diarias como frecuencia cardiaca, sueño, actividad y, segĂşn el modelo, saturaciĂłn de oxĂgeno.
La ventaja es pasar de la intuición a las tendencias: “desde hace dos semanas duermo peor y sube mi pulso en reposo”. Ese tipo de preguntas, apoyadas en series de datos, es justo lo que Microsoft quiere canalizar dentro de un entorno más “guiado”.
Para historiales mĂ©dicos, la compañĂa se apoya en HealthEx, una plataforma que permite conectar con más de 50.000 hospitales y organizaciones sanitarias en Estados Unidos. TambiĂ©n menciona la integraciĂłn de resultados de laboratorio a travĂ©s de Function, lo que abre la puerta a consultas sobre analĂticas (glucosa, lĂpidos, marcadores), con una lĂnea roja clara: explicar quĂ© es un valor sin “interpretarlo” como lo harĂa un clĂnico.
En el dĂa a dĂa, el valor añadido se ve en situaciones comunes: alguien recibe una analĂtica con un parámetro fuera de rango y quiere entender quĂ© mide, quĂ© puede alterarlo y quĂ© preguntas conviene preparar antes de llamar al mĂ©dico. El reverso es evidente: si la IA enumera escenarios graves sin el contexto completo, puede disparar la ansiedad.
Seguridad y privacidad: cifrado, separaciĂłn de datos y promesa de no entrenar la IA
Microsoft pone la seguridad en primer plano. Afirma que los datos introducidos en Copilot Health van cifrados y con controles adicionales, y que se mantienen separados del resto de conversaciones de Copilot para evitar mezclas accidentales con otras interacciones (viajes, compras o trabajo).
La empresa tambiĂ©n sostiene que esos datos de salud no se usarán para entrenar sus modelos de IA y que el usuario podrá borrar su informaciĂłn cuando quiera. Aun asĂ, persiste la duda práctica: cuánta gente revisará ajustes, entenderá quĂ© se guarda, quĂ© se registra y quĂ© implica realmente “eliminar” en un servicio digital.
Microsoft insiste en que Copilot Health no ofrece un diagnóstico final ni un plan de tratamiento. Dominic King, vicepresidente y colaborador de Suleyman, subraya el riesgo de los errores de triaje: tranquilizar cuando no toca o alarmar sin motivo. En salud, el coste de fallar no es simétrico: un falso negativo puede retrasar una atención urgente; un falso positivo puede saturar urgencias y angustiar al usuario.
Otro matiz relevante: en las comunicaciones pĂşblicas citadas sobre el lanzamiento, Microsoft no presume de forma explĂcita de cumplimiento HIPAA (la normativa estadounidense de privacidad sanitaria). Para el pĂşblico general puede sonar tĂ©cnico, pero para el sector marca el nivel de obligaciones, auditorĂas y respuesta ante incidentes.
230 médicos consultados y alianzas de contenido para reducir “alucinaciones”
Para reforzar la credibilidad, Microsoft asegura contar con un equipo clĂnico interno y haber consultado a más de 230 mĂ©dicos en 24 paĂses. El objetivo es probar respuestas, lĂmites y escenarios de riesgo, cuando el asistente debe recomendar acudir a un profesional.
La compañĂa tambiĂ©n destaca acuerdos con fuentes mĂ©dicas conocidas como Harvard Health y UpToDate (Wolters Kluwer), habituales en entornos sanitarios. Eso puede ayudar a evitar errores “verosĂmiles” tĂpicos de los chatbots generalistas, pero no elimina el problema de fondo: una informaciĂłn correcta puede aplicarse mal si faltan datos o el usuario omite medicaciĂłn, embarazo o antecedentes clave.
La prueba real no está en una demo, sino en millones de conversaciones: usuarios que explican mal, minimizan sĂntomas o mezclan informaciĂłn. AhĂ se mide la robustez de un asistente que, en el mejor de los casos, debe saber preguntar más y, en el peor, saber decir “no lo sé”.
La carrera de la IA sanitaria: OpenAI, Amazon y Google aprietan
Microsoft llega a un terreno cada vez más competido. OpenAI anunció en enero ChatGPT Health, con opciones para subir historiales y sincronizar datos de apps de salud. Amazon, a través de One Medical, lanzó por esas fechas un asistente Health AI orientado a dudas sanitarias, citas y gestión de medicación.
La apuesta de Microsoft se apoya en un dato que la propia empresa repite: sus herramientas de IA, incluido Copilot y Bing, procesan más de 50 millones de preguntas de salud al dĂa. SegĂşn sus cifras, en enero el 41% de las conversaciones sanitarias eran de informaciĂłn general; el 11% sobre sĂntomas; el 9% sobre “coaching” fitness; y el 8% sobre condiciones y cuidados.
Microsoft añade otro dato inquietante: cerca del 20% de esas conversaciones incluyen informaciĂłn personal sensible (sĂntomas, resultados, detalles Ăntimos). Es decir, la gente ya usa estos sistemas como primera puerta, a veces porque no consigue cita rápida. La tecnologĂa puede ayudar a ordenar y orientar, pero tambiĂ©n puede desplazar la carga de decisiĂłn hacia el usuario.
Como función más “accionable”, Copilot Health se conecta a directorios de profesionales en tiempo real para buscar especialistas por ubicación, idiomas y cobertura del seguro. Es útil sin entrar en el diagnóstico. Pero no crea citas donde no las hay: si las listas de espera son largas, el asistente corre el riesgo de convertirse en sustituto de facto, justo lo que Microsoft dice querer evitar.
Puntos clave
- Microsoft lanza Copilot Health en Estados Unidos mediante invitaciones, dentro de Copilot para el pĂşblico general
- El servicio agrega datos de wearables e historiales médicos a través de HealthEx, con citas de las fuentes
- Microsoft promete cifrado, separación de datos y que no se entrenarán los modelos con esta información
- Se destaca la supervisiĂłn clĂnica, con un equipo interno y más de 230 mĂ©dicos consultados
- La competencia se intensifica con OpenAI y Amazon, en un contexto de decenas de millones de preguntas de salud diarias
Preguntas frecuentes
¿Puede Copilot Health reemplazar a un médico?
No. Microsoft presenta Copilot Health como un complemento, destinado a ayudar a comprender informaciĂłn, preparar preguntas y orientar hacia una consulta cuando sea necesario, sin proporcionar un diagnĂłstico final ni un plan de tratamiento.
¿Qué datos puede usar Copilot Health?
La herramienta puede integrar el historial de salud proporcionado por el usuario, historiales médicos conectados a través de HealthEx, datos de más de 50 wearables y servicios como Apple Health, Oura y Fitbit, y resultados de laboratorio a través de Function.
ÂżLos datos de salud se utilizan para entrenar la IA de Microsoft?
Microsoft afirma que los datos introducidos en Copilot Health no se utilizan para entrenar sus modelos de IA. La empresa también indica que el usuario puede eliminar su información en cualquier momento.
ÂżCĂłmo intenta Microsoft limitar los errores de triaje?
Microsoft dice apoyarse en un equipo clĂnico interno, un panel externo de más de 230 mĂ©dicos en 24 paĂses y principios de evaluaciĂłn y seguridad multicapa. El chatbot está diseñado para orientar hacia una atenciĂłn presencial en situaciones de riesgo.
¿Por qué las Big Tech invierten tanto en IA para la salud?
Microsoft indica que sus herramientas gestionan más de 50 millones de preguntas de salud al dĂa, señal de una demanda masiva. Los asistentes de salud buscan estructurar estos intercambios, personalizar las respuestas gracias a los datos y facilitar acciones concretas como encontrar un profesional clĂnico.
Fuentes
- Microsoft joins crowd with health assistant for copilot chatbot
- Microsoft joins the AI chatbot market with Copilot Health – TechTarget
- Microsoft launches dedicated health AI chatbot – Healthcare Dive
- Microsoft unveils Copilot Health – eMarketer
- Microsoft AI To Start Giving Medical Advice 'You Can Act On' – Forbes
En tant que jeune média indépendant, The Inquirer 🇫🇷 a besoin de votre aide. Soutenez-nous en nous suivant et en nous ajoutant à vos favoris sur Google News. Merci !
















