Accueil Español Microsoft mete la salud en Copilot con un asistente que cruza datos...

Microsoft mete la salud en Copilot con un asistente que cruza datos médicos y wearables bajo lupa

25
0
Un utilisateur consulte un assistant santé IA sur smartphone à domicile
Copilot Health s’intègre à Copilot et peut exploiter données de wearables et dossiers médicaux.

Microsoft quiere que su chatbot Copilot deje de ser solo un “buscador con conversación” y se convierta en un apoyo para gestionar la salud. La compañía ha activado en Estados Unidos, por invitación, una nueva pestaña llamada Copilot Health, pensada para centralizar datos personales y ofrecer respuestas más contextualizadas.

La promesa suena tentadora: una experiencia cercana a la “medicina concierge”, servicios privados de seguimiento más personalizado, sin sustituir al médico. Pero el movimiento reabre un debate incómodo: qué pasa cuando una IA se equivoca con síntomas, urgencias o resultados clínicos, y quién asume la responsabilidad.

Un lanzamiento limitado en EEUU para probar usos reales

Copilot Health aparece como un portal y un chat especĂ­ficos dentro del Copilot para consumidores, separado de las funciones de Copilot orientadas a empresas. Microsoft lo ha estrenado con un sistema de invitaciones en Estados Unidos, una forma de controlar el despliegue y observar cĂłmo lo usa la gente antes de ampliarlo.

El usuario se encuentra con un espacio diferenciado del resto de conversaciones, con lógica de “expediente personal”. Ahí puede subir historial médico, documentos y datos de dispositivos conectados para que el asistente responda con más contexto que un chatbot generalista.

La idea es simple: la misma pregunta, por ejemplo, “llevo semanas con cansancio”, no significa lo mismo en función de la edad, antecedentes, medicación o nivel de actividad. En una demostración con datos ficticios, el sistema recomendó acudir a una evaluación presencial “hoy” ante dolor de mandíbula en una persona con antecedente de infarto, un caso en el que el asistente debe empujar hacia la urgencia.

Mustafa Suleyman, responsable de la IA de consumo en Microsoft, lo vende como una herramienta para preparar consultas: ordenar síntomas, entender resultados y llegar al médico con preguntas claras. En la práctica, ese será probablemente el uso más habitual. El riesgo, advierten expertos, es que el usuario acabe tratándolo como árbitro médico: ayudar sin diagnosticar, orientar sin prescribir.

Datos de relojes y anillos, y conexiĂłn a historiales clĂ­nicos con HealthEx

El corazón del producto es la integración de datos. Microsoft asegura que Copilot Health puede conectarse con más de 50 dispositivos y servicios, con pasarelas hacia Apple Health, Oura o Fitbit. Para muchos usuarios, eso significa métricas diarias como frecuencia cardiaca, sueño, actividad y, según el modelo, saturación de oxígeno.

La ventaja es pasar de la intuición a las tendencias: “desde hace dos semanas duermo peor y sube mi pulso en reposo”. Ese tipo de preguntas, apoyadas en series de datos, es justo lo que Microsoft quiere canalizar dentro de un entorno más “guiado”.

Para historiales médicos, la compañía se apoya en HealthEx, una plataforma que permite conectar con más de 50.000 hospitales y organizaciones sanitarias en Estados Unidos. También menciona la integración de resultados de laboratorio a través de Function, lo que abre la puerta a consultas sobre analíticas (glucosa, lípidos, marcadores), con una línea roja clara: explicar qué es un valor sin “interpretarlo” como lo haría un clínico.

En el día a día, el valor añadido se ve en situaciones comunes: alguien recibe una analítica con un parámetro fuera de rango y quiere entender qué mide, qué puede alterarlo y qué preguntas conviene preparar antes de llamar al médico. El reverso es evidente: si la IA enumera escenarios graves sin el contexto completo, puede disparar la ansiedad.

Seguridad y privacidad: cifrado, separaciĂłn de datos y promesa de no entrenar la IA

Microsoft pone la seguridad en primer plano. Afirma que los datos introducidos en Copilot Health van cifrados y con controles adicionales, y que se mantienen separados del resto de conversaciones de Copilot para evitar mezclas accidentales con otras interacciones (viajes, compras o trabajo).

La empresa también sostiene que esos datos de salud no se usarán para entrenar sus modelos de IA y que el usuario podrá borrar su información cuando quiera. Aun así, persiste la duda práctica: cuánta gente revisará ajustes, entenderá qué se guarda, qué se registra y qué implica realmente “eliminar” en un servicio digital.

Microsoft insiste en que Copilot Health no ofrece un diagnóstico final ni un plan de tratamiento. Dominic King, vicepresidente y colaborador de Suleyman, subraya el riesgo de los errores de triaje: tranquilizar cuando no toca o alarmar sin motivo. En salud, el coste de fallar no es simétrico: un falso negativo puede retrasar una atención urgente; un falso positivo puede saturar urgencias y angustiar al usuario.

Otro matiz relevante: en las comunicaciones públicas citadas sobre el lanzamiento, Microsoft no presume de forma explícita de cumplimiento HIPAA (la normativa estadounidense de privacidad sanitaria). Para el público general puede sonar técnico, pero para el sector marca el nivel de obligaciones, auditorías y respuesta ante incidentes.

230 médicos consultados y alianzas de contenido para reducir “alucinaciones”

Para reforzar la credibilidad, Microsoft asegura contar con un equipo clínico interno y haber consultado a más de 230 médicos en 24 países. El objetivo es probar respuestas, límites y escenarios de riesgo, cuando el asistente debe recomendar acudir a un profesional.

La compañía también destaca acuerdos con fuentes médicas conocidas como Harvard Health y UpToDate (Wolters Kluwer), habituales en entornos sanitarios. Eso puede ayudar a evitar errores “verosímiles” típicos de los chatbots generalistas, pero no elimina el problema de fondo: una información correcta puede aplicarse mal si faltan datos o el usuario omite medicación, embarazo o antecedentes clave.

La prueba real no está en una demo, sino en millones de conversaciones: usuarios que explican mal, minimizan síntomas o mezclan información. Ahí se mide la robustez de un asistente que, en el mejor de los casos, debe saber preguntar más y, en el peor, saber decir “no lo sé”.

La carrera de la IA sanitaria: OpenAI, Amazon y Google aprietan

Microsoft llega a un terreno cada vez más competido. OpenAI anunció en enero ChatGPT Health, con opciones para subir historiales y sincronizar datos de apps de salud. Amazon, a través de One Medical, lanzó por esas fechas un asistente Health AI orientado a dudas sanitarias, citas y gestión de medicación.

La apuesta de Microsoft se apoya en un dato que la propia empresa repite: sus herramientas de IA, incluido Copilot y Bing, procesan más de 50 millones de preguntas de salud al día. Según sus cifras, en enero el 41% de las conversaciones sanitarias eran de información general; el 11% sobre síntomas; el 9% sobre “coaching” fitness; y el 8% sobre condiciones y cuidados.

Microsoft añade otro dato inquietante: cerca del 20% de esas conversaciones incluyen información personal sensible (síntomas, resultados, detalles íntimos). Es decir, la gente ya usa estos sistemas como primera puerta, a veces porque no consigue cita rápida. La tecnología puede ayudar a ordenar y orientar, pero también puede desplazar la carga de decisión hacia el usuario.

Como función más “accionable”, Copilot Health se conecta a directorios de profesionales en tiempo real para buscar especialistas por ubicación, idiomas y cobertura del seguro. Es útil sin entrar en el diagnóstico. Pero no crea citas donde no las hay: si las listas de espera son largas, el asistente corre el riesgo de convertirse en sustituto de facto, justo lo que Microsoft dice querer evitar.

Puntos clave

  • Microsoft lanza Copilot Health en Estados Unidos mediante invitaciones, dentro de Copilot para el pĂşblico general
  • El servicio agrega datos de wearables e historiales mĂ©dicos a travĂ©s de HealthEx, con citas de las fuentes
  • Microsoft promete cifrado, separaciĂłn de datos y que no se entrenarán los modelos con esta informaciĂłn
  • Se destaca la supervisiĂłn clĂ­nica, con un equipo interno y más de 230 mĂ©dicos consultados
  • La competencia se intensifica con OpenAI y Amazon, en un contexto de decenas de millones de preguntas de salud diarias

Preguntas frecuentes

¿Puede Copilot Health reemplazar a un médico?

No. Microsoft presenta Copilot Health como un complemento, destinado a ayudar a comprender informaciĂłn, preparar preguntas y orientar hacia una consulta cuando sea necesario, sin proporcionar un diagnĂłstico final ni un plan de tratamiento.

¿Qué datos puede usar Copilot Health?

La herramienta puede integrar el historial de salud proporcionado por el usuario, historiales médicos conectados a través de HealthEx, datos de más de 50 wearables y servicios como Apple Health, Oura y Fitbit, y resultados de laboratorio a través de Function.

ÂżLos datos de salud se utilizan para entrenar la IA de Microsoft?

Microsoft afirma que los datos introducidos en Copilot Health no se utilizan para entrenar sus modelos de IA. La empresa también indica que el usuario puede eliminar su información en cualquier momento.

ÂżCĂłmo intenta Microsoft limitar los errores de triaje?

Microsoft dice apoyarse en un equipo clínico interno, un panel externo de más de 230 médicos en 24 países y principios de evaluación y seguridad multicapa. El chatbot está diseñado para orientar hacia una atención presencial en situaciones de riesgo.

¿Por qué las Big Tech invierten tanto en IA para la salud?

Microsoft indica que sus herramientas gestionan más de 50 millones de preguntas de salud al día, señal de una demanda masiva. Los asistentes de salud buscan estructurar estos intercambios, personalizar las respuestas gracias a los datos y facilitar acciones concretas como encontrar un profesional clínico.

4.5/5 - (8 votos)

En tant que jeune média indépendant, The Inquirer 🇫🇷 a besoin de votre aide. Soutenez-nous en nous suivant et en nous ajoutant à vos favoris sur Google News. Merci !

Suivez-nous sur Google News