Llega ChatGPT Salud: ¿Qué esperar de la nueva experiencia de OpenAI?
Nos sorprende OpenAI con un espacio para la salud que conecta registros médicos y apps, pero la «muralla de privacidad» y la precisión clínica generan debate entre expertos.
OpenAI ha oficializado el lanzamiento de ChatGPT Salud, un espacio dedicado y blindado dentro de su interfaz diseñado para, según palabras de la propia compañía, «ayudar a navegar el sistema médico, no reemplazarlo».
A través de una alianza estratégica con la red de datos b.well, los usuarios pueden conectar sus registros médicos electrónicos, mientras que a nivel global se permite la integración con Apple Health, MyFitnessPal, Peloton e incluso Instacart.
La premisa oficial es eliminar los «silos de datos»: que la IA deje de dar consejos genéricos y empiece a analizar tu salud basándose en tus analíticas reales, tus horas de sueño y hasta tu lista de la compra.
OpenAI presenta esta herramienta como un «copiloto» capaz de generar guías de discusión para el médico, traducir informes de laboratorio complejos al «lenguaje de la calle» y realizar un seguimiento longitudinal de biométricos.
Sin embargo, el enfoque crítico revela una tensión evidente: la empresa admite que más de 230 millones de personas ya usan ChatGPT para consultas de salud semanalmente. Al canalizar este tráfico masivo hacia una sección específica, OpenAI no solo ordena el caos, sino que se posiciona como el intermediario definitivo entre el paciente y su médico, planteando interrogantes sobre la dependencia tecnológica en momentos de vulnerabilidad.
La muralla de cristal de OpenAI
Uno de los puntos más defendidos por OpenAI en su comunicado oficial es la segregación total de datos. La compañía afirma que ChatGPT Salud opera bajo una «muralla de privacidad» unidireccional:
La IA puede traer contexto de tus chats normales (como si te has mudado recientemente o has cambiado de trabajo) para darte mejores consejos de salud, pero ninguna información generada dentro del espacio de Salud saldrá de ahí ni se utilizará para entrenar sus modelos fundacionales.
Es, en teoría, un búnker digital. No obstante, los críticos advierten que el cifrado de extremo a extremo y el aislamiento de «memorias de salud» no eliminan el riesgo de la alucinación clínica.
Para mitigar esto, OpenAI ha revelado que utiliza HealthBench, un nuevo estándar de evaluación desarrollado con médicos para medir la seguridad y la claridad de las respuestas. Aun así, la propia letra pequeña del servicio es tajante: la IA no diagnostica.
El riesgo reside en la «zona gris» del usuario: ¿qué sucede cuando un paciente confía más en la interpretación optimista de una IA sobre un valor de una analítica que en la cautela de su médico de cabecera? Además, la integración con plataformas como Instacart para sugerir compras de alimentos «saludables» abre la puerta a un nuevo tipo de influencia comercial basada en datos biométricos, algo que roza límites éticos sobre el consumo dirigido.
El riesgo reside en la «zona gris» del usuario: ¿qué sucede cuando un paciente confía más en la interpretación optimista de una IA sobre un valor de una analítica que en la cautela de su médico de cabecera? Además, la integración con plataformas como Instacart para sugerir compras de alimentos «saludables» abre la puerta a un nuevo tipo de influencia comercial basada en datos biométricos, algo que roza límites éticos sobre el consumo dirigido.