La nueva función médica de OpenAI, llamada ChatGPT Health, promete respuestas rápidas sobre síntomas, estudios y tratamientos. Pero detrás de esa promesa aparecen dudas clave: qué tan confiable es, qué pasa con los datos sensibles y cuáles son los límites de una inteligencia artificial en temas de salud.

Imagen: Ámbito
ChatGPT Health es una versión del conocido chatbot de OpenAI orientada a temas médicos. La herramienta puede explicar diagnósticos, traducir informes, detallar cómo funciona un medicamento o sugerir preguntas para llevar a una consulta con el profesional de cabecera.
No se trata de un médico virtual habilitado, sino de un sistema que procesa grandes volúmenes de información sanitaria y devuelve respuestas en lenguaje sencillo. Su objetivo declarado es ayudar a pacientes, familiares y también a profesionales que buscan una segunda mirada sobre guías clínicas o papers.
En países con sistemas de salud saturados, esta clase de asistentes aparece como un atajo para obtener orientación inicial cuando no se consigue turno rápido o se necesita entender indicaciones complejas.
Los límites: por qué no reemplaza al médico
Aunque las respuestas de la IA puedan sonar convincentes, los especialistas insisten en que no debe tomar decisiones por encima de un profesional matriculado. Los modelos de lenguaje se entrenan con estadísticas y textos, pero no conocen el caso clínico completo de cada persona.
Esto abre la puerta a errores de interpretación, diagnósticos orientativos equivocados o recomendaciones desactualizadas. Un mismo síntoma puede corresponder a cuadros leves o a emergencias, algo que requiere examen físico, estudios y criterio médico, tareas que la IA todavía no puede reemplazar.
Las principales sociedades científicas del mundo remarcan que cualquier sistema de este tipo debe usarse como herramienta complementaria: sirve para ordenar dudas, pero no para automedicarse ni para evitar la consulta presencial o a distancia.
Datos sensibles y privacidad: el otro gran debate
El uso de ChatGPT Health también enciende alarmas sobre privacidad y protección de datos de salud, una categoría especialmente delicada. Cada síntoma, diagnóstico o estudio cargado en el sistema puede convertirse en información valiosa para aseguradoras, empleadores o empresas de publicidad.
OpenAI afirma que aplica medidas de seguridad reforzadas, como cifrado y políticas específicas para no usar ciertos datos en el entrenamiento de modelos. Sin embargo, expertos en derecho digital recuerdan que la historia reciente de las grandes tecnológicas muestra filtraciones, malas prácticas y sanciones por violaciones a la privacidad.
En Argentina, la Ley de Protección de Datos Personales considera la información sanitaria como dato sensible, por lo que requiere consentimiento informado, finalidad clara y resguardo estricto. El desafío es cómo se cumple eso cuando la interacción sucede con un algoritmo alojado en servidores fuera del país.
Cómo usar una IA médica sin poner en riesgo la salud
Frente al avance de estas herramientas, especialistas en salud digital recomiendan algunos criterios básicos para un uso responsable:
- Tomar las respuestas de la IA como orientación general, nunca como diagnóstico definitivo.
- Evitar compartir datos que permitan identificar a la persona, como nombre, DNI, dirección o número de historia clínica.
- No suspender ni modificar tratamientos sin hablar antes con el profesional tratante.
- Usar la información para preparar mejor la consulta, anotando dudas y términos técnicos que la IA ayudó a entender.
- Verificar siempre la fecha y la fuente de las recomendaciones médicas mencionadas.
El avance de la inteligencia artificial en salud parece imparable, pero la clave estará en que los sistemas sean transparentes, auditables y regulados. Mientras tanto, la pregunta sobre si es seguro confiarle la vida a una IA no tiene una respuesta simple: depende de cómo se la use y de qué tan claros queden sus límites.




Comentarios