La IA en Salud bajo la lupa: ChatGPT Health no reconoce más de la mitad de las urgencias críticas

La IA en Salud bajo la lupa: ChatGPT Health no reconoce más de la mitad de las urgencias críticas

Una evaluación reciente ha encendido la alarma sobre los límites actuales de ChatGPT Health, la función de inteligencia artificial de OpenAI diseñada para orientar a los usuarios sobre problemas médicos. Según un estudio independiente liderado por investigadores de la Escuela de Medicina Icahn del Mount Sinai, esta herramienta falló en identificar adecuadamente más de la mitad de los escenarios que requerían atención urgente, una señal de alerta sobre su uso sin supervisión profesional.

 

El análisis se basó en 960 interacciones simuladas a partir de 60 casos clínicos distintos, que abarcan 21 especialidades médicas diferentes. Los resultados mostraron que en 52 % de las emergencias simuladas, la IA no recomendó correctamente acudir a servicios de urgencias, subestimando la gravedad de condiciones potencialmente letales como cetoacidosis diabética o insuficiencia respiratoria inminente.

 

Si bien la herramienta identificó con mayor éxito algunas emergencias claras, como accidentes cerebrovasculares o reacciones alérgicas graves, su inexactitud se intensificó en situaciones complejas o atípicas. Además, el estudio revela que factores como la minimización de los síntomas por parte de usuarios aumentaron las posibilidades de respuestas que sugerían atención de menor urgencia.

 

Otro punto crítico fue la respuesta inconsistente ante situaciones de ideación suicida. En algunos casos, ChatGPT Health no derivó a los usuarios a líneas de ayuda en crisis incluso cuando se describían planes específicos de autolesión, lo que representa un riesgo significativo para la seguridad del usuario.

 

Los autores del análisis no piden que se prohíba el uso de estas tecnologías, pero insisten en que no deben sustituir el criterio clínico humano. Con millones de personas consultando estas herramientas para cuestiones de salud cada día, expertos en medicina recomiendan que la IA sea una guía complementaria y no la fuente principal de decisiones médicas urgentes.