Una
IA supera a los médicos en la toma de decisiones vitales en urgencias
Investigación
de Harvard
La
IA no sustituirá a los médicos pero cambiará la manera de practicar la
medicina, según los investigadores
En
urgencias los médicos deben actuar con rapidez basándose en información
incompleta
En
urgencias los médicos deben actuar con rapidez basándose en información
incompleta Paul Harizan / Getty
Josep
Corbella Domenech
Josep
Corbella
Barcelona
30/04/2026
20:00
La
inteligencia artificial (IA) puede tomar mejores decisiones que los médicos en
los servicios de urgencias de los hospitales, cuando la información sobre los
pacientes es incompleta y las decisiones que hay que tomar rápido pueden ser de
vida o muerte, según una investigación liderada por Escuela de Medicina de
Harvard que se presenta hoy en la revista Science.
Los
médicos y bioinformáticos que han realizado el estudio abogan por integrar la
IA en la toma de decisiones clínicas para mejorar la atención a los pacientes,
pero siempre bajo responsabilidad y control humano.
“Nuestros
resultados no significan que la IA vaya a sustituir a los médicos. Pero estamos
ante un gran cambio que transformará la medicina”, declaró el martes en rueda
de prensa Arjun Manrai, bioinformático de la Escuela de Medicina de Harvard y
codirector del trabajo.
Los
investigadores han evaluado el sistema 01 de OpenAI en el ripo de situaciones
que se presentan en urgencias: el triaje de los pacientes cuando llegan al
hospital; el razonamiento para precisar el diagnóstico; la decisión de qué
pruebas médicas realizar; y la decisión de adónde derivarlos cuando salen de
urgencias.
Lo
han hecho presentándole casos clínicos complejos como si se tratara de un
examen de medicina. Han comparado los resultados del sistema 01 con los de
médicos de las universidades de Harvard y de Stanford que han evaluado los
mismos casos, así como con el sistema GPT-4o (una versión evolucionada del
popular GPT-4). En todas las situaciones el sistema 01 ha superado a GPT-4o, a
los médicos e incluso a médicos que se ayudaban del GPT-4.
En
el test definitivo que demuestra el potencial de la IA en urgencias, los
investigadores han presentado casos reales de 76 pacientes que acudieron al
hospital Beth Israel Deaconess de Boston, afiliado a la Escuela de Medicina de
Harvard. “Introdujimos el texto en bruto, sin editar, con los innumerables
distractores y todo el ruido aleatorio con que vienen los casos clínicos. Con
los datos confusos del mundo real, 01 también supera a los médicos”, declaró
Peter Brodeur, médico internista del hospital de Boston y coprimer autor de la investigación.
El
sistema 01 precisó el diagnóstico correcto en el momento del triaje inicial en
el 67% de los casos, frente a una tasa de acierto situada entre 50% y 55% para
los médicos. En las horas siguientes, con los resultados de más pruebas, 01
elevó su acierto en el diagnóstico a 82% y los médicos a 70-79%.
Tres
casos reales
El
enfermero con un bajón de azúcar. Un hombre, enfermero de profesión, se
presentó en urgencias del hospital Beth Israel Deaconess de Boston con un
cuadro de hipoglucemia (azúcar bajo en la sangre). Inicialmente los médicos
sospecharon de un problema de diabetes. La IA detectó que se debía a un raro
tipo de cáncer que afectaba al páncreas.
La
falsa pista de los anticoagulantes. Un hombre llegó al hospital con un
tromboembolismo pulmonar, un trastorno grave en que un coágulo de sangre bloquea
una arteria pulmonar. Recibió tratamiento anticoagulante y mejoró inicialmente,
pero poco después volvió a empeorar. Los médicos lo atribuyeron erróneamente a
un fallo del tratamiento. La IA advirtió que el paciente tenía un historial de
lupus y atribuyó correctamente la inflamación de los pulmones y el corazón a la
enfermedad autoinmune.
De
los pulmones al escroto. Un paciente llegó a urgencias con síntomas genéricos
de infección. Había recibido un trasplante y tomaba medicación inmunosupresora,
por lo que no era extraño que sufriera una infección y su sistema inmune no
pudiera controlarla. Se quejaba sobre todo de síntomas respiratorios, lo que
hizo sospechar de una infección pulmonar. También había referido dolor en el
escroto y no se le había dado mayor importancia. La IA diagnosticó
correctamente, antes que los médicos, que sufría una infección necrosante del
escroto que requirió cirugía.
“Estos
modelos pueden ser una de las tecnologías con mayor impacto [en la medicina] en
décadas”, declaró en la rueda de prensa Adam Rodman, médico internista del
hospital Beth Israel Deaconess y codirector de la investigación. Pero advirtió
que aún no están a punto para utilizarse a gran escala.
Primero
será necesario hacer ensayos clínicos prospectivos para comprobar si incorporar
la IA a la toma de decisiones clínicas es beneficioso para los pacientes,
destacan los autores de la investigación. Además, “es necesario que los
sistemas sanitarios se preparen para invertir en infraestructura de computación
y para (...) facilitar la integración segura de las herramientas de IA en la
atención a los pacientes”, escriben en Science.
Un
problema adicional que habrá que abordar en los próximos años, añadió Peter
Brodeur en la rueda de prensa, es que “estos modelos son extremadamente
capaces, pero los médicos no saben cómo sacar el máximo partido de ellos”.
Por
qué la IA no acabará con los empleos de cuello blanco
Los
investigadores han observado que el sistema 01 no solo acierta más que los
médicos sino que razona mejor. “Evaluamos el razonamiento diagnóstico porque a
veces uno llega al diagnóstico correcto por razones equivocadas”, explicó
Brodeur. La evaluación se ha hecho con casos extraídos de la base de datos NEJM
Healer, creada por la revista The New England Journal of Medicine como parte de
su contenido educativo y de razonamiento clínico. El sistema 01 ha demostrado
un razonamiento óptimo en un 97,5% de los casos, un porcentaje muy superior al
35% conseguido por médicos adjuntos y al 22% de médicos residentes. Y esto a
pesar de que el modelo “no se ha entrenado para el razonamiento médico sino
para predecir la siguiente palabra”, observa Arjun Manraj codirector de la
investigación.
El
sistema de IA se ha evaluado únicamente con documentos de texto, por lo que los
investigadores esperan que sus prestaciones mejoren cuando incorporen también
imágenes y sonidos en sus evaluaciones como hacen los médicos, que tienen en
cuenta la apariencia física de sus pacientes o el sonido de su respiración,
entre otras señales sensoriales.
Aun
así, las decisiones clínicas corresponden a los médicos y no a la IA, pues la
IA puede tener alucinaciones y no hay mecanismos para hacerla responsable de
sus errores. “No podemos esperar que los médicos detecten las alucinaciones
porque los modelos de IA son igual de convincentes cuando tienen razón que cuando
no la tienen; tiene que haber humanos en el circuito de decisión como mecanismo
de seguridad”, declaró Adam Rodman para quien “la IA tiene que ser una
extensión del médico, no un sustituto”.
Josep
Corbella Domenech
Josep
Corbella
No hay comentarios:
Publicar un comentario