Cuando tenemos algunas dudas sobre salud, sobre como se deben curar las heridas domésticas o buscar pistas para detectar y cómo retrasar el Alzheimer, tratamos de buscar la voz de un profesional. Aunque en los últimos años, podemos consultar con la IA, que nos puede dar una respuesta óptima.
El pasado 28 de octubre se publicó un estudio, realizado por varios expertos, que trabajan para los centros de la Universidad de Stanford, que reveló datos impactantes en cuanto a la inteligencia artificial y la capacidad de diagnóstico médico de esta. Se descubrió que los "modelos de lenguaje grande" (LLM), que son las inteligencias artificiales, como ChatGPT, tienen una gran capacidad de acierto en el proceso de diagnóstico médico en casos de pacientes con diversas patologías.
El estudio se basaba en comprobar si de verdad ayuda a tener una inteligencia artificial de apoyo en profesiones como la medicina para conseguir una probabilidad de acierto al 100%. El ensayo clínico se realizó el pasado 2023. Los médicos que participaron fueron formados en medicina familiar, interna y de urgencias. Tenían que revisar 6 casos clínicos. La mitad tenía que hacerlo solos y la otra mitad, debía consultar un LLM.

Los resultados dieron que "el LLM por sí solo demostró un rendimiento superior al de ambos grupos de médicos, lo que indica la necesidad de desarrollo de la tecnología y la fuerza laboral para aprovechar el potencial de la colaboración entre médicos e inteligencia artificial en la práctica clínica".
Un estudio para solventar los problemas de diagnóstico
El humano no es perfecto y, al efectuar las tareas de diagnóstico, tampoco. Los errores de diagnóstico son comunes en la mayoría de casos del mundo. Es un error que puede hacer mucho daño al paciente. Con este experimento se pretendió comprobar que, con ayuda de una inteligencia artificial, la capacidad de error se reduce de forma considerable.

En muchos discursos vemos cómo el modelo de IA está demonizado, pensando que va a ser el sustituto de muchos trabajos. En este experimento se demostró que este tipo de herramientas informáticas sirven de apoyo, sin la necesidad de eliminar por completo la figura humana del médico. A su vez, daba a entender que los chatbots automáticos que muchas compañías de salud ofrecen, no son del todo fiables.
El papel del humano con la inteligencia artificial

Otro de los datos que sorprendieron a los expertos de este proyecto fue la reticencia, de muy buena parte de los médicos, a aceptar los diagnósticos alternativos que ofrecía la IA, a pesar de ser mucho más precisos. Esto fue debido a que las cosas que decía el chatbot no eran las que decía el profesional. No las tenían en cuenta porque "eran contrarias a las propias ideas de los profesionales", asegurada el coautor del estudio, el doctor Adam Rodman. Es entonces, cuando aparece un sesgo que es más común de lo que se creía. Este es el exceso de confianza ante sus propias conclusiones.
En definitiva, la mayoría de los médicos que usaron el LLM, lo usaron como herramienta de búsqueda convencional. Pocos de los que colaboraron usaron esta inteligencia artificial para procesar toda la información clínica, es decir, copiaron y pegaron el caso para un diagnóstico del chatbot.