ARTDEPARTMENT
En un nuevo estudio clínico realizado por expertos de varios centros de investigación estadounidenses, se exploró el impacto de los 'grandes modelos de habla' (o LLMs), como ChatGPT-4, en el proceso de dictamen médico.
Y los resultados han sido reveladores: los médicos que hicieron uso de la plataforma de OpenAI adyacente a sus capital convencionales obtuvieron resultados sólo tenuemente mejores que los médicos que no tuvieron ningún golpe al bot...
...pero, para sorpresa de los investigadores, ChatGPT actuando de forma autónoma superó a entreambos grupos de médicos.
El estudio, que implicó a 50 médicos de diversas especialidades (medicina interna, medicina frecuente y emergencias), asignó a los participantes a dos grupos: uno que utilizó un chatbot adyacente con herramientas tradicionales de apoyo al dictamen, y otro que usó nada más capital convencionales como bases de datos clínicas. Encima, se evaluó el rendimiento del chatbot actuando de forma autónoma.
Así, el chatbot, utilizado en solitario, logró una puntuación media del 92% en un indicador que medía la precisión y calidad del razonamiento dictamen, superando tanto a los médicos con golpe a la útil (76%) como a aquellos sin ella (74%).
Una de las sorpresas más notables fue la resistor de los médicos a aceptar diagnósticos alternativos sugeridos por el chatbot, incluso cuando estos eran más precisos. Según explicó el Dr. Adam Rodman, coautor del estudio y avezado en medicina interna.
"No escuchaban a la inteligencia sintético cuando les decía cosas que contradecían sus propias ideas".
Este hallazgo refleja un aberración aceptablemente documentado: el exceso de confianza de los médicos en sus propios juicios.
Otro aspecto crítico fue la forma en que los médicos interactuaron con el chatbot. Muchos lo trataron como un motor de búsqueda convencional, haciendo preguntas específicas en punto de emplear su capacidad para analizar casos completos y ofrecer un razonamiento estructurado. Solo una minoría utilizó la útil para procesar toda la información clínica de forma integral.
Los LLM han demostrado una capacidad sobresaliente para resolver problemas clínicos complejos, gracias a su entrenamiento en grandes volúmenes de datos y su tacto para interpretar el habla natural. En el estudio, el chatbot no sólo generó diagnósticos precisos, sino que incluso explicó detalladamente las razones que sustentaban sus conclusiones.
Esto sugiere que estas herramientas podrían convertirse en 'asistentes médicos' capaces de aportar segundas opiniones valiosas a la hora de complementar el criterio humano.
Sin bloqueo, para realizar este potencial, es fundamental capacitar a los profesionales en el uso efectivo de estas herramientas... y es que, entre las limitaciones del estudio, destaca el hecho de que los médicos participantes no recibieron capacitación específica en el uso del chatbot, lo que refleja su nivel de uso existente por los profesionales médicos, pero incluso subestima el potencial existente de la IA.
El uso de ordenadores para asistir en diagnósticos no es nuevo. Desde los abriles 70, los investigadores han desarrollado sistemas como INTERNIST-1, que intentaban replicar el razonamiento humano a través de códigos lógicos. Aunque estas iniciativas resultaron prometedoras, su admisión fue limitada conveniente a su gran complejidad y a la equivocación de confianza de los médicos.
Con la arribada de los LLM, el enfoque ha cambiado: estos sistemas no imitan directamente el razonamiento humano, sino que generan diagnósticos al predecir patrones lingüísticos con saco en datos previos. Su interfaz conversacional, claro de usar, ha transformado la forma en que los médicos pueden interactuar con su ordenador.
Imagen | Marcos Merino mediante IA
En Genbeta | Han retado a ChatGPT a hacer exámenes muy difíciles de medicina y derecho. La IA aprueba en segundos
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!