¿La IA hace que los médicos se vuelvan peores?

Los médicos están utilizando la tecnología para realizar diagnósticos y mucho más, pero pueden estar perdiendo habilidades en el proceso.
En los últimos años, los estudios han descrito las muchas formas en que las herramientas de IA han hecho que los médicos sean mejores en su trabajo: les ha ayudado a detectar el cáncer, les ha permitido realizar diagnósticos más rápidamente y, en algunos casos, les ha ayudado a predecir con mayor exactitud quién corre el riesgo de sufrir complicaciones.
TE PUEDE INTERESAR: Alista Sheinbaum Laboratorio Nacional de Inteligencia Artificial
Pero una nueva investigación sugiere que colaborar con la IA puede tener un costo oculto.
Un estudio publicado en la revista Lancet Gastroenterology and Hepatology descubrió que, tras solo tres meses de uso de una herramienta de IA diseñada para ayudar a detectar crecimientos precancerosos durante las colonoscopias, los médicos eran significativamente peores a la hora de detectar los crecimientos por sí mismos.
Se trata de la primera prueba de que el uso de herramientas de IA puede mermar la capacidad del médico para realizar tareas fundamentales sin la tecnología, un fenómeno conocido como “descualificación” (deskilling, en inglés).
“Se trata de un proceso bidireccional”, dijo Omer Ahmad, gastroenterólogo del University College Hospital de Londres, quien publicó una editorial junto con el estudio. “Damos a la IA datos que afectan sus respuestas, pero también parece afectar nuestro comportamiento”.
El estudio comenzó como muchos ensayos de IA en medicina. Los médicos de cuatro centros de endoscopia de Polonia tuvieron acceso a una herramienta de IA que señalaba crecimientos sospechosos mientras realizaban una colonoscopia, dibujando un recuadro a su alrededor en tiempo real. Varios otros grandes ensayos clínicos han demostrado que esta tecnología mejora significativamente la tasa de detección de crecimientos precancerosos por parte de los médicos, un indicador ampliamente aceptado de la actuación de un endoscopista.
Entonces, a diferencia de estudios anteriores, los investigadores midieron lo que ocurría cuando no se usaba la herramienta.
En los tres meses anteriores a la introducción de la tecnología, los médicos detectaron crecimientos en alrededor del 28 por ciento de las colonoscopias. Ahora, la tasa de detección había caído alrededor del 22 por ciento, muy por debajo de su línea de base.
TE PUEDE INTERESAR: La SCJN rechaza amparo: obras creadas con inteligencia artificial no tendrán derechos de autor en México
Se trataba de un estudio observacional, lo que significa que no puede responder si la tecnología causó el descenso del rendimiento. Podría haber otras explicaciones del efecto: por ejemplo, los médicos realizaron aproximadamente el doble de colonoscopias tras la introducción de la herramienta de IA que antes, lo que podría significar que prestaron menos atención a cada exploración.
Pero los expertos dijeron que el hecho de que se produzca un efecto de descualificación no es inesperado. Este fenómeno está bien documentado en otros campos: los pilotos, por ejemplo, reciben una formación especial para perfeccionar sus habilidades en la era del piloto automático.
“Creo que la gran pregunta va a ser: ¿Y qué? ¿Es importante?”, dijo Robert Wachter, director del departamento de medicina de la Universidad de California en San Francisco y autor de A Giant Leap: How AI Is Transforming Healthcare and What That Means for Our Future.
Por un lado, dijo Wachter, hay muchos ejemplos inofensivos de nuevas tecnologías que vuelven obsoletas viejas habilidades. Sin la invención del estetoscopio, por ejemplo, muchos médicos tendrían dificultades para examinar el corazón y los pulmones de un paciente, como era habitual en el siglo XVIII.
Pero para Ahmad, la IA es distinta en el sentido de que necesita la supervisión a largo plazo de los seres humanos. Los algoritmos se entrenan para un momento concreto, y a medida que el mundo cambia a su alrededor, actúan de forma diferente —a veces para peor— y necesitan supervisión y mantenimiento para asegurarse de que siguen funcionando según lo previsto. A veces, factores inesperados, como cambios en la iluminación del techo, pueden hacer que los resultados de la IA “sean completamente erróneos”, dijo.
Se supone que los médicos deben participar en el proceso para proteger a los pacientes frente a esas posibilidades.
TE PUEDE INTERESAR: Invita la UAdeC a integrarse al ‘Club de Julia: Inteligencia Artificial y Modelación’
“Si pierdo las habilidades, ¿cómo voy a detectar los errores?”, preguntó Ahmad.
Incluso si las herramientas fueran perfectas, Wachter advirtió que la “descualificación” podría ser peligrosa para los pacientes durante el actual periodo de transición, cuando las herramientas de IA no están disponibles en todos los sistemas de salud y un médico acostumbrado a utilizarlas puede recibir de un nuevo empleador la petición de funcionar sin ellas.
Y aunque la pérdida de habilidades es evidente para alguien que examine los datos de miles de procedimientos, dijo Wachter, dudaba de que cada médico individual notara un cambio en su propia habilidad.
Un pequeño estudio de seguimiento ocular reveló que, al utilizar la IA, los médicos tendían a fijarse menos en los bordes de la imagen, lo que sugiere que parte de la memoria muscular necesaria para revisar una exploración se veía alterada por el uso de la herramienta.
Ahmad dijo que también podría ser que, tras meses de depender de un ayudante, se hubiera atrofiado la resistencia cognitiva necesaria para evaluar detenidamente cada exploración.
En cualquier caso, los expertos en educación médica y los responsables sanitarios ya están estudiando cómo combatir este efecto. Algunos sistemas sanitarios, como el UC San Diego Health, han invertido recientemente en formación mediante simulación, que podría utilizarse para ayudar a los médicos a practicar procedimientos sin IA para mantener sus habilidades agudas, dijo Chris Longhurst, director clínico y de innovación del sistema sanitario.
Adam Rodman, director de programas de IA en el Centro Médico Beth Israel Deaconess de Boston, dijo que algunas facultades de medicina también han considerado la posibilidad de prohibir la IA durante los primeros años de formación de los estudiantes.
Si solo tres meses de uso de una herramienta de IA pueden erosionar las habilidades de los médicos experimentados incluidos en el estudio (en promedio, los médicos llevaban ejerciendo unos 27 años), ¿qué ocurriría con los estudiantes de medicina y los residentes que están empezando a desarrollar esas habilidades?
“Cada vez lo llamamos más des-habilidad”, dijo Rodman. c. 2025 The New York Times Company
Vanguardia