Muchos estudios afirman que la inteligencia artificial es tan buena o mejor que que los expertos humanos en la interpretación de imágenes médicas son de baja calidad y posiblemente exageradas, lo que representa un riesgo para la seguridad de 'millones de pacientes' advierten a los investigadores El BMJ hoy
Sus hallazgos plantean preocupaciones sobre la calidad de la evidencia que sustenta muchos de estos estudios y resaltan la necesidad de mejorar sus estándares de diseño e informes.
La inteligencia artificial IA es un campo innovador y de rápido movimiento con el potencial de mejorar la atención al paciente y aliviar los servicios de salud sobrecargados. El aprendizaje profundo es una rama de la IA que ha demostrado ser particularmente prometedora en imágenes médicas.
El volumen de la investigación publicada sobre el aprendizaje profundo está creciendo, y algunos titulares de los medios que afirman un rendimiento superior a los médicos han impulsado la exageración para una implementación rápida. Pero los métodos y el riesgo de sesgo de los estudios detrás de estos titulares no se han examinado en detalle.
Para abordar esto, un equipo de investigadores revisó los resultados de los estudios publicados en los últimos 10 años, comparando el desempeño de un algoritmo de aprendizaje profundo en imágenes médicas con médicos expertos.
Encontraron solo dos ensayos clínicos aleatorios elegibles y 81 estudios no aleatorios.
De los estudios no aleatorios, solo nueve fueron prospectivos seguimiento y recopilación de información sobre individuos a lo largo del tiempo y solo seis fueron probados en un entorno clínico del "mundo real".
El número promedio de expertos humanos en el grupo de comparación fue de solo cuatro, mientras que el acceso a datos y código sin procesar para permitir un escrutinio independiente de los resultados fue muy limitado.
Se consideró que más de dos tercios 58 de 81 estudios tenían un alto riesgo de sesgo problemas en el diseño del estudio que pueden influir en los resultados, y la adherencia a los estándares de informes reconocidos a menudo era deficiente.
Tres cuartas partes 61 estudios declararon que el rendimiento de la IA fue al menos comparable o mejor que al de los médicos, y solo 31 38% declararon que se necesitaban más estudios o ensayos prospectivos.
Los investigadores señalan algunas limitaciones, como la posibilidad de estudios perdidos y el enfoque en estudios de imágenes médicas de aprendizaje profundo, por lo que los resultados pueden no aplicarse a otros tipos de IA.
Sin embargo, dicen que en la actualidad, "existen muchas afirmaciones posiblemente exageradas sobre la equivalencia con o superioridad sobre los médicos, lo que presenta un riesgo potencial para la seguridad del paciente y la salud de la población a nivel social".
El lenguaje excesivamente prometedor "deja los estudios susceptibles de ser malinterpretados por los medios y el público, y como resultado la posible provisión de atención inadecuada que no necesariamente se alinea con los mejores intereses de los pacientes", advierten.
"Maximizar la seguridad del paciente será mejor al garantizar que desarrollemos una base de evidencia de alta calidad y transparentemente reportada en el futuro", concluyen.
Fuente de la historia :
Materiales proporcionado por BMJ . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :