Cientos de herramientas de inteligencia artificial (IA) para el sector salud han sido aprobadas, pero solo una pequeña parte se somete a una evaluación rigurosa de su impacto clínico, imparcialidad y posibles sesgos.
En la revista Circulation, fue publicado hoy un informe titulado «Enfoques pragmáticos para la evaluación y el monitoreo de la inteligencia artificial en la atención médica» este presenta un marco pragmático, basado en el riesgo, para evaluar y monitorear las herramientas de inteligencia artificial (IA) en la atención cardiovascular y de accidentes cerebrovasculares. Se basa en marcos de IA publicados previamente para identificar deficiencias críticas en las prácticas actuales.
El documento de asesoramiento incluye principios clave para ayudar a los sistemas de salud a establecer una gobernanza eficaz de la IA para la selección, validación, implementación y supervisión de herramientas de IA. Los cuatro principios rectores propuestos para la implementación de la IA clínica en los sistemas de salud son: alineación estratégica, evaluación ética, utilidad y eficacia, y desempeño financiero. Estos principios contribuirán a garantizar que las herramientas de IA ofrezcan beneficios clínicos cuantificables, a la vez que protegen a las personas de daños conocidos y aún desconocidos.
El informe destaca que, si bien las herramientas de IA pueden mejorar la precisión y la eficiencia del diagnóstico, muchas se implementan sin una validación local rigurosa ni una evaluación de sesgos. Una encuesta reciente reveló que solo el 61 % de los hospitales que utilizan herramientas predictivas de IA las validaron con datos locales antes de su implementación, y menos de la mitad realizaron pruebas de sesgo. Esta variabilidad es más pronunciada en las instituciones más pequeñas, rurales y no académicas, lo que genera preocupación sobre la uniformidad de la atención brindada a diversas poblaciones de pacientes y sobre la seguridad.
La extensa red de la Asociación Americana del Corazón, que incluye casi 3000 hospitales y más de 500 centros rurales y de acceso crítico, la posiciona como líder de confianza en el avance de una gobernanza responsable de la IA. La Asociación se ha comprometido a invertir más de 12 millones de dólares en investigación para 2025 con el fin de probar estrategias innovadoras de prestación de servicios de salud mediante IA para evaluar su seguridad y eficacia.
El grupo asesor científico señala que el seguimiento de las herramientas de IA no puede finalizar tras su implementación. El rendimiento de estas herramientas puede variar a medida que cambian las prácticas clínicas o difieren las poblaciones de pacientes. Hacen hincapié en que los sistemas de salud deben integrar la gobernanza de la IA en los programas de garantía de calidad existentes y definir umbrales claros para la actualización o la retirada de las herramientas si su rendimiento disminuye.

No hay comentarios:
Publicar un comentario