enero 30, 2023

Los nuevos estándares para los ensayos clínicos de inteligencia artificial ayudarán a detectar el aceite de serpiente y la exageración

Las noticias: Un consorcio internacional de expertos médicos ha introducido los primeros estándares oficiales para ensayos clínicos que involucran inteligencia artificial. La medida se produce en un momento en que la publicidad en torno a la IA médica está en su punto máximo, con afirmaciones infladas y no verificadas sobre la eficacia de algunas herramientas que amenazan con socavar la confianza de las personas en la IA en general.

Qué significa eso: Anunciados en Nature Medicine, British Medical Journal y Lancet, los nuevos estándares amplían dos conjuntos de pautas sobre cómo se realizan y se informan los ensayos clínicos que ya se utilizan en todo el mundo para el desarrollo de fármacos, pruebas de diagnóstico y otras intervenciones médicas. Los investigadores de inteligencia artificial ahora tendrán que describir las habilidades necesarias para utilizar una herramienta de inteligencia artificial, el entorno en el que se evalúa la IA, los detalles sobre cómo los humanos interactúan con la IA, el análisis de casos de error. y más.

Porque importa: Los ensayos controlados aleatorios son la forma más confiable de demostrar la eficacia y seguridad de un tratamiento o técnica clínica. Son la base tanto de la práctica médica como de la política sanitaria. Pero su confiabilidad depende de que los investigadores se adhieran a pautas estrictas sobre cómo se realizan e informan sus estudios. En los últimos años, se han desarrollado y descrito muchas nuevas herramientas de inteligencia artificial en revistas médicas, pero su efectividad ha sido difícil de comparar y evaluar debido a que la calidad de los proyectos de experimentación varía. En marzo, un estudio de BMJ advirtió que una investigación deficiente y afirmaciones exageradas sobre qué tan buena era la IA en el análisis de imágenes médicas representaban un riesgo para millones de pacientes.

Campaña publicitaria pico: La falta de estándares comunes también ha permitido a las empresas privadas hablar sobre la efectividad de su IA sin tener que lidiar con el escrutinio aplicado a otros tipos de intervención médica o diagnóstico. Por ejemplo, la empresa de salud digital con sede en el Reino Unido Babylon Health fue criticada en 2018 por anunciar que su chatbot de diagnóstico estaba “a la par con los médicos humanos”, según una prueba que los críticos afirmaron que era engañosa. .

Babylon Health no está solo. Los desarrolladores han argumentado durante mucho tiempo que la IA médica supera o iguala las capacidades humanas, y la pandemia ha sobrepasado esta tendencia a medida que las empresas compiten para que sus herramientas se noten. En la mayoría de los casos, la evaluación de estas IA se realiza internamente y en condiciones favorables.

Promesa futura: Esto no quiere decir que la IA no pueda vencer a los médicos humanos. De hecho, la primera evaluación independiente de una herramienta de diagnóstico de inteligencia artificial que superó a los humanos en la detección de cáncer en mamografías se publicó el mes pasado. El estudio encontró que una herramienta fabricada por Lunit AI y utilizada en algunos hospitales de Corea del Sur estaba en el medio del grupo de radiólogos contra el que se probó. Era incluso más preciso cuando se combinaba con un médico humano. Al separar lo bueno de lo malo, los nuevos estándares facilitarán este tipo de evaluación independiente y, en última instancia, conducirán a una IA médica mejor y más confiable.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *