junio 20, 2021

Como herramienta de inteligencia artificial para combatir las muertes en hospitales, realmente funcionó en el mundo real.

A primera vista, este es un ejemplo de una gran victoria técnica. Mediante un desarrollo y pruebas cuidadosos, un modelo de inteligencia artificial ha aumentado con éxito la capacidad de los médicos para diagnosticar a sus pacientes. Pero un nuevo informe del Data & Society Research Institute afirma que esto es solo la mitad de la historia. La otra mitad es la cantidad de hábil trabajo social que los médicos que lideraron el proyecto tuvieron que realizar para integrar la herramienta en sus flujos de trabajo diarios. Esto incluyó no solo diseñar nuevos protocolos de comunicación y crear nuevos materiales de capacitación, sino también navegar por la política del lugar de trabajo y la dinámica de poder.

El estudio de caso es un reflejo honesto de lo que las herramientas de inteligencia artificial realmente necesitan para tener éxito en el mundo real. «Fue realmente complejo», dice Madeleine Clare Elish, una antropóloga cultural que examina los impactos de la IA y coautora del informe.

Reparación de innovación

La innovación debería ser disruptiva. Revuelva las viejas formas de hacer las cosas para obtener mejores resultados. Pero rara vez en las conversaciones sobre disrupción tecnológica se reconoce que la disrupción es también una forma de «disrupción». Los protocolos existentes se vuelven obsoletos, las jerarquías sociales se confunden. Para que funcione dentro de los sistemas existentes se requiere lo que Elish y su coautora Elizabeth Anne Watkins llaman «trabajo de reparación».

Durante el estudio de dos años de los investigadores sobre Sepsis Watch en Duke Health, documentaron numerosos ejemplos de esta interrupción y reparación. Uno de los principales fue cómo la herramienta desafió la dinámica de poder profundamente arraigada en el mundo médico entre médicos y enfermeras.

En las primeras etapas del diseño de la herramienta, quedó claro que las enfermeras del Equipo de Respuesta Rápida (ERR) deberían ser sus principales usuarios. Aunque el médico tratante de un paciente generalmente tiene la tarea de evaluar y diagnosticar la sepsis, no tiene tiempo para monitorear continuamente otra aplicación más allá de sus funciones existentes en la sala de emergencias. Por el contrario, la responsabilidad principal de una enfermera de RRT es monitorear continuamente el bienestar del paciente y brindar más asistencia cuando sea necesario. El control de la aplicación Sepsis Watch se adaptaba naturalmente a su flujo de trabajo.

Pero aquí vino el desafío. Una vez que la aplicación ha marcado a un paciente como de alto riesgo, una enfermera debe llamar a su médico tratante (conocido en términos médicos como «asistencia al servicio de urgencias»). Estas enfermeras y asistentes no solo a menudo no tenían una relación previa porque pasaban sus días en secciones completamente diferentes del hospital, el protocolo también representó una inversión completa de la cadena de mando típica en cualquier hospital. «¿Me estás tomando el pelo?» una enfermera recordó haber pensado después de saber cómo funcionarían las cosas. «Llamaremos Asistencia ED? «

Pero esta fue realmente la mejor solución posible, después de años de consultas entre muchas partes interesadas en todo el hospital. Así que el equipo del proyecto trató de arreglar la «rotura» de varias formas, grandes y pequeñas. Las enfermeras organizaron fiestas informales de pizza para generar entusiasmo y confianza en Sepsis Watch entre sus compañeras enfermeras. También desarrollaron tácticas de comunicación para suavizar sus llamadas con los asistentes, como hacer una sola llamada al día para hablar sobre varios pacientes de alto riesgo a la vez, programada para cuando los médicos estaban menos ocupados.

Además, los líderes del proyecto han comenzado a informar periódicamente sobre el impacto de Sepsis Watch al liderazgo clínico. El equipo del proyecto descubrió que no todo el personal del hospital creía que la muerte inducida por sepsis fuera un problema en Duke Health. Los médicos, en particular, que no tenían una visión general de las estadísticas hospitalarias, estaban mucho más ocupados con las emergencias a las que se enfrentaban día a día, como huesos rotos y enfermedades mentales graves. Como resultado, algunos han encontrado que Sepsis Watch es una molestia. Pero para el liderazgo clínico, la sepsis era una gran prioridad y cuanto más veían el Sepsis Watch en acción, más ayudaban a engrasar los engranajes de la operación.

Cambiar las reglas

Elish identifica dos factores principales que finalmente ayudaron a que Sepsis Watch tuviera éxito. Primero, la herramienta se desarrolló para un contexto hiperlocal e hiperespecífico: se desarrolló para la sala de emergencias de Duke Health y en ningún otro lugar. «Este desarrollo a medida fue la clave del éxito», dice, lo que va en contra de las normas típicas de IA.

En segundo lugar, a lo largo del proceso de desarrollo de la herramienta, el equipo buscó regularmente comentarios de enfermeras, médicos y otro personal de arriba y abajo en la jerarquía del hospital. Esto no solo ha hecho que la herramienta sea más fácil de usar, sino que también ha cultivado un pequeño grupo de personal comprometido para ayudar a defender su éxito. También marcó la diferencia que el proyecto fuera dirigido por médicos de Duke Health, dice Elish, en lugar de tecnólogos que se lanzaron en paracaídas desde una empresa de software. «Si no tiene un algoritmo explicable», dice, «necesita generar confianza de otras formas».

Estas lecciones son muy familiares para Marzyeh Ghassemi, profesora asistente entrante en el MIT que estudia las aplicaciones de aprendizaje automático para el cuidado de la salud. «Todos los sistemas de aprendizaje automático que deben ser evaluados o utilizados por humanos deben tener limitaciones socio-técnicas en primer plano», dice. Especialmente en entornos clínicos, que son dirigidos por tomadores de decisiones humanos e implican el cuidado de los humanos en su condición más vulnerable, agrega, «las limitaciones de las que la gente debe estar consciente son realmente limitaciones humanas y logísticas».

Elish espera que su estudio de caso de Sepsis Watch convenza a los investigadores de repensar cómo abordar la investigación de la IA médica y el desarrollo de la IA en general. Gran parte del trabajo realizado en el espacio en este momento se centra en «qué IA». podría ser o podría hacer En teoria«, dice.» Hay muy poca información sobre lo que realmente sucede en el terreno «. Pero para que la IA esté a la altura de sus beneficios prometidos, la integración social de herramientas es tan importante como el desarrollo técnico.

Su trabajo también plantea serios interrogantes. «La IA responsable debe exigir atención al contexto local y específico», dice. «Mi lectura y mi formación me enseñan: no se puede simplemente desarrollar una cosa en un lugar y luego distribuirla en otro lugar».

«Por tanto, el desafío es descubrir cómo mantener esa especificidad local mientras se intenta trabajar a gran escala», añade. Esta es la próxima frontera de la investigación de la IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *