Una nueva forma de entrenar sistemas de inteligencia artificial podría hacerlos más seguros frente a los hackers

El contexto: Una de las principales deficiencias no resueltas del aprendizaje profundo es su vulnerabilidad a los llamados ataques contradictorios. Si se agrega a la entrada de un sistema de inteligencia artificial, estas perturbaciones aparentemente aleatorias o indetectables para el ojo humano pueden hacer que las cosas salgan completamente mal. Las calcomanías colocadas estratégicamente en una señal de alto, por ejemplo, pueden hacer que un automóvil autónomo vea una señal de límite de velocidad a 45 millas por hora, mientras que las calcomanías en una carretera pueden confundir a un Tesla cuando se desvía del carril. incorrecto.

Seguridad crítica La mayor parte de la investigación contradictoria se centra en los sistemas de reconocimiento de imágenes, pero en la imagen basada en el aprendizaje profundo. reconstrucción Los sistemas también son vulnerables. Esto es particularmente preocupante en el cuidado de la salud, donde estos últimos se usan a menudo para reconstruir imágenes médicas tales como tomografías computarizadas o resonancias magnéticas a partir de datos de rayos X. Un ataque del oponente dirigido podría hacer que dicho sistema reconstruya un tumor en una exploración donde no está hay uno.

Investigación: Bo Li (nominado como uno de los innovadores menores de 35 años del MIT Technology Review de este año) y sus colegas de la Universidad de Illinois en Urbana-Champaign ahora están proponiendo un nuevo método para capacitar sistemas de aprendizaje profundo para que sean más prueba error y por lo tanto confiable en seguridad – escenarios críticos. Miden la red neuronal responsable de reconstruir la imagen contra otra red neuronal responsable de generar ejemplos contradictorios, en un estilo similar a los algoritmos GAN. A través de ciclos iterativos, la red contradictoria intenta engañar a la red de reconstrucción para producir cosas que no son parte de los datos originales o verdades básicas. La red de reconstrucción se modifica continuamente para evitar ser engañada, lo que hace que el despliegue en el mundo real sea más seguro.

Los resultados: Cuando los investigadores probaron su red neuronal entrenada negativamente en dos conjuntos de datos de imágenes populares, pudo reconstruir la verdad básica mejor que otras redes neuronales que habían sido «a prueba de fallas» por diferentes métodos. Sin embargo, los resultados aún no son perfectos, lo que demuestra que el método aún no se ha perfeccionado. El trabajo se presentará en la Conferencia Internacional de Aprendizaje Automático la próxima semana. (Lea el algoritmo de esta semana para obtener consejos sobre cómo navegar en conferencias de IA como esta).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *