mayo 3, 2021

Descubierto: 1,000 frases que activan por error Alexa, Siri y Google Assistant

Descubierto: 1,000 frases que activan por error Alexa, Siri y Google Assistant

A medida que Alexa, Google Home, Siri y otros asistentes de voz se han convertido en un elemento habitual en millones de hogares, los defensores de la privacidad se han preocupado de que su escucha casi constante de las conversaciones cercanas pueda representar un riesgo mayor que el beneficio de los usuarios. Una nueva investigación sugiere que la amenaza a la privacidad puede ser mayor de lo que se pensaba anteriormente.

Los resultados demuestran cuán común es que los diálogos en programas de televisión y otras fuentes produzcan disparadores falsos que hacen que los dispositivos se enciendan, a veces enviando sonidos cerca de Amazon, Apple, Google u otros fabricantes. En total, los investigadores descubrieron más de 1,000 secuencias de palabras, incluidas las de Game of Thrones, Familia moderna, Castillo de naipesy transmisiones de noticias que activan dispositivos por error.

«Los dispositivos están programados intencionalmente de una manera algo tolerante, porque deberían poder entender a sus humanos», dijo una de las investigadoras, Dorothea Kolossa. «Por lo tanto, es más probable que comiencen con demasiada frecuencia en lugar de no hacerlo en absoluto».

Lo que no se puede decir

Se incluyen ejemplos de palabras o secuencias de palabras que proporcionan disparadores falsos.

  • Alexa: «inaceptable», «elección» y «una carta»
  • Página principal de Google: «OK, agradable» y «Ok, quién está leyendo»
  • Siri: «una ciudad» y «hola Jerry»
  • Microsoft Cortana: «Montana»

Los dos videos a continuación muestran Tenido Jon Snow personaje diciendo «una carta» e Familia moderna el personaje de Phil Dunphy que pronuncia «hola Jerry» y activa a Alexa y Siri respectivamente.

Disparador accidental no. 1 – Alexa – Nube

Activador accidental # 3 – Hola Siri – Nube

En ambos casos, las oraciones activan el dispositivo tanto localmente, donde los algoritmos analizan las oraciones; Después de concluir erróneamente que probablemente es una palabra de reactivación, los dispositivos envían el audio a servidores remotos donde los mecanismos de control más fuertes también confunden las palabras con los términos de reactivación. En otros casos, las palabras o frases solo engañan la detección de las palabras de reactivación local, pero no los algoritmos en la nube.

Violación de la privacidad inaceptable.

Cuando los dispositivos se despiertan, los investigadores dijeron que registran una parte de lo que se dijo y se lo pasan al fabricante. El audio puede ser transcrito y verificado por los empleados en un esfuerzo por mejorar el reconocimiento de palabras. El resultado: fragmentos de conversaciones potencialmente privadas pueden terminar en los registros de la empresa.

El riesgo para la privacidad no es solo teórico. En 2016, las autoridades policiales que investigan un asesinato convocaron a Amazon por los datos de Alexa transmitidos en los momentos previos al crimen. El año pasado, The Guardian informó que los empleados de Apple a veces transcriben conversaciones sensibles escuchadas por Siri. Incluyen discusiones privadas entre médicos y pacientes, acuerdos comerciales, relaciones aparentemente criminales y encuentros sexuales.

El trabajo de investigación, titulado «Inaceptable, ¿dónde está mi privacidad?», Es producto de Lea Schönherr, Maximilian Golla, Jan Wiele, Thorsten Eisenhofer, Dorothea Kolossa y Thorsten Holz de la Universidad Ruhr Bochum y el Instituto Max Planck para la Seguridad y Intimidad. En un breve resumen de los resultados, escribieron:

Nuestra configuración fue capaz de identificar más de 1,000 secuencias que activan por error altavoces inteligentes. Por ejemplo, descubrimos que, según la pronunciación, «Alexa» reacciona a las palabras «inaceptable» y «elección», mientras que «Google» a menudo se activa con «OK, agradable». «Siri» puede ser engañado por «una ciudad», «Cortana» por «Montana», «Computadora» por «Peter», «Amazon» por «y el área» y «Eco» por «tabaco». Vea videos con ejemplos de tales desencadenantes accidentales aquí.

En nuestro documento, analizamos un conjunto diverso de fuentes de audio, exploramos los sesgos de género y lenguaje y medimos la reproducibilidad de los desencadenantes identificados. Para comprender mejor los desencadenantes accidentales, describimos un método para fabricarlos artificialmente. Gracias a la ingeniería inversa del canal de comunicación de un Amazon Echo, podemos proporcionar nuevas ideas sobre cómo las empresas comerciales manejan estos disparadores en la práctica. Finalmente, analizamos las implicaciones de privacidad de los desencadenantes accidentales y discutimos los posibles mecanismos para mejorar la privacidad de los altavoces inteligentes.

Los investigadores analizaron los asistentes de voz de Amazon, Apple, Google, Microsoft y Deutsche Telekom, así como tres modelos chinos de Xiaomi, Baidu y Tencent. Los resultados publicados el martes se centraron en los cuatro primeros. Representantes de Amazon, Apple, Google y Microsoft no respondieron de inmediato a una solicitud de comentarios.

El documento completo aún no se ha publicado y los investigadores se han negado a proporcionar una copia antes de lo esperado. Sin embargo, los resultados generales ya proporcionan evidencia adicional de que los asistentes de voz pueden interferir en la privacidad del usuario, incluso cuando las personas no creen que sus dispositivos estén escuchando. Para aquellos preocupados por el problema, puede tener sentido mantener a los asistentes de voz desconectados, deshabilitados o bloqueados para que no escuchen, excepto cuando sea necesario, o dejar de usarlos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *