mayo 2, 2021

Siri activado por «una ciudad» revela el estudio de senderos falsos

«Hey Siri» puede ser provocado inadvertidamente por otras palabras de alerta, incluyendo «A City», «Hey Jerry» y más, revelan investigadores de Alemania Ruhr-Universität Bochum y el Instituto Bochum Max Planck.

Siri está lejos de ser el único asistente de voz con un punto débil cuando se trata de disparadores falsos. El estudio compiló una lista de más de 1,000 palabras que pueden provocar accidentalmente varios A.I. asistentes

Siri y más allá: falsas palabras de estela

Se ha descubierto que las palabras en inglés, alemán y chino activan por error a asistentes inteligentes. Junto con Siri, incluyeron Alexa de Amazon, Asistente de Google, Microsoft Cortana y más. El estudio mostró que esto podría suceder simplemente escuchando las líneas de programas similares. Familia moderna es Game of Thrones. La conversación diaria también puede activar accidentalmente la activación.

Otros ejemplos de resbalones accidentales incluyen a Alexa reaccionando a las palabras «inaceptable» y «elección», «OK, agradable» en lugar de «OK, Google», Cortana de Microsoft está confundida por «Montana» y más.

“Los dispositivos están programados intencionalmente de una manera algo tolerante, porque deberían poder entender a sus humanos. Por lo tanto, es más probable que comiencen con demasiada frecuencia en lugar de no hacerlo en absoluto «, dijo la profesora Dorothea Kolossa, una de las investigadoras involucradas en el estudio.

Problemas de privacidad en palabras falsas

Desde una perspectiva de privacidad, el problema con las palabras de activación accidentales es que puede implicar el envío de audio a fabricantes de asistentes inteligentes cuando no se espera. Estos fragmentos de audio pueden ser transcritos y leídos por los empleados de las empresas en cuestión. Incluso si el sistema reconoce una falsa alarma, todavía se pueden transmitir unos segundos.

El año pasado, El guardián contó cómo se emplearon subcontratistas de Apple para escuchar las grabaciones de Siri. Apple dijo que había escuchado algunas de las grabaciones de Siri con fines de «clasificación». El guardián Afirmó que los contratistas habían escuchado «información médica confidencial, ofertas de drogas y registros de parejas que tienen relaciones sexuales».

Un compromiso entre la privacidad y la ingeniería.

«Desde el punto de vista de la privacidad, [the report about A.I. assistant wake words] obviamente es alarmante, porque a veces las conversaciones muy privadas pueden terminar con extraños «, dijo Thorsten Holz, otro investigador del proyecto. “Sin embargo, desde el punto de vista de la ingeniería, este enfoque es bastante comprensible, ya que los sistemas solo pueden mejorarse utilizando esos datos. Los fabricantes deben encontrar un equilibrio entre la protección de datos y la optimización técnica. «

¿Has tenido problemas con Siri, u otros asistentes inteligentes, que se activan cuando no quieres que lo sean? Háganos saber en los comentarios a continuación.


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *