junio 29, 2022

Amazon le está enseñando a Alexa a imitar la voz de sus familiares muertos

Una patata caliente: Amazon está desarrollando características que permitirán que su asistente de voz Alexa imite cualquier voz humana después de escucharla hablar por menos de un minuto. Ignorando el potencial de preocupación de la característica, algunos están preocupados por el potencial de abuso.

Rohit Prasad, quien dirige el equipo de Alexa en Amazon, dijo que el objetivo del proyecto es «hacer que los recuerdos duren» después de que «muchos de nosotros hemos perdido a alguien que amamos» por la pandemia.

Alexa podría ser entrenada para imitar una voz usando audio pregrabado, lo que significa que la persona no tiene que estar presente, ni siquiera viva, para servir como fuente. En un segmento de video que se mostró en una conferencia esta semana, un niño le preguntó a Alexa si la abuela podía terminar de leer El mago de Oz. Efectivamente, Alexa cambia su voz para burlarse de la abuela del bebé y terminar de leer la historia.

«>

Prasad dijo durante la presentación que Alexa ahora recibe miles de millones de solicitudes por semana de cientos de millones de dispositivos habilitados para Alexa en 17 idiomas en más de 70 países de todo el mundo.

El potencial de abuso parece alto. Por ejemplo, la herramienta podría usarse para crear deepfakes convincentes para campañas de desinformación o propaganda política. Los estafadores podrían aprovechar las capacidades de ganancias financieras, como en 2020, cuando los estafadores engañaron al gerente de un banco para que transfiriera $ 35 millones para financiar una adquisición que no existía.

¿Cuáles son sus pensamientos sobre esto? ¿Amazon está llevando demasiado lejos el concepto de clonación de voz, o te intriga la idea de tener una «conversación» con alguien de la tumba?

Crédito de la imagen: Jan Antonin Kolar

Enlace permanente a la historia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.