Amazon quiere que Alexa hable con las voces de sus seres queridos muertos

Amazon quiere que Alexa hable con las voces de sus seres queridos muertos

Amazon está haciendo que Alexa hable con la voz de un ser querido desaparecido y eso preocupa a los expertos en seguridad.

Los altavoces conectados y los asistentes digitales activados por voz que los acompañan permiten una impresionante cantidad de acción. El único límite parece ser la imaginación de los desarrolladores. Si en la mayoría de los casos las nuevas funciones son muy útiles, entonces algunas de ellas son un poco más cuestionables o al menos raras. Este es un caso de la última idea de Amazon para su asistente de voz Alexa, que quiere dejarlo reproducir voces .

Amazon hace que Alexa hable con la voz de un ser querido desaparecido

Durante la conferencia Amazon Re:Mars, el vicepresidente de Alexa, Rohit Prasad, mostró una nueva capacidad del asistente digital asistido por voz del gigante estadounidense: la capacidad de imitar la voz. Hasta el momento, no tenemos indicios de cuándo estará disponible esta función, o incluso si alguna vez se volverá popular.

Irónicamente, Amazon introdujo esta nueva característica como una forma de honrar a nuestros seres queridos fallecidos. Una firma estadounidense ha difundido un video de Alexa leyéndole la voz de su abuela recientemente fallecida a un niño. Rohit Prasad explicó que la empresa está buscando formas de hacer que su inteligencia artificial sea lo más personalizada posible. “Si bien la IA no puede deshacerse del dolor de la pérdida, puede extender la memoria”. Un portavoz de Amazon le dijo a Engadget que esta nueva habilidad puede crear una huella digital de voz sintética después de solo un minuto de práctica con la voz de la persona que se supone. Reproducir.

y preocupa a los expertos en seguridad

Los expertos en seguridad han expresado durante mucho tiempo su preocupación de que tales herramientas de audio, que utilizan tecnologías de texto a voz para crear voces sintéticas, puedan allanar el camino para nuevos tipos de fraude. El software de clonación de voz ya ha causado mucho daño, incluido un incidente de 2020 en los Emiratos Árabes Unidos donde los estafadores engañaron al gerente de un banco para que transfiriera $ 35 millones después de que se hizo pasar por el gerente en voz alta. Dicho esto, los delitos de sonido falso profundo aún no están generalizados y las herramientas disponibles aún son relativamente simples.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *