Amazon veut qu’Alexa parle avec la voix de vos proches décédés
Amazon fait parler Alexa avec la voix d’un être cher disparu, et cela inquiète les experts en sécurité.
Les haut-parleurs connectés et leurs assistants numériques activés par la voix permettent une quantité impressionnante d’action. La seule limite semble être l’imagination des développeurs. Si dans la plupart des cas les nouveautés sont très utiles, alors certaines d’entre elles sont un peu plus discutables ou du moins bizarres. Il s’agit de la dernière idée d’Amazon pour son assistant vocal Alexa, qui veut le laisser jouer des voix .
Amazon fait parler Alexa avec la voix d’un être cher disparu
Lors de la conférence Amazon Re:Mars, le vice-président d’Alexa, Rohit Prasad, a dévoilé une toute nouvelle capacité de l’assistant numérique à assistance vocale du géant américain : la capacité d’imiter la voix. Jusqu’à présent, nous n’avons aucune indication sur le moment où cette fonctionnalité sera disponible, ni même si elle deviendra un jour populaire.
Ironiquement, Amazon a introduit cette nouvelle fonctionnalité comme un moyen d’honorer nos proches décédés. Une entreprise américaine a publié une vidéo d’Alexa lisant la voix de sa grand-mère récemment décédée à un enfant. Rohit Prasad a expliqué que l’entreprise cherchait des moyens de rendre son intelligence artificielle aussi personnalisée que possible. « Bien que l’IA ne puisse pas se débarrasser de la douleur de la perte, elle peut étendre la mémoire. » Un porte-parole d’Amazon a déclaré à Engadget que cette nouvelle compétence peut créer une empreinte vocale synthétique après seulement une minute de pratique avec la voix de la personne supposée. reproduire.
et cela inquiète les experts en sécurité
Les experts en sécurité craignent depuis longtemps que de tels outils audio, qui utilisent des technologies de synthèse vocale pour créer des voix synthétiques, puissent ouvrir la voie à de nouveaux types de fraude. Le logiciel de clonage de voix a déjà fait beaucoup de mal, y compris un incident en 2020 aux Émirats arabes unis où des escrocs ont amené un directeur de banque à transférer 35 millions de dollars après s’être fait passer pour le directeur à haute voix. Cela étant dit, les crimes sonores deepfake ne sont toujours pas répandus et les outils disponibles sont encore relativement simples.
Laisser un commentaire