Amazon vill att Alexa ska tala med dina döda nära och kära

Amazon vill att Alexa ska tala med dina döda nära och kära

Amazon får Alexa att tala med en saknad älskads röst, och det oroar säkerhetsexperter.

Anslutna högtalare och deras tillhörande röstaktiverade digitala assistenter möjliggör en imponerande mängd action. Den enda gränsen verkar vara utvecklarnas fantasi. Om de nya funktionerna i de flesta fall är väldigt användbara, så är vissa av dem lite mer tveksamma eller åtminstone konstiga. Det här är ett fall av Amazons senaste idé för sin Alexa-röstassistent, som vill låta den spela röster .

Amazon får Alexa att tala med en försvunnen älskades röst

Under Amazon Re:Mars-konferensen visade Alexas vicepresident Rohit Prasad upp en helt ny förmåga hos den amerikanska jättens röstassisterade digitala assistent: förmågan att imitera röst. Än så länge har vi ingen indikation på när den här funktionen kommer att vara tillgänglig, eller ens om den någonsin kommer att bli populär.

Ironiskt nog introducerade Amazon denna nya funktion som ett sätt att hedra våra avlidna nära och kära. Ett amerikanskt företag har släppt en video där Alexa läser sin nyligen avlidna mormors röst för ett barn. Rohit Prasad förklarade att företaget letar efter sätt att göra sin artificiella intelligens så personlig som möjligt. ”Även om AI inte kan bli av med smärtan av förlust, kan den utöka minnet.” En talesperson för Amazon sa till Engadget att den här nya färdigheten kan skapa ett syntetiskt röstfingeravtryck efter bara en minuts övning med rösten från den person som den förmodas att reproducera.

och det oroar säkerhetsexperter

Säkerhetsexperter har länge uttryckt oro över att sådana ljudverktyg, som använder text-till-tal-teknik för att skapa syntetiska röster, kan bana väg för nya typer av bedrägerier. Programvara för röstkloning har redan gjort mycket skada, inklusive en incident 2020 i Förenade Arabemiraten där bedragare lurade en bankchef att överföra 35 miljoner dollar efter att han utgav sig som chef högt. Med detta sagt är deepfake ljudbrott fortfarande inte utbredda och de tillgängliga verktygen är fortfarande relativt enkla.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *