Auf einer Konferenz in Las Vegas stellte Amazon-Manager Rohot Prasad jetzt eine neue Funktion von Alexa vor. In Zukunft soll das Gerät nämlich in der Lage sein, jede Stimme imitieren zu können. So könnte der Sprachassistent zukünftig zum Beispiel genauso klingen wie die eigene verstorbene Großmutter.

Wann das Unternehmen die neue Funktion einführen werde, ist bisher noch nicht bekannt.

Alexa soll bald Stimmen imitieren können

‚Welcome to the future‘ oder besser „Willkommen in einer Folge der Netflix-Serie Black Mirror“. Denn wenn man eine verstorbene Person vermisst, könnte es in Zukunft eine Möglichkeit geben, sie wieder ins Leben zu rufen. Zumindest ihre Stimme. Am Mittwoch stellte Amazon in einer Konferenz in Las Vegas nämlich eine neue Funktion des hauseigenen Sprachassistenten vor, die genau das können soll.

Das Unternehmen hat ein System entwickelt, mit dem Alexa jede Stimmte imitieren kann, nachdem sie diese weniger als eine Minute gehört hat. Das Ziel der neuen Funktion sei es, „die Erinnerung dauerhaft festzuhalten“. Besonders, weil „so viele von uns während der Pandemie jemanden verloren haben, den wir lieben“, erklärte der Vize-Präsident Rohot Prasad bei der Vorstellung.

„Alexa, kann Oma den Zauberer von Oz zu Ende lesen?“

Mit der neuen Fähigkeit von Alexa will Amazon im Leben seiner Kunden allgegenwärtig werden. Bei der Vorstellung der neuen Funktion teilte der Konzern unter anderem ein Video, das ein Kind zeigte, das den technischen Assistenten fragte: „Alexa, kann Oma den Zauberer von Oz zu Ende lesen?“ Alexa bejahte daraufhin die Frage und änderte ihre Stimme. Danach sprach sie in der Stimme der Großmutter und erzählte vom Zauberer von Oz.

Diese Technologie sei laut Experten allerdings nicht ganz unproblematisch. Erst kürzlich schränkte Microsoft zum Beispiel ein, welche andere Unternehmen ihre Software verwenden dürfen, um Stimmen zu wiederholen. Die Software soll Menschen mit Sprachbehinderungen oder anderen Störungen und Problemen eigentlich unterstützen. Doch viele befürchten auch, dass die Gefahr von potenziellem Missbrauch damit sehr groß ist – Stichwort Deep Fakes und Fake News.