Wie home24 mit eigenem Marktplatz Rekordumsätze erzielt Jetzt zum Webinar anmelden
Vanessa Ostertag, Director Marketplace bei home24, zeigt in diesem Webinar exklusiv, wie der Onlinehändler home24 seine eigene Plattform erfolgreich eingeführt hat und damit in Rekordzeit eine neue, schnell wachsende Umsatzsäule geschaffen wurde.
Jetzt zum Webinar anmelden
Expert Talk: "Close the loop! Wie aus Produktdaten Product Experience wird" Video-Podcast ansehen
Product Experience statt simpler Beschreibungstexte: Wer mit Produktinformationen arbeitet und dabei Nutzer-Feedback und Channelsignale berücksichtigt, kann ein fortschrittliches Kundenerlebnis gestalten. Wie das genau funktioniert, erklärt Contentserv-Chef Michael Kugler im iBusiness Expert Talk. Video-Podcast ansehen
Virtuelle Influencer

Deepfake-Content: Das Gehirn reibt sich an künstlichen Stimmen

17.06.2024 Künstliche Influencer, Vertonungen und Avatare in Produktvideos gelten als heiße Technologien, um das Web noch stärker mit Content vollzupumpen - doch das Gehirn erkennt zumindest bei KI-Stimmen den Unterschied - außerdem kommen generierte Stimmen nicht richtig gut bei menschlichen Zuhörern an.

 (Bild: Sebastian Halm/ Midjourney)
Bild: Sebastian Halm/ Midjourney
Macht das Gehirn beim Verarbeiten von natürlichen Stimmen im Vergleich zu ihren Deepfake-Imitationen einen Unterschied? Ja, sagen Forschende der Universität Zürich zur Homepage dieses Unternehmens Relation Browser . In der Studie "Cortical-striatal brain network distinguishes deepfake from real speaker identity. " haben sie zwei Hirnareale identifiziert, die unterschiedlich auf die akustischen Signale reagieren.

Jeder Mensch hat ein einzigartiges Stimmprofil. Dies hilft, um die Person zu identifizieren. Neueste Algorithmen zur Stimmsynthese sind inzwischen so leistungsfähig, dass sie künstliche Stimmklone erstellen können, die den Identitätsmerkmalen natürlicher Sprecher qualitativ sehr nahekommen. Noch nie war es so leicht, mit Deepfake-Technologien natürliche Stimmen zu imitieren, entweder für Betrugsversuche am Telefon oder um dem Sprachassistenten die Stimme der Lieblingsschauspielerin zu geben.

Bisher war jedoch unklar, wie das menschliche Gehirn auf solche Deepfake-Stimmen reagiert. Akzeptiert es diese als echt oder erkennt es den Fake? Ein Forschungsteam an der Universität Zürich hat nun herausgefunden, dass Menschen die geklaute Identität in einem Deepfake-Audio zwar häufig als natürlich akzeptieren, das Gehirn auf Deepfake-Stimmen jedoch anders reagiert als auf natürliche Stimmen.

Identität in Deepfake Stimmen fast zum Täuschen ähnlich

Die Forschenden testeten zunächst mit psychoakustischen Methoden, wie gut die menschliche Identität in den imitierten Stimmklonen erhalten bleibt. Die Forschenden nahmen die Stimmen vier männlicher Sprecher auf und generierten mit Hilfe von Computeralgorithmen Deepfake-Stimmen dieser Sprecher. Im Hauptexperiment hörten 25 Probandinnen und Probanden mehrere Stimmen und sollten entscheiden, ob die Identität zweier Stimmen identisch war oder nicht. Dabei gab es zwei Aufgaben: Entweder sollten sie die Identität von zwei natürlichen Stimmen oder einer natürlichen und einer Deepfake-Stimme abgleichen.

Dabei zeigte sich, dass die Deepfake-Identitäten in zwei Dritteln der Fälle korrekt zugeordnet wurden. Dies verdeutlicht, dass aktuelle Deepfake-Stimmen zwar nicht perfekt die Identität imitieren, aber das Potential haben, die Wahrnehmung von Menschen zu täuschen.

Belohnungssystem reagiert auf natürliche Stimmen, aber nicht auf Deepfakes

Mit Hilfe von bildgebenden Verfahren untersuchten die Forschenden dann, welche Gehirnareale abweichend auf Deepfake-Stimmen im Vergleich zu natürlichen Stimmen reagieren. Dabei machten sie zwei zentrale Areale ausfindig, die den Fake erkennen: Zum einen reagiert ein Teil des mesolimbischen Systems, der Nucleus Accumbens, anders auf Deepfake-Stimmen. Der Nucleus Accumbens ist ein wichtiger Bestandteil des Belohnungssystems im Gehirn. Er war weniger aktiv, als die Probandinnen und Probanden die Identität zwischen Deepfake und natürlichen Stimmen abgleichen sollten. Viel aktiver war hingegen der Nucleus Accumbens, wenn die Probandinnen und Probanden zwei natürliche Stimmen vergleichen mussten.


Der Fake-Anteil in den Deepfake-Stimmen scheint zu weniger Vergnügen beim Hören zu führen, und das relativ unabhängig von der Qualität des akustischen Signals.
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema: