Technologie

Kritik an Musk: Audio von US-Vize Vance unter Verdacht – Ist es ein KI-Fake?

2025-03-25

Autor: Luca

In den sozialen Medien sorgt eine Audioaufzeichnung für Aufregung, in der der US-Vizepräsident JD Vance offen über seine negative Meinung zu Elon Musk spricht. Das etwa einminütige Audio hat schnell Millionen Aufrufe erzielt, aber erste Untersuchungen deuten stark darauf hin, dass es sich um eine Fälschung handelt.

In der Aufnahme äußert sich Vance über Musk mit den Worten: „Er lässt uns schlecht dastehen. Er lässt mich schlecht dastehen.“ Diese Kritik wird von einem latenten Hintergrundrauschen begleitet, das nicht zum offiziellen Klangformat eines Telefongesprächs passt, was die Glaubwürdigkeit der Aufnahme in Frage stellt. Außerhalb des Kontexts könnte man annehmen, dass die Aussagen tatsächlich so getätigt wurden, insbesondere da auf Musks Herkunft aus Südafrika verwiesen wird – ein Fakt, der leicht verifiziert werden kann. Vance wird auch mit der Behauptung zitiert, dass Musk „nicht einmal Amerikaner“ sei, während der Vizepräsident selbst als der „wichtige Mann“ dargestellt wird, der die Belange der USA vertreten sollte.

Offizielle Zeichnung

Sofort folgte eine klare Reaktion von Vance, der via X (ehemals Twitter) klarstellte: „Es ist ein gefälschter, KI-generierter Clip.“ Auch sein Kommunikationsdirektor bekräftigte: „Diese Aufnahme ist definitiv gefälscht und stammt ganz sicher nicht vom Vizepräsidenten.“

Die ersten uns vorliegenden Informationen zeigen, dass die Aufnahme erstmals am 23. März auf TikTok erschien, was die Menschen neugierig machte; dies geschah jedoch unter missverständlichen Umständen, wie beispielsweise die falsche Schreibweise des Nachnamens von Vance in einem inzwischen gelöschten Video.

Deepfake-Technologie im Fokus

Technologische Analysen von verschiedenen KI-Detektoren bestärken die Annahme, dass das Audio manipuliert wurde. Die Plattform deepfake-total.com vom Fraunhofer-Institut hat dabei eine 81-prozentige Wahrscheinlichkeit gegenüber einem Deepfake erkannt. Nicolas Müller, ein Fachmann des Instituts, erläutert, dass die Identifizierung neuer Technologien und Methoden zur Erkennung von Deepfakes oft herausfordernd ist.

Auch Hany Raid, Professor für Digitale Forensik an der UC Berkeley School of Information, spricht von einer hohen Wahrscheinlichkeit, dass das Audio nicht authentisch ist. „Unsere Untersuchungen haben ergeben, dass weder die Kadenz noch die Intonation mit Vances typischen Sprachmustern übereinstimmen“, ergänzt er. Dies könnte nicht nur die Integrität der politischen Kommunikation gefährden, sondern auch das Vertrauen in Medien und Nachrichten verstärken, da diese Technologien immer raffinierter werden.

Manipulation Detektiert

Zusätzlich berichtete Andrey Guzhov, ein Forscher am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), von Auffälligkeiten bezüglich der Frequenz des Hintergrundgeräuschs, die auf eine mögliche Manipulation der Aufnahme hinweisen. „Die Analyse zeigt, dass durchaus Unsicherheiten bestehen, ob das Audio wirklich den Standards einer echten Aufnahme entspricht“, so Guzhov.

Die gesamte Situation wirft Fragen über die Zukunft von politischer Kommunikation in einer Ära auf, in der Deepfake-Technologien stetig an Bedeutung gewinnen. Experten warnen vor einem zunehmenden Trend manipulierten Audios, die zur Verbreitung von Fehlinformationen genutzt werden können.