Ein TikTok-Video, das fälschlicherweise den britischen Premierminister Keir Starmer bei der Ankündigung einer landesweiten Ausgangssperre zeigte, wurde mehr als 430.000 Mal angesehen, bevor es von der Plattform entfernt wurde. Das 61-sekündige Video, eines von Tausenden mit Herrn Starmer in den letzten Monaten, schien ihn mit der Aussage zu zeigen, dass niemand nach 23 Uhr ohne offizielle Genehmigung sein Haus verlassen dürfe.
NewsGuard, ein Unternehmen, das Online-Fehlinformationen verfolgt, identifizierte zwischen Mai und Dezember über 6.000 solcher Videos mit Herrn Starmer. Das Unternehmen berichtete, dass die Videos von Konten mit unterschiedlichem Grad an Authentizität gepostet wurden.
Das Video verwendete schnell fortschrittliche künstliche Intelligenz (KI), um die Stimme von Herrn Starmer nachzuahmen, einschließlich seines unverwechselbaren nasalen Singsangs. Dies ließ die gefälschte Ankündigung unheimlich realistisch klingen, was zu ihrer raschen Verbreitung über Social-Media-Plattformen wie X und Facebook beitrug.
TikTok, im Besitz eines chinesischen Unternehmens, verbietet offiziell gefälschte maßgebliche Quellen, Krisenereignisse und die Falschdarstellung von Persönlichkeiten des öffentlichen Lebens. Obwohl die Plattform das spezifische Ausgangssperren-Video entfernte, unterstreicht der Vorfall die wachsende Herausforderung bei der Bekämpfung von KI-generierten Fehlinformationen. Die relative Leichtigkeit, mit der überzeugende gefälschte Videos erstellt und verbreitet werden können, wirft Bedenken hinsichtlich des Manipulationspotenzials und der Aushöhlung des Vertrauens in Online-Informationen auf.
Experten auf dem Gebiet der KI und Medienkompetenz betonen die Notwendigkeit einer verstärkten öffentlichen Aufklärung und der Entwicklung von Werkzeugen zur Erkennung und Kennzeichnung von Deepfakes. Der Vorfall unterstreicht die Bedeutung von kritischem Denken und der Überprüfung von Informationen aus mehreren Quellen, bevor man sie als Fakten akzeptiert. Die Verbreitung des Starmer-Videos zeigt, wie schnell Fehlinformationen an Zugkraft gewinnen können, selbst wenn sie nachweislich falsch sind.
Discussion
Join the conversation
Be the first to comment