Betrüger nutzen zunehmend hochentwickelte künstliche Intelligenz, um sich als globale Superstars wie Taylor Swift und Rihanna auszugeben und ihre Konterfeis zu nutzen, um Benutzer zu betrügerischen Machenschaften zu verleiten. Nach Angaben des Authentifizierungsunternehmens Copyleaks nehmen diese Deepfake-Werbungen auf TikTok zu und ahmen oft legitime Medienumgebungen nach, um das Vertrauen der Benutzer zu gewinnen.
Die Anatomie des Betrugs
Die betrügerischen Anzeigen sollen durch die Verwendung manipulierter Aufnahmen von Prominenten in vertrauten Umgebungen mit hoher Autorität äußerst überzeugend wirken. Zu den gängigen Taktiken gehören:
- Nachahmung authentischer Einstellungen: Betrüger nutzen KI, um Prominente in simulierten Interviews, Podcasts oder Talkshow-Segmenten auf dem roten Teppich zu platzieren.
- Vielversprechendes „leichtes Geld“: Die meisten Anzeigen fördern betrügerische Belohnungsprogramme. Sie behaupten, dass Benutzer allein durch das Ansehen von TikTok-Videos oder das Geben von Feedback zu Inhalten erhebliche Einnahmen erzielen können.
- Imitation des offiziellen Brandings: Einige Anzeigen enthalten offizielle TikTok-Logos, um ein falsches Sicherheitsgefühl zu erzeugen und Benutzer auf Websites Dritter umzuleiten, die darauf abzielen, personenbezogene Daten zu sammeln.
In bestimmten Fällen wurde beobachtet, wie eine von der KI generierte Taylor Swift eine nicht existierende Funktion namens TikTok Pay „bewirbt“, während ein Deepfake von Rihanna verwendet wurde, um zu behaupten, dass Benutzer Geld verdienen können, indem sie einfach „Inhalte ansehen und eine Meinung abgeben“.
Eine wachsende Krise für Social-Media-Plattformen
Dieser Trend verdeutlicht einen systemischen Kampf innerhalb der Technologiebranche: Die rasante Weiterentwicklung der KI übersteigt die Moderationsfähigkeiten der großen sozialen Plattformen.
Das Problem ist nicht auf TikTok beschränkt. Das Ausmaß des Problems in der gesamten digitalen Landschaft ist enorm:
– Meta (Instagram und Facebook): Berichten zufolge sind Nutzer täglich Milliarden von Betrugsanzeigen ausgesetzt. Metas eigenes Aufsichtsgremium hat den Kampf der Plattform mit Deepfake-Inhalten offiziell anerkannt.
– YouTube: Die Plattform hat erklärt, dass sie „stark“ in Technologien zur Erkennung und Bekämpfung von Betrügereien mit Promi-Thema investiert.
Der Kern des Problems liegt in der „Überzeugungskraft“ moderner Deepfakes. Da generative KI immer zugänglicher wird, sinkt die Hürde für die Erstellung hochwertiger, irreführender Inhalte, wodurch es für automatisierte Filter und menschliche Moderatoren schwieriger wird, zwischen einer echten Befürwortung durch Prominente und einer böswilligen Erfindung zu unterscheiden.
Die Reaktion der Promis: Rechtlicher Schutz
Da der digitale Identitätsdiebstahl immer ausgefeilter wird, gehen Prominente über einfache Deaktivierungsanfragen hinaus und hin zu einer proaktiven Rechtsverteidigung.
Kürzlich hat Taylor Swift speziell für Clips ihrer Stimme neue Markenanmeldungen eingereicht. Dieser Schritt stellt einen strategischen Versuch dar, rechtliches Eigentum an ihrem Stimmbild zu erlangen und einen stärkeren Rahmen für die Bekämpfung von „KI-Nachahmern“ und unbefugtem Stimmklonen vor Gericht zu schaffen.
Der Aufstieg von Promi-Deepfakes markiert einen Wandel im digitalen Betrug, der von einfachen Phishing-Versuchen zu ausgefeilten, KI-gesteuerten psychologischen Manipulationen übergeht, die das Vertrauen der Benutzer in berühmte Persönlichkeiten ausnutzen.
Fazit: Da Deepfakes durch KI-Technologie zunehmend nicht mehr von der Realität zu unterscheiden sind, verlagert sich die Verantwortung für die Verteidigung hin zu einer Kombination aus plattformweiter Moderation und neuen rechtlichen Markenzeichen
