Laut einer 2022 durchgeführten Umfrage stieg die Nutzung erkannter Deepfakes zwischen 2021 und 2022 um 13 Prozent. Deepfakes können unglaublich zerstörerisch sein, wenn sie von Advanced Persistent Threats ausgenutzt werden . Hier ist, was Sie über diese aufkommende Technologie wissen müssen:
Was sind Deepfakes?
Die Deepfake-Technologie ist eine Form der künstlichen Intelligenz, die Algorithmen des maschinellen Lernens nutzt, um realistische Medieninhalte zu generieren, darunter synthetisches Audio, Bilder und Text.
Arten von Deepfake-Technologie
Wie das Department of Homeland Security (DHS) erklärt, nutzt die Deepfake-Technologie einen maschinellen Lernmechanismus namens Generative Adversarial Network (GAN), um irreführende Bilder und Videos zu erstellen.
Die häufigste Anwendung dieser Technologie ist das Face Swapping, eine Methode, bei der das Gesichtsbild einer Person auf den Körper einer anderen Person gelegt wird. Diese spezielle Anwendung hat aufgrund ihres Missbrauchs Bedenken geweckt, beispielsweise zur Verbreitung falscher Informationen, zur Produktion nicht einvernehmlicher Pornografie oder zur Umgehung von Gesichtserkennungssystemen . Obwohl Deepfakes meist mit Bildern und Videos in Verbindung gebracht werden, kann die Deepfake-Technologie auch Audio und Text manipulieren.
Hier sind die Arten von Deepfakes und mögliche böswillige Verwendungen:
Deepfake-Videos und -Bilder
Bei Deepfake-Videos und -Bildern werden Inhalte verändert oder erfunden, um ein anderes Verhalten oder andere Informationen als im ursprünglichen Quellmaterial zu zeigen. Diese Manipulationen können verschiedene Formen annehmen und reichen von harmlosen Vorfällen wie dem Ersetzen des Bilds eines Kollegen durch das Gesicht einer Berühmtheit bis hin zu bösartigeren Anwendungen.
Durch den Missbrauch von Video- oder Bildmanipulationstechnologien können Bedrohungsakteure gezielt Einzelpersonen für Hetzkampagnen einsetzen oder Desinformationen verbreiten, indem sie Videos oder Bilder von Aktionen in Umlauf bringen, die nie stattgefunden haben. Darüber hinaus können synthetische Videos biometrische Systeme täuschen und Angreifern so neue Möglichkeiten eröffnen, diese für ihre schändlichen Zwecke auszunutzen.
Verwandte Lektüre: Wie tief geht der Deepfake?
Deepfake-Audio
Deepfake-Audio stellt eine zunehmende Bedrohung für sprachbasierte Authentifizierungssysteme dar. Für die Erstellung eines Deepfake-Stimmabdrucks sind jedoch Beispieldaten erforderlich. Daher sind Personen mit umfassend verfügbaren Stimmproben, wie Prominente und Politiker, für diese Taktik besonders anfällig.
Bedrohungsakteure können Sprachproben aus verschiedenen Quellen, darunter soziale Medien, Fernsehen und Aufnahmen, erhalten und diese dann manipulieren, um geskriptete Inhalte zu imitieren. Derzeit ist der Prozess der Erstellung von Deepfake-Audio zu zeitaufwändig, um Echtzeitangriffe auszuführen. Unternehmen sollten jedoch wachsam bleiben, was die Entwicklung von Deepfake-Audiotechnologien angeht, da diese sich ständig weiterentwickeln und möglicherweise mit Deepfake-Videos kombiniert werden können. Es gab mehrere Fälle, in denen Audio-Deepfakes verwendet wurden, um verschiedene Cyberkriminalität zu begehen.
Textuelle Deepfakes
Textuelle Deepfakes beziehen sich auf schriftliche Inhalte, die scheinbar von einer echten Person verfasst wurden. Soziale Medien sind ein Hauptfaktor für die zunehmende Verwendung textueller Deepfakes, bei denen Beiträge als Teil einer Social-Media-Manipulationskampagne oder von Bots generierter Antworten verwendet werden können. Ihr Zweck besteht oft darin, im großen Stil Fake News und Desinformationen zu verbreiten und so den trügerischen Eindruck zu erwecken , dass zahlreiche Personen auf verschiedenen Medienplattformen dieselbe Meinung teilen.
Welcher Deepfake-Typ ist am schwierigsten zu erkennen?
Das Erkennen textlicher Deepfakes kann im Vergleich zu anderen Formen der Deepfake-Technologie schwieriger sein. Visuelle und akustische Manipulationen weisen häufig deutliche Anzeichen dafür auf, dass sie von KI generiert werden, wie etwa visuelle Inkonsistenzen oder künstliche Stimmtöne.
Textliche Deepfakes liefern jedoch weniger klare Hinweise, die die Authentizität des Inhalts bestimmen können, da Online-Benutzer häufig Grammatik und Zeichensetzung missachten. Darüber hinaus ermöglicht die weit verbreitete Verwendung von ChatGPT Bedrohungsakteuren, Sprachbarrieren zu umgehen und hilft bei der Erstellung überzeugender Phishing- Skripte.
Der Aufstieg der Deepfake-Technologie
Laut unseren Sammlungen haben Bedrohungsakteure in den letzten drei Jahren etwa 133.000 Mal in illegalen Foren und Marktplätzen über Deepfakes gepostet. Auch wenn nicht alle Diskussionen böswilliger Natur sind, diskutieren Bedrohungsakteure aktiv über die aufkommende Technologie und informieren sich darüber.
Wie Cyberkriminelle Deepfakes nutzen können
Laut einem Bericht des US-Heimatschutzministeriums wurde die Technologie erstmals böswillig eingesetzt, um Deepfake-Pornografie zu erstellen. Seitdem hat sich die Technologie erheblich weiterentwickelt und ist immer weiter verbreitet. Je nach Ziel des Angreifers können Deepfakes auf unterschiedliche Weise eingesetzt werden.
Cyberkriminelle könnten sich beispielsweise vertrauliche persönliche Informationen über ein Ziel verschaffen, Stimmproben aus den sozialen Medien des Ziels sammeln und dann einen Deepfake der Stimme des Ziels konfigurieren, um Authentifizierungssysteme zu umgehen und so eine Kontoübernahme durchzuführen . Oder sie nutzen das Skript für verschiedene Phishing- oder Erpressungsversuche .
Die zerstörerischsten Anwendungen der Deepfake-Technologie werden jedoch höchstwahrscheinlich von Advanced Persistent Threats ausgehen. Cyber-Einflusskampagnen können Deepfakes verwenden, um überzeugende Videos und Bilder zu erstellen, die die öffentliche Meinung beeinflussen, wie die Veröffentlichung von Deepfake-Aufnahmen des ukrainischen Präsidenten Wolodymyr Zeklenskyj durch Russland im März 2022 zeigt.
Im Folgenden finden Sie bemerkenswerte Beispiele für Diskussionen und Ereignisse, die von Cyber-Bedrohungsakteuren durchgeführt wurden, die Deepfake-Technologie nutzen, um Cyberkriminalität zu begehen oder möglicherweise zu planen:
- September 2019: Ein Bedrohungsakteur nutzte einen Audio-Deepfake, um den CEO einer in Großbritannien ansässigen Organisation zu kontaktieren und ihn glauben zu machen, dass er mit der Muttergesellschaft zusammenarbeitet. Der Bedrohungsakteur überzeugte den CEO, eine Geldüberweisung in Höhe von 243.000 US-Dollar einzuleiten. Dies war der erste dokumentierte Fall, in dem ein Audio-Deepfake für Finanzkriminalität eingesetzt wurde.
- Dezember 2021: Bedrohungsakteure nutzten Deepfake-Audiodateien und betrügerische E-Mails als Social-Engineering-Angriff, um ein Unternehmen in den Vereinigten Arabischen Emiraten um 35 Millionen US-Dollar zu betrügen. Die Deepfake-Audiodateien und E-Mails waren ein aufwändiger Betrug, um die Bedrohungsakteure als Direktoren des Unternehmens zu tarnen und gezielt Mitarbeiter zur Überweisung von Geldern anzusprechen.
- November 2022: Ein Twitter-Nutzer postete ein Deepfake-Video des FTX-Gründers Sam Bankman-Fried, in dem er einen Link für vom Zusammenbruch von FTX betroffene Nutzer bewarb und behauptete, als Entschädigung kostenlose Kryptowährung anzubieten. Dies war jedoch ein Betrug.
- Januar 2023: In mehreren Threads der inzwischen nicht mehr existierenden Breach Forums werden Tipps und Tools zum Erstellen und Erlernen der Deepfake-Technologie geteilt. Da das Forum mit Betrug und Hacking in Verbindung steht, deuten die Diskussion und Weitergabe von Tutorials für Deepfakes darauf hin, dass Cyber-Bedrohungsakteure möglicherweise mehr Fähigkeiten erwerben, um Deepfakes für Cyberkriminalität einzusetzen.
- März 2023: In einem Thread im russischsprachigen High-Tier-Forum XSS wird diskutiert, wie man mithilfe von Deepfake-Technologie die biometrische Gesichtserkennung von OnlyFans umgehen kann, um hochgeladene Inhalte zu verifizieren. Vermutlich würden die Bedrohungsakteure diese Technologie nutzen, um KI-generierte oder Deepfake-Pornografie auf die Website hochzuladen und so die Verwendung von Original- oder einvernehmlichen Inhalten zu umgehen.
Mehr lesen: Qmee-Rezension: Sie können verdienen, aber können Sie auch auszahlen?
Mit Flashpoint bleiben Sie neuen digitalen Bedrohungen immer einen Schritt voraus
Der Aufstieg der künstlichen Intelligenz schafft eine Umgebung, in der Bedrohungsakteure leicht auf KI-Tools, einschließlich Deepfake-Technologien, zugreifen können, um Betrug zu begehen, Desinformationen zu verbreiten und bösartige Inhalte gegen Opfer zu veröffentlichen. Melden Sie sich für eine kostenlose Testversion an , um den neuen digitalen Bedrohungen immer einen Schritt voraus zu sein.