Das FBI warnt vor KI-Deepfake-Erpressungsbetrug
Die Fähigkeit der generativen KI, lebensechte Bilder zu erzeugen, ist beeindruckend, doch das US Federal Bureau of Investigation sagt, dass Kriminelle Deepfakes nutzen, um Opfer zur Erpressung anzugreifen.
„Das FBI erhält weiterhin Berichte von Opfern, darunter minderjährige Kinder und nicht einwilligende Erwachsene, deren Fotos oder Videos in explizite Inhalte umgewandelt wurden“, sagte die Behörde am Montag in einer PSA-Warnung.
Nach Angaben des FBI haben die Strafverfolgungsbehörden im vergangenen Jahr über 7.000 Berichte über Online-Erpressung gegen Minderjährige erhalten, wobei seit April ein Anstieg der Opfer sogenannter „Sextortion-Betrügereien“ mit Deepfakes zu verzeichnen ist.
Ein Deepfake ist eine zunehmend verbreitete Art von Video- oder Audioinhalten, die mit künstlicher Intelligenz erstellt werden und falsche Ereignisse darstellen, die dank generativer KI-Plattformen wie Midjourney 5.1 und DALL-E 2 von OpenAI immer schwerer als Fälschung zu erkennen sind.
Im Mai ging ein Deepfake von Elon Musk, CEO von Tesla und Twitter, mit dem Ziel, Krypto-Investoren zu betrügen, viral. Das in den sozialen Medien geteilte Video enthielt Aufnahmen von Musk aus früheren Interviews, die passend zum Betrug bearbeitet wurden.
Deepfakes sind nicht nur böswillig, ein Deepfake von Papst Franziskus in einer weißen Balenciaga-Jacke ging Anfang des Jahres viral, und in jüngerer Zeit wurden auch KI-generierte Deepfakes eingesetzt, um Mordopfer wieder zum Leben zu erwecken.
In seinen Empfehlungen warnte das FBI davor, Lösegeld zu zahlen, da dies keine Garantie dafür sei, dass die Kriminellen den Deepfake nicht trotzdem posten würden.
Das FBI rät außerdem zur Vorsicht bei der Weitergabe persönlicher Informationen und Inhalte im Internet, einschließlich der Verwendung von Datenschutzfunktionen wie der Privatisierung von Konten, der Überwachung der Online-Aktivitäten von Kindern und der Überwachung auf ungewöhnliches Verhalten von Personen, mit denen Sie in der Vergangenheit interagiert haben. Die Agentur empfiehlt außerdem, häufig online nach persönlichen Daten und Informationen zu Familienmitgliedern zu suchen.
Zu den weiteren Behörden, die Alarm schlagen, gehört die US-amerikanische Federal Trade Commission, die davor warnte, dass Kriminelle Deepfakes verwenden, um ahnungslose Opfer dazu zu verleiten, Geld zu senden, nachdem sie einen Audio-Deepfake eines Freundes oder Familienmitglieds erstellt hatten, der besagt, dass sie entführt worden seien.
„Künstliche Intelligenz ist keine weit hergeholte Idee mehr aus einem Science-Fiction-Film. Wir leben hier und jetzt damit. Ein Betrüger könnte KI nutzen, um die Stimme eines geliebten Menschen zu klonen“, sagte die FTC in einem Verbraucherwarnung im März und fügte hinzu, dass alle Kriminellen einen kurzen Audioclip der Stimme eines Familienmitglieds benötigen, um die Aufnahme echt klingen zu lassen.
Das FBI hat auf Decrypts Bitte um Stellungnahme noch nicht geantwortet.