zum vorherigen Artikel

Artikel 2024

zum nächsten Artikel

Artikel 2022

09/2023

KI-basierte Voice Scams: Neue Betrugsszenarien mit Stimmen-Fakes!

Wie Enkeltrick und CEO-Fraud per Audio Fake den nächsten Betrugslevel erreichen. Künstlich generierte Stimmen haben ein betrügerisches Gefährdungspotential, das im Social Engineering eine neue und eigene Dynamik entwickeln kann.

Tatsächlich ist Künstliche Intelligenz in aller Munde, spätestens seit ChatGPT im November freigeschaltet wurde. kartensicherheit.de warnt vor neu heranwachsenden Betrugsmethoden mit Voice-Scams, beleuchtet die Hintergründe und stellt Tipps zu Ihrem Schutz bereit.

 

Wie Kriminelle Voice Fakes als Druckmittel missbrauchen.

Auf den ersten Blick mag das lustig klingen: Der Bundeskanzler singt den Disney Musical-Hit der Eiskönigin und rappt anstelle von Eminem in „8 miles“. Doch die gleiche Technik steckt auch hinter Schlagzeilen wie „Cyber-Angreifer stehlen mit Fake-CEO-Stimme Millionen“. Und zwar zum Beispiel, indem Sie der obligatorischen E-Mail aus der Chefetage auch noch einen Anruf mit simulierter CEO-Stimme folgen lassen.

Dabei ist die Stimme eines jeden Menschen so einzigartig wie sein Fingerabdruck. Bevor wir sehen können, hören wir unsere Eltern sprechen. Die Stimme schafft instinktiv Vertrauen. Klingt ein geliebter Mensch für uns in Not, schaltet unser Gehirn mehr oder weniger auf Ausnahmezustand. Wir sind anfälliger für Täuschungen.

Deepfake Audio nennt man den Versuch, Stimmen mit Hilfe von künstlicher Intelligenz nachzubauen. Die kriminelle Masche: Ihr Telefon klingelt, angezeigt wird manchmal der persönliche Kontakt, manchmal die Polizei. Zu hören bekommen Sie die Stimme Ihres Familienmitglieds oder einer bekannten Person aus der Chefetage. Es folgt eine der bekannten Social Engineering Taktiken – ein Schockszenario wegen eines angeblichen Unfalls oder Überfalls, ein Lotteriegewinn mit Hindernissen, ein Erpressungsversuch, der Enkeltrick etc. – und dann der Versuch, an Geld oder Schlüsselinformationen (Passwort, TAN o.ä.) zu gelangen. Mal ist eine Kaution zu stellen, mal ein akuter finanzieller Engpass zu beseitigen, mal Bargeld zu überbringen oder „nur“ eine Banking-Information preiszugeben.

Und auch bei KI-Stimmen-Fakes schrecken die Betrüger vor keinen Tabus zurück, übermitteln skrupellos tragische Nachrichten oder Lösegeldforderungen für angeblich gekidnappte Kinder. Wenn die Täter:innen diesen Fake-Anruf dann noch mit einer inhaltlich abgestimmten E-Mail, SMS oder WhatsApp kombinieren, erscheint das ganze Betrugsszenario für die Opfer freilich glaubwürdiger. Dass umfangreiche Ausspähungen von Personen- oder Unternehmensdaten vorausgegangen sein müssen, ziehen viele Menschen in dieser Ausnahmesituation kaum in Betracht.

 

Was gibt berechtigten Anlass zur Hoffnung?

Es gibt auch KI-gestützte Lösungen für Cybersicherheit und Betrugserkennung. Die Forschung verspricht sich viel davon. Stichwort digitale Identifizierung: Sie soll in der Lage sein, Cyberbedrohungen bei kontaktlosen Zahlungen, wie z.B. Sprachzahlungen, in Bezug auf Authentifizierung, Sicherheit und Datenschutz zu lösen.

Expertenwissen und entsprechende Tools zur Entlarvung manipulierter Audiodateien stehen bereit. Zum Beispiel gibt es das Fraunhofer-Institut für Digitale Medientechnologie IDMT, das führend im Bereich der Audioforensik ist. Unter dessen Mitwirkung erschien bereits im Februar ein europäisches Praxishandbuch der Expertengruppe »Forensische Sprach- und Audioanalyse« des Europäischen Netzwerks forensischer Institute (ENFSI).

Die Einführung einer systematischen Bundesländer-übergreifenden Erfassung von KI-basierten Betrugsdelikten erscheint logisch als nächster Schritt.

 

Einfache Tipps zum Schutz gegen Sprachbetrug

Erste Sicherheitsmaßnahmen können Sie jetzt leicht selbst ergreifen.

  1. Überlegen Sie lieber zweimal, ob Sie Ihre eigenen Sprachaufnahmen ins Internet stellen müssen.
  2. Warten Sie mit dem Teilen Ihrer Audiodaten, bis Sie Zugang zu einem sicheren Netzwerk haben. Auch im Urlaub eine wichtige Regel!
  3. Vereinbaren Sie mit Familie und Freunden Codewörter, die nur Ihrem Kreis vertraut sind; zum Beispiel spezielle Kosenamen.
  4. Wenn Sie einen außergewöhnlichen Anruf erhalten, versuchen Sie immer erst, die Angaben zu überprüfen, bevor Sie weitere Schritte unternehmen. Am besten doppelt und dreifach gegenchecken und die Recherchequellen wechseln!
  5. Achten Sie auf persönliche Sprachmerkmale und stimmliche Eigenheiten wie Dialekt oder typische Wörter. Würde sich die Person im Falle eines Falles tatsächlich so ausdrücken?

Verbreiten Sie diese Tipps im Bekanntenkreis. Je mehr die Öffentlichkeit über diese Betrugsmethoden erfährt, desto schwerer dringen die Angriffe durch.

Wir empfehlen Ihnen zudem den Podcast des Bundesministeriums für Sicherheit in der Informationstechnik BSI: „Künstliche Intelligenz – Was es ist – was es kann und wo es hingeht!“

https://www.bsi.bund.de/SharedDocs/Audio/DE/BSI/Update_verfuegbar_Folge33_2023_07_30.html

 

Quellen:

https://www.bsi.bund.de/SharedDocs/Audio/DE/BSI/Update_verfuegbar_Folge33_2023_07_30.html

https://1.ard.de/vbdeepfakeyt1.

https://thueringer-bogen.de/wichtiger-schritt-im-kampf-gegen-kriminalitaet-und-desinformation/

https://www.chip.de/news/Vorsicht-Identitaetsdiebstahl-So-schuetzen-sich-Verbraucher-vor-neuer-KI-Betrugsmasche_184880116.html