Betrug mit "Voice Cloning": So schützt man sich vor KI-Anrufen
Beinahe jeder zweite Betrug wird mittlerweile im Internet ausgeübt, doch eine neue Betrugsmasche beginnt eigentlich ganz klassisch: Das Telefon läutet, am anderen Ende sind Angehörige, oftmals die Enkel oder die Kinder. Es sei etwas "Schreckliches" passiert, sie bräuchten ganz dringend Geld.
"Der Trick dahinter ist ja nicht neu, der ist so alt wie die Menschheit, muss man sagen, das ist der Enkeltrick", erklärt Stefan Strauß, Senior Scientist am Institut für Technikfolgen-Abschätzung an der Österreichischen Akademie der Wissenschaften (ÖAW) gegenüber PULS 24. Die Betrugsmasche heißt so, da sie besonders ältere Menschen treffe - sie würden meist nicht mehr so oft Kontakt zu ihren Angehörigen haben, so Strauß.
Enkeltrick nun mithilfe von KI?
Diese Art des Betrugs kursiert auch schon länger auf WhatsApp und ähnlichen Messenger-Diensten. Neu ist nun, dass die Betrüger:innen auf einmal die scheinbar echte Stimme der Familienmitglieder nachahmen können. Verwendet wird Künstliche Intelligenz (KI) zum "Voice Cloning". Die Betrüger:innen beschaffen sich eine Audio-Aufnahme und speisen sie in eine Anwendung ein, die lernt, die gewünschte Stimme nachzuahmen. Bei dem Anruf liest die KI dann den fertigen Text vor ("Text-to-Speech").
Alternativ könne man teils auch selbst Texte einsprechen, die dann von der KI an die gewünschte Stimme angepasst würden. In dieser Variante würde die Ausgabe "natürlicher" klingen, so Strauß.
Wie schützt man sich?
Hauptquelle für die Betrüger:innen sei Social Media, gerade TikTok würde sich anbieten, da dort nur Audio- und Video-Kurzformate geteilt werden. Daher sollte man auf der Plattform besonders vorsichtig beim Posten sein, rät Strauß.
Das Problem setze aber eigentlich schon viel früher an: "Es beginnt damit, dass jemand Telefonnummern sammelt", so Strauß. Um sich zu schützen, sollte man "Telefonnummer nicht einfach so ins Netz stellen" und auch keine Audio-Dateien beliebig veröffentlichen.
Generell würde mit biometrischen Daten, wie etwa der eigenen Stimme, aber auch Bildern, zu leichtfertig umgegangen werden, warnt Strauß. Obwohl sie "sensibel" seien, würde das Bewusstsein, sie zu schützen, fehlen. Diese fehlende Vorsicht würden Betrüger:innen sich dann zu Nutze machen.
Wie erkennt man einen Fake-Anruf?
Wenn es aber einmal so weit ist, dann heißt es, Ruhe bewahren. Auch wenn "die Tools immer besser darin werden, die menschliche Sprache zu imitieren", gelte es zuerst die Plausibilität der Geschichte zu hinterfragen: Wie wahrscheinlich ist es, dass ein Familienmitglied urplötzlich nach einer großen Summe Geld verlangt?
Zudem sei das "Sprachmuster von jeder Person einzigartig", auch sie ist ein biometrisches Merkmal. Wenn die Sprachmelodie also von auffälligen Pausen geprägt sei, solle man nicht vorschnell handeln. Generell gelte weiterhin die Grundregel, dass bei Anrufen mit fremden Telefonnummern aufgepasst werden sollte.
Positiver Einsatz von Voice Cloning
Die geklonten Stimmen sorgen aber nicht nur für Unmut, sondern haben auch viele positive Anwendungen. So können sie allen voran Menschen helfen, die ihre Sprache verloren haben. Zudem könne eine KI auch die Herstellung von personalisierten Inhalten, wie etwa Podcasts oder Hörspielen, ermöglichen.
Missbrauchspotenzial gäbe es überall, so Strauß. Deswegen heiße es, "wir brauchen mehr Bewusstsein, wie man biometrische Daten besser schützt, auch wenn das aus der Mode ist".
Zusammenfassung
- Um an Geld zu kommen, werden Betrüger:innen immer einfallsreicher und nutzen alle technischen Möglichkeiten aus.
- Ein neuer Trick: Anrufe mit geklonter Stimme.
- Das Telefon läutet, am anderen Ende sind Angehörige, oftmals die Enkel oder die Tochter/der Sohn. Es sei etwas "Schreckliches" passiert, sie bräuchten ganz dringend Geld.
- PULS 24 hat nachgefragt: Wie erkennt man solche Anrufe und wie schützt man sich?