Deepfakes - eine echte Bedrohung für Unternehmen?

Juni 26, 2022

Für Deepfakes verwendete Techniken haben eine Qualitätsstufe erreicht, mit der es möglich ist, täuschend echte Video- und Sprachnachrichten zu erstellen. Dadurch ergeben sich für Kriminelle neue Betrugsmaschen, die auch Unternehmen bedrohen können.

Der Begriff der Fake-News hat längst unseren Alltag erreicht. Es handelt sich dabei beispielsweise um absichtlich verbreitete Falschmeldungen. Diese werden in der Hoffnung gestreut, dass möglichst viele Menschen sie nur flüchtig aufnehmen - etwa durch Lesen von Überschriften oder Überfliegen des Textes - und keine Details hinterfragen. Die falschen Nachrichten sollen sich auf diese Weise im Unterbewusstsein des Publikums verankern und Meinungen beeinflussen.

Deepfakes gehen einen Schritt weiter. Sie nutzen moderne Techniken wie künstliche Intelligenz, um digitale Daten jeglicher Art zu verfälschen. So können beispielsweise fingierte Anrufe oder Sprachnachrichten mit täuschend echten Stimmen von Personen erzeugt werden. Auch Video- und Bilddateien lassen sich mit solchen Methoden erstellen. Leider beginnen Cyber-Kriminelle damit, diese Technik für sich zu entdecken. Social Engineering bekommt eine neue Qualität, wenn eine Person mit der Stimme des Chefs anruft und eine dringende Überweisung anordnet oder die Herausgabe eines Passwortes fordert. Daher empfiehlt es sich für Verantwortliche, rechtzeitig auf die neuen Gefahren zu reagieren. Der wichtige erste Schritt ist, sich über das Thema zu informieren.

Deepfakes: Deep Learning und Künstliche Intelligenz als Basis

Die Bezeichnung Deepfake leitet sich vom "Deep Learning" ab. Hierbei handelt es sich um einen Teilbereich des maschinellen Lernens. Beide Techniken basieren auf Künstlicher Intelligenz (KI), der softwarebasierten Nachbildung des menschlichen Gehirns. Wie sein Vorbild auch, besteht eine KI aus vielen kleinen Knotenpunkten, Neuronen genannt, die permanent miteinander agieren. Eingabewerte werden aufgegliedert, auf ihre Merkmale untersucht und daraufhin klassifiziert.

Im Unterschied zu klassischen Computerprogrammen sind die Abläufe nicht starr in Schleifen und Verzweigungen festgelegt. Vielmehr fließen eingegebene Informationen durch die miteinander verknüpften Knotenpunkte. Diese tauschen ständig Informationen untereinander aus und "lernen" durch die Rückmeldungen der übrigen Knotenpunkte. Aus diesem Grund muss eine KI trainiert werden, bevor sie richtig funktioniert. Hat sie beispielsweise Fahrzeuge zu klassifizieren, so kann es sein, dass in einem frühen Stadium die Feststellung "hat kein Dach" dazu führt, dass ein Knoten meldet, es könne sich nicht um einen PKW handeln. Wird er nach Abgleich aller Eigenschaften von den übrigen Neuronen "überstimmt", so lernt er, dass es auch PKWs ohne Dach, nämlich Cabriolets, gibt.

Wie werden Deepfakes erstellt?

KI-Module für verschiedene Programmiersprachen sind inzwischen oft als Open-Source-Software frei verfügbar. Entwickler und Unterstützer sind zum Teil Universitäten, aber auch Konzerne wie Google und Amazon. Es wird zudem vorgefertigte Software für bestimmte Anwendungszwecke, etwa das Erstellen verfälschter Audionachrichten, angeboten. Auch wenn die Herstellung guter Fälschungen glücklicherweise meistens noch nicht trivial ist, benötigt der Kriminelle letztlich vor allem ausreichend Trainingsmaterial für das Deep Learning. Hält ein Vorgesetzter beispielsweise regelmäßig ausführliche Reden, die später im Internet verfügbar sind, kann dies ein Angriffspunkt sein. Ist die KI erst einmal trainiert, muss die Software nur noch in der Lage sein, einen eingegebenen Text als Audionachricht wiederzugeben. Hierbei handelt es sich um eine Funktionalität, die Entwickler heutzutage nicht mehr vor große Herausforderungen stellt. Text-to-Speech-Software ist inzwischen eine Standardanwendung in vielen Bereichen.

Cyberkriminalität mit Deepfakes als Tatmittel

Neben dem Streuen gezielter Falschinformationen aus politischen oder gesellschaftlichen Gründen ist das Ausnutzen von Deepfakes für Cyberkriminalität die größte Gefahr. Ransomware- oder Phishing-Angriffe starten oftmals damit, dass Mitarbeiter eines Unternehmens in die Irre geführt werden. Auf diese Weise sollen sie beispielsweise Schadsoftware in der Anlage einer E-Mail ausführen oder zu einer Überweisung auf ein unbekanntes Konto veranlasst werden.

Geschah dies in der Vergangenheit häufig noch per E-Mail oder durch Ausnutzen einer künstlichen Stresssituation, eröffnen sich mit neuen Techniken weitere Möglichkeiten für Kriminelle. So ist es mit Deepfakes möglich, die Stimmen von anderen Mitarbeitern des Unternehmens zu imitieren. Bekommt der Angestellte eines Unternehmens einen Anruf mit der Stimme des vermeintlichen Vorgesetzten, ist die Gefahr um einiges höher, dass er sich nicht mehr traut, angeordnete Aktionen zu hinterfragen. Aber auch im Bereich der biometrischen Zugangs- und Authentifizierungssysteme muss sichergestellt werden, dass diese sich nicht von einem Deepfake überlisten lassen.

Wie können Sie sich vor Deepfakes schützen?

Im Bereich der Identitätsverifizierung bei Online-Diensten setzt sich vermehrt die Zwei-Faktor-Authentifizierung durch. So wird dort neben einem Passwort inzwischen häufig ein weiteres Merkmal über einen anderen Kanal übermittelt, etwa eine Einweg-PIN, die der Nutzer per SMS auf eine vorher angegebene Rufnummer erhält. Deepfakes könnten ein Grund werden, dass derartige Mechanismen in sensiblen Bereichen Standard werden müssen. Vor dem Ausführen wichtiger Transaktionen könnte etwa ein Rückruf auf eine andere Rufnummer verpflichtend sein. Auch eine mehrstufige Verifizierung durch unterschiedliche Mitarbeiter ist eine denkbare Alternative.

Am wichtigsten ist aber zunächst die Aufklärung darüber, dass es Techniken wie Deepfakes gibt und in Zukunft vermehrt damit zu rechnen ist. Dabei spielt eine vertrauensvolle Zusammenarbeit zwischen Vorgesetzten und Mitarbeitern eine große Rolle. So sollten Vorgesetzte Rückfragen bei heiklen Transaktionen positiv bewerten. Im Gegenzug dürfen Mitarbeiter die Kontrolle von ausgeführten Geschäften nicht als mangelndes Vertrauen missverstehen. Generell sollten Arbeitsabläufe und eingesetzte Software so konzipiert sein, dass sie die Möglichkeit von Deepfakes von vornherein einkalkulieren und durch geeignete Gegenmaßnahmen abfangen.

Sicherheit wird nicht einfacher

Deepfakes dürften für KMU noch kein alltägliches Problem sein. Der Aufwand ist vergleichsweise hoch und die Qualität der manipulierten Dateien häufig nicht ausreichend. Gefälschte Textnachrichten klingen häufig noch unnatürlich und weisen Artefakte wie metallische Geräusche, falsche Aussprache oder Betonung und ungewohntes Sprechtempo auf. Wenn Sie sich allerdings an Phishing-Mails aus den Anfangszeiten des Internets erinnern und diese mit den heutigen Angriffen vergleichen, wird deutlich, dass es nur eine Frage der Zeit ist, bis Deepfakes kaum mehr ohne technische Detektionsverfahren erkannt werden können. Aus diesem Grund sollten sich Verantwortliche rechtzeitig auf entsprechende Szenarien einstellen.

Blog

vor einem Monat

Wirtschaftliche Betrachtung eines SCR-Systems in einem Erdgaskraftwerk unter Berücksichtigung aktueller Standards, Förderungen und CO2-Zertifikate

Wirtschaftliche Vorteile und Umweltimpact: SCR-Systeme in Erdgaskraftwerken im Einklang mit aktuellen Emissionsstandards und CO2-Zertifikaten

vor einem Monat

Kostenvergleich: CAPEX, OPEX und ROI für neue Umweltstandards im Kohlebergbau in Deutschland vs. anderen Ländern (bei gleichen Standards und Berücksichtigung aktueller Förderungen)

Optimierung des Kohleabbaus für die Zukunft: Kosten, Umweltstandards und staatliche Förderungen im Vergleich zwischen Deutschland und anderen Ländern

vor einem Monat

Wie können Kohlekraftwerke sauberer werden? Technologien, Kosten und Rentabilität einer grüneren Zukunft

Kohlekraft neu gedacht: Saubere Energie durch moderne Technologien und strategische Investitionen