Desinformation hat im Internet Hochkonjunktur. Über Deepfakes und weitere Herausforderungen für die Cybersicherheit sprachen wir mit Rolf Haas von McAfee.

Desinformation hat im Internet nicht nur in der gegenwärtigen weltweiten Krisensituation Hochkonjunktur. Teil der neuen Bedrohungslage sind immer echter wirkende manipulierte Videos, sogenannte Deepfakes. Über die künftige Unterscheidbarkeit von Schein und Realität und die Herausforderungen für die Cybersicherheit sprachen wir exklusiv mit Rolf Haas, Senior Enterprise Technology Specialist bei McAfee.

Regierungen, so formulierte es der schottische Philosoph, Ökonom und Historiker David Hume vor mehr als zweieinhalb Jahrhunderten, gründen einzig auf Meinungen. Im digitalen Zeitalter erwächst aus diesem Prinzip ein riesiges Problem. Längst findet ein weltweiter, nie erklärter Krieg der Meinungsmache statt. Aus dem Schutz der Anonymität versuchen Angreifer, einzelne Staaten bis hin zu Bündnissen zu destabilisieren. Die dafür zum Einsatz kommenden Methoden der Beeinflussung werden immer raffinierter. Im Fokus steht unter anderem der Diskurs in den sozialen Netzwerken. Der nach dem Cambridge-Analytica-Skandal um Imagepflege bemühte Mark Zuckerberg berichtete auf der letzten Münchner Sicherheitskonferenz, man würde allein bei Facebook täglich eine Million Fake-Accounts löschen [1].

Deepfakes und die Gefahr realer Kriege

Seit einiger Zeit verfügen die Feinde von Demokratie und Freiheit über eine neue, besonders perfide Waffe: täuschend echt wirkende, manipulierte Videos – sogenannte Deepfakes. Zwar lassen sich diese momentan noch relativ leicht durch Experten entlarven. Das kann ihren gefährlichen Einfluss jedoch nicht gänzlich unterbinden. Zudem steht die Technologie erst am Anfang. Szenarien, wonach gefälschte Videos eines Tages einen realen Krieg auslösen könnten, sind offenbar keine Panikmache, wie ein Fall aus dem afrikanischen Staat Gabun zeigt. Hier steht ein mutmaßlich gefälschtes Video im Zusammenhang mit einem versuchten Staatsstreich [2].

Das Phänomen hat inzwischen auch die Cybersecurity-Branche auf den Plan gerufen. Das liegt nicht zuletzt daran, dass Deepfakes ebenso für cyberkriminelle Machenschaften eingesetzt werden können. Dementsprechend werden sie beispielsweise in den McAfee-Security-Trends 2020 thematisiert [3].

Zu der neuen Bedrohungslage und zu Möglichkeiten, die Gefahren wirkungsvoll einzudämmen, befragten wir Rolf Haas, Senior Enterprise Technology Specialist bei McAfee. Das Gespräch ist Teil unserer Reihe zu aktuellen Fragen der Cybersicherheit.

RGBMAG: Herr Haas, in seiner Keynote im Rahmen der RSA Security Conference 2019 in San Francisco warnte McAfees Chief Technology Officer (CTO) Steve Grobman davor, dass technologisch der Punkt erreicht sei, ab dem man mit bloßem Auge die Echtheit eines Videos nicht mehr erkennen kann [4]. Welche forensischen Ansätze gibt es stattdessen, um Fälschungen eindeutig als solche zu identifizieren und die Öffentlichkeit zu schützen?

Rolf Haas: Der Betrachter selbst ist heute nicht mehr in der Lage, gut gefälschte Videos oder Bilder zu erkennen. Deepfakes lassen sich allerdings auf zwei Arten entlarven.

Zum einen ist das mithilfe von geeigneter Technik möglich, durch die man anhand von bestimmten Tools die grafischen Informationen besser untersuchen kann. Dazu gehören Pixelvergleiche, Überlappungen oder die Untersuchung der Metadaten, die im Bild versteckt sind. Dieser Ansatz lässt sich zum Beispiel durch künstliche Intelligenz durchführen, die Bilder standardisiert nach den genannten Faktoren durchleuchtet. Hier gibt es zwar noch keine Standardsoftware, aber der Markt wird sich in diese Richtung bewegen.

Eine weitere Methode zur Entlarvung von Falschinformationen ist die Suche nach dem Ursprung. Dabei geht es darum, herauszufinden, von wo das Video stammt. Wer hat es veröffentlicht? Wie vertrauenswürdig ist die Quelle? Ist die Quelle in der Vergangenheit durch Falschmeldungen aufgefallen? Das ist bereits gängige Praxis bei der Suche nach Fake News.

RGBMAG: In der neuen Ericsson-Studie „10 Hot Consumer Trends 2030“ wird darüber berichtet, dass rund jeder zweite Befragte mit dem Reüssieren von Nachrichtenportalen rechnet, die eine umfangreiche Faktenprüfung durchführen [5]. Kann ein Unternehmen wie McAfee Medien künftig neben Deepfakes beim Aufspüren von Falschmeldungen unterstützen?

Rolf Haas: Wie bereits erwähnt gibt es (noch) kein dediziertes Tool, das diese Aufgabe standardisiert übernehmen kann. Allerdings können die Überprüfungen technisch unterstützt werden. Eine KI (künstliche Intelligenz, Anm. d. Red.) kann zum Beispiel Bilder von Personen mit denen aus dem Internet abgleichen. Häufig beziehen sich gefälschte Bilder ja auf Personen des öffentlichen Lebens wie Prominente oder Politiker. Eine KI kann da sehr schnell auslesen, ob das vorliegende Bild im Vergleich zu anderen die gleiche Person darstellt, oder ob beispielsweise die Augen weiter oder näher zusammenliegen.

Außerdem gibt es Lösungen, die den Vertrauensfaktor von Quellen prüfen können und feststellen, ob bestimmte Domains in der Vergangenheit vermehrt durch Falschmeldungen aufgefallen sind.

RGBMAG: In der gerade angesprochenen Studie ist ebenfalls davon die Rede, dass Verbraucher mehrheitlich damit rechnen, bald mit einem Mikrofon die Stimme einer beliebigen Person realistisch imitieren zu können, um selbst Familienmitglieder zu täuschen. Was nach einer neckischen Spielerei klingt, hat leider einen ernsten Hintergrund. Neue Formen des Social Engineering und Phishing werden hierdurch möglich. Wie ernst ist die Situation und was bedeutet das für die Sicherheit biometrischer Authentifizierungsmethoden?

Rolf Haas: Bei den biometrischen Authentifizierungsmethoden ist momentan die Stimme sogar noch das ungefährlichste. Fingerabdruckscanner und Gesichtserkennung konnten schließlich bereits mehrmals geknackt werden. Die Stimme zu imitieren ist hier der nächste Entwicklungsschritt, da dabei aber aufgrund von Stimmhöhe, Tonalität, Betonung und so weiter mehrere komplexe Faktoren ineinander spielen, ist dies ein sehr schwieriges Unterfangen.

Grundsätzlich sollte ohnehin niemals ein biometrischer Faktor das einzige Merkmal zur Authentifizierung sein. Mindestens ein weiterer Faktor in Form eines PINs, einer Smartcard oder ähnlichem sollte jeder integriert haben – nur so lassen sich Endgeräte und Anwendungen angemessen absichern.

RGBMAG: Denken Sie, dass die Wirtschaft grundsätzlich genug zur Vorbereitung auf die neue Bedrohungslandschaft unternimmt? In der Finanzindustrie, so ist zu lesen, geschehe trotz wachsender Sorge bislang zu wenig [6].

Rolf Haas: Bargeldlose Transaktionen oder das Bezahlen per Handy sind eigentlich deutlich sicherer einzuschätzen als physische Bezahlmöglichkeiten. Kartenlesegeräte mit NFC sind billig zu holen und können dazu genutzt werden, um beispielsweise in der U-Bahn kleinere Geldbeträge zu überweisen. Will man dasselbe über das Smartphone bewerkstelligen, müsste man so nah an jemanden herantreten, dass es gar nicht unbemerkt geschehen kann. Grundsätzlich kann man aber sagen, dass im Rahmen der Digitalisierung in der Finanzindustrie hier in Deutschland oft finanziell noch viel eingespart wird, was auf Kosten der IT-Sicherheit geht.

RGBMAG: Herr Haas, erlauben Sie uns noch eine letzte Bezugnahme auf die besagte Ericsson-Studie: Sieben von zehn Verbrauchern glauben, dass Virtual-Reality-Spielwelten in zehn Jahren nicht mehr von der physischen Realität zu unterscheiden sein werden. Das passt zu der Aussage von McAfee-CTO Steve Grobman. Des Weiteren erwartet knapp die Hälfte digitale Einkaufszentren, in denen alle fünf Sinne genutzt werden können; die Matrix lässt grüßen. Braucht in der virtuellen und Mixed-Reality-Welt von morgen jeder von uns eine Art Reality-Scanner, der uns sagt, was Fakt und was Fiktion ist?

Rolf Haas: Ich denke nicht, dass wir in absehbarer Zeit soweit sein werden, um virtuelle Welten zu schaffen, die von der Realität nicht mehr zu unterscheiden sind. Virtual Reality spricht ja nur den Sehsinn an. Mit haptischen Sensoren kann man das noch erweitern, aber für eine vollständige Erfahrung braucht es ja auch olfaktorische und emotionale Reize. Deswegen werden Menschen meiner Meinung nach noch sehr lange Realität und Fiktion unterscheiden können.

Trotzdem hat VR in vielen Bereichen seine Daseinsberechtigung. So werden heute zum Beispiel mithilfe von VR Bodenproben durchgeführt, um zu entscheiden, wo Bohrungen stattfinden sollen. Bei solchen Szenarien spart VR sehr viel Zeit und ist daher extrem nützlich.

RGBMAG: In einer früheren Folge unserer Interviewreihe haben wir uns bereits mit der Rolle der künstlichen Intelligenz im Kampf gegen Malware beschäftigt. Das Fazit lautete, dass künstliche Intelligenz eher Segen als Fluch ist. Deepfakes basieren im Grunde ebenso auf Fortschritten beim maschinellen Lernen. Darf man darauf vertrauen, dass man auch hier Angreifer langfristig mit denselben Technologien in Schach halten kann?

Rolf Haas: Es ist ein ständiges Wettrüsten, denn auch Hacker setzen zunehmend KI ein, um Angriffsvektoren auszuloten. Letztendlich ist KI ja auch nur eine Möglichkeit, Informationen zusammenzuführen, um Ähnlichkeiten, Gemeinsamkeiten und Muster herauszufinden. Im Fall von Malware bedeutet das zum Beispiel Code-Teile von neuer Malware mit vergangener Malware zu vergleichen. Lässt sich eine Überschneidung der Codes identifizieren, dann kann man beispielsweise die Herkunft, Angreifer und etwaige Gegenmaßnahmen der neuen Malware ableiten.

RGBMAG: Herr Haas, wir danken Ihnen für die spannenden Einblicke und Erläuterungen.

Die Fragen stellte Michael Graef.

Weitere Informationen:
McAfee
www.mcafee.com/de

Quellen:

[1] https://www.faz.net/aktuell/wirtschaft/facebook-loescht-taeglich-1-million-fake-konten-16635950.html

[2] https://www.washingtonpost.com/politics/2020/02/13/how-sick-president-suspect-video-helped-sparked-an-attempted-coup-gabon/

[3] https://www.datensicherheit.de/aktuelles/mcafee-benennt-cyber-security-trends-2020-35302

[4] https://www.mcafee.com/enterprise/en-us/about/events/rsa-conference-2019.html

[5] https://www.ericsson.com/en/reports-and-papers/consumerlab/reports/10-hot-consumer-trends-2030

[6] https://www.biometricupdate.com/202001/survey-shows-cybersecurity-experts-see-risk-of-deepfake-fraud-but-few-have-taken-action