Anfang 2024 nahm ein Mitarbeiter eines multinationalen Konzerns mit Sitz in Hongkong an einer internen Videokonferenz mit dem Finanzvorstand dieses Unternehmens und anderen Kollegen teil. Das Ergebnis dieses Meetings war ein erfolgreicher Deepfake-Angriff und ein finanzieller Schaden von 23 Millionen Euro. Aber "alles sah echt aus", so das Opfer gegenüber den Medien 

 

Dies war nicht der erste Deepfake-Angriff und wird auch nicht der letzte sein. Eine Studie von Sumsub hat ergeben, dass sich die Zahl der Betrugsfälle mit gefälschten Identitäten zwischen 2022 und 2023 verzehnfacht hat, und es wird erwartet, dass diese Zahl in diesem Jahr noch weiter ansteigt. Die Auswirkungen dieser Angriffe können beträchtlich sein - von falschen Zeugenaussagen vor Gericht über Finanzbetrug bis hin zur Erlangung von Informationen, die die nationale Sicherheit gefährden.   

 

Die Fortschritte in der Deepfake-Technologie erfordern ebenso fortschrittliche Abwehrmaßnahmen, weshalb die Welt bessere Lösungen zur Deepfake-Erkennung benötigt. Doch lassen Sie uns hier zuerst einmal innehalten und verstehen, wie die Verbreitung von Deepfakes so schnell voranschreiten konnte.   

 

 

Die Entstehung von Deepfakes 

 

Mit den rasanten Fortschritten im Bereich der künstlichen Intelligenz gibt es nun verschiedene öffentlich zugängliche Tools, die es Menschen ermöglichen, ein Deepfake zu erstellen. Das bedeutet, dass jeder, der eine App herunterladen kann, plötzlich in der Lage ist, Techniken wie Face Swap anzuwenden, bei dem das Gesicht einer Person während eines bestehenden Videos oder Livestreams über das einer anderen Person gelegt wird. Kombiniert man dies mit einer Technologie zur Simulation der Stimme einer anderen Person, kann der Angriff unbemerkt bleiben, wie im Fall von Hongkong.  

 

 

Aber nicht alle Deepfakes dienen böswilligen Zwecken...  

 

Die ersten Deepfake-Tools wurden in der Filmindustrie verwendet, um Produktionen fertigstellen zu können, bei denen beispielsweise der Schauspieler nicht mehr an den Dreharbeiten teilnehmen konnte. Ein weiterer “guter” Anwendungsfall ist die Speech-to-Speech Übersetzung in Echtzeit, bei der Audiodaten in eine andere Sprache übersetzt und mit den Lippen des Sprechers abgeglichen werden. Ähnliche Anwendungen kommen auch bei der Erstellung von Bildungsformaten zum Einsatz. 

 

Aber trotz dieser positiven Beispiele ist die Verwendung von Deepfakes bei Videokonferenzen heutzutage leider eher böswilliger Natur. Eine der häufigsten Deepfake-Angriffsmethoden bei Videokonferenzen ist der sogenannte "Videoinjektionsangriff", bei dem der Angreifer die Kameradaten ändert und einen anderen Videostream einfügt. Ein Videoinjektionsangriff erfordert die biometrischen Daten der Person, die sich als der Angreifer ausgibt. Beschafft werden biometrische Daten häufig über soziale Medien, sodass der Angriff unbemerkt während eines Live-Videogesprächs erfolgen kann. 

 

 

Es ist an der Zeit, klare Gegenmaßnahmen gegen Deepfake-Angriffe zu definieren  

 

Um diese Art von Angriffen abzuwehren, ist eine Kombination verschiedener Maßnahmen erforderlich. Zunächst muss eine sichere Videokonferenzplattform mit einer geeigneten Authentifizierung zur Identitätsüberprüfung verwendet werden. Die Verwendung eines Zero-Trust-Sicherheitsansatzes kann das Risiko ebenfalls verringern, während der Betrieb in einem abgeschirmten Netzwerk das Risiko zwar eliminieren kann, jedoch nicht unbedingt in allen Anwendungsfällen praktikabel ist.  

 

Mit Blick auf die Zukunft glaube ich, dass wir uns mehr auf die Entwicklung und Integration von Deep-Learning-basierten Deepfake-Erkennungstechnologien in Echtzeit konzentrieren müssen, um die audiovisuelle Integrität des Meetings zu gewährleisten.   

 

 

Die Deepfake-Erkennungstechnologie kann helfen, gefälschte Identitäten in Video-Meetings aufzudecken 

 

Die Deepfake-Erkennungstechnologie sucht nach Anzeichen von Inauthentizität in Videos. Es gibt verschiedene Methoden, die heute verwendet werden, wie z.B. Technologien, die Ungereimtheiten im Video erkennen, wie Blinzeln, Verziehen des Gesichts, ungewöhnliche Lippenbewegungen oder ungewöhnliche Beleuchtung des Gesichts. Es gibt aber auch neue und verbesserte Ansätze, die Herzschlagdaten aus Videobildern, Sprachmodelle oder Sprachmerkmale verwenden, um Deepfakes zu erkennen.  

 

Die Kombination verschiedener Methoden und deren Erweiterung durch interaktive Ansätze kann zu einer deutlich höheren Erkennungsgenauigkeit führen. Daher müssen diese Abwehrmethoden weiterentwickelt werden, um mit der zunehmenden Raffinesse der Deepfake-Technologie Schritt halten zu können. 

 

 

Um die Technologie zur Erkennung von Fälschungen zu etablieren, ist Kooperation wichtig 

 

Zusammenarbeit ist der Schlüssel, da keine Organisation oder Nation diese Herausforderung allein bewältigen kann. Es ist ein ermutigendes Zeichen, dass es in Europa und den USA eine Gesetzgebung zu KI und der Verwendung von Deepfakes gibt.   

 

Im Rahmen meiner Arbeit bei Pexip habe ich auch begonnen, mit anderen Experten zusammenzuarbeiten, um Erkennungsmethoden aus verschiedenen Blickwinkeln zu bewerten. Neben der Erforschung von zuverlässigen Erkennungsmethoden ist as auch wesentlich verschiedene Integrationsansätze zu untersuchen.  Zum Beispiel sind die Anforderungen an die Integration von Erkennungstechnologien völlig anders, wenn Ende-zu-Ende-Verschlüsselung verwendet wird. Wir müssen auch die Perspektive des Benutzers im Auge behalten, um Benutzerfreundlichkeit und Transparenz in Bezug auf die Technologie zu erreichen.   

 

 

Wie Pexip Unternehmen bei der Abwehr von Deepfake-Angriffen unterstützt 

 

Pexip ist ein führender Anbieter von sicheren Videokommunikationslösungen. Aus diesem Grund möchten wir dazu beitragen, dass sich die Abwehrmechanismen gegen Deepfake-Angriffe weiterentwickeln und ausgereifter werden. Wir arbeiten mit Kunden in stark regulierten Branchen zusammen, die oft strenge Anforderungen haben. Um diese zu erfüllen, ist oft eine Kombination von Sicherheitsmaßnahmen erforderlich, wie zum Beispiel eine Zero-Trust-Architektur, selbst gehostete Lösungen und die Integration von Deepfake-Erkennungstechnologie von Spezialisten.  

 

Ich bin überzeugt, dass Unternehmen mit den richtigen Vorschriften, einem kooperativen Ansatz und der kontinuierlichen Weiterentwicklung von Erkennungstechnologien viel besser gerüstet sein werden, um sich selbst zu schützen und die Integrität ihrer Videokonferenzen zu wahren.   

 

Erfahren Sie hier mehr über Pexip Secure Meetings.

 

Themen:
  • Sichere Meetings
  • Sichere Meetings
  • Sichere Zusammenarbeit
Zurück zur Content-Bibliothek