La plupart d'entre nous ont pris conscience de la puissance d'un deepfake bien exécuté lorsque Jordan Peele s'est transformé en Barack Obama sur une vidéo en 2018. Ses défauts étaient presque imperceptibles, trompant la plupart d'entre nous qui ne cherchaient pas activement les erreurs.
Depuis lors, nous avons assisté à des progrès sans précédent dans l'audio et la vidéo synthétisées par l'IA. Nous vivons désormais à une époque où n'importe qui peut usurper l'identité de n'importe qui grâce à la technologie deepfake - un terme qui marie judicieusement "deep learning" et "fake". Une recherche rapide en ligne sur le mot "deepfake" permet de trouver des tutoriels qui expliquent exactement comment procéder. Ainsi, n'importe qui peut devenir votre patron, votre meilleur ami ou même votre conjoint, et vous demander des mots de passe, des transferts d'argent ou des informations privées, sans que vous vous en rendiez compte.
À ce jour, la technologie "deepfake" n'a pas été jugée totalement illégale, mais son utilisation est de plus en plus réglementée, en particulier dans l'Union européenne. Lorsqu'elle est exploitée à des fins malveillantes ou frauduleuses, elle franchit la ligne criminelle dans la plupart des pays du monde, notamment lorsqu'elle est utilisée pour propager des informations erronées, soutirer des données confidentielles, obtenir de l'argent, nuire à la réputation ou même perturber des programmes. Et tout cela peut se produire lors d'une simple vidéoconférence au cours de laquelle vous êtes persuadé de connaître la personne à l'écran et de lui faire confiance.
Alors, que pouvons-nous faire pour perturber un programme de "deepfake" ?
Lorsque vous observez un deepfake par vidéo, vous observez en réalité une IA qui a cartographié les mouvements faciaux d'une personne sur le visage d'une autre personne. En fait, la ressemblance de cette personne, disons votre Directeur/trice hiérarchique, a été superposée au visage de l'acteur de la menace, en temps réel. C'est très réaliste, comme nous l'avons vu à travers de nombreux exemples, mais il existe quelques moyens de l'éviter. Chez Pexip, nous proposons quelques contre-mesures clés pour empêcher les deepfakes d'envahir vos réunions vidéo:
Mettre en œuvre des mesures d'authentification
En d'autres termes, ne rendez pas votre réunion facile à rejoindre. Créez plutôt un protocole qui exige de vos participants qu'ils vérifient leur identité par le biais d'un processus d'identification à plusieurs facteurs .
Protégez votre réunion avec un code PIN
Bien que l'authentification soit de loin la meilleure mesure de prévention, un code PIN peut être utile pour retarder l'attaquant. Faites preuve d'intelligence en choisissant un code PIN aussi compliqué et difficile à deviner que possible.
Organiser des réunions vidéo ad'hoc
Il s'agit de réunions vidéo avec des alias de connexion longs et aléatoires qui ne sont valables que pour une seule réunion. Cela peut constituer une autre ligne de défense, car il est plus difficile pour les intrus de "deviner" leur chemin vers votre réunion privée.
La prévention des "deepfake" dans les vidéoconférences est une question à poser à votre fournisseur de service.
Comme nous l'avons vu, les progrès de l'IA se développent de manière exponentielle, et avec toutes les nouvelles fonctionnalités étonnantes que l'IA apporte, nous constatons également une escalade des risques lorsqu'il s'agit de la vie privée et de la sécurité. Garantir la confidentialité de vos réunions est une priorité absolue, c'est pourquoi Pexip a conçu un produit à cet effet.
En savoir plus sur Pexip Secure Meetings. Nous sommes impatients de vous accompagner pour réduire les risques liés à vos réunions vidéo.
- Collaboration securisée
- Réunions sécurisées
- Collaboration sécurisée