« Je ne suis pas Morgan Freeman, et ce que vous voyez n’est pas réel – du moins, d’après la définition contemporaine que nous en avons aujourd’hui. Et si je vous disais que je ne suis même pas un être humain ? » Si cette introduction est si glaçante, c’est que le visage et la voix qui prononce ces mots sont en tous points similaires à cet acteur qu’elle prétend ne pas être. Ce « deepfake », que l’on pourrait traduire par « profondément faux » ou « contrefait » a été posté il y a un an, mais est devenu viral six mois plus tard sur Twitter. Sur la chaîne YouTube de ces « deepfakers » on peut lire en description que « la vie est une singularité postmoderne ambiguë » ; tout un programme d’illusionnistes, pas si délirant.
Car le phénomène deepfake a de quoi inquiéter. Le principe est simple : contrefaire le visage et la voix d’une personne pour les appliquer sur une autre, dans une vidéo existante. L’application est plus compliquée. Ou du moins, elle l’était. Jusqu’à récemment de nombreux petits « glitchs », des défauts visuels ou audio, pouvaient alerter sur la nature purement numérique de ce faux acteur ou personnalité publique derrière l’écran. Seulement voilà : si cette vidéo de plus d’une minute parodiant la star Morgan Freeman a terrorisé nombre d’internautes, c’est parce-que le réalisme dont elle fait preuve est époustouflant, et s’il nous avait annoncé la sortie n’un nouveau blockbuster, beaucoup auraient couru acheter leur place de cinéma.
Internet, nid de contrefaçons
Les conséquences dévastatrices qu’une telle technologie peut entraîner donnent le vertige, et sont déjà en marche. Une émission contrefaite de Joe Rogan, l’intervieweur star aux États-Unis, met en scène un faux invité vantant les mérites d’un produit dopant vendu sur Amazon. Résultat : des ventes à foison du produit soi-disant miracle, que ni Joe Rogan ni son « invité » n’ont jamais évoqué.
Si Twitter est déjà un terrain miné pour qui n’est pas vigilant aux arnaques, de tels chausse-trappes deviendront vite de plus en plus difficiles à éviter, pour des conséquences autrement plus dramatiques que celles d’une arnaque aux produit testostéronés. Comme le remarquent déjà de nombreux commentaires au bas de ces vidéos : « Qu’est-ce qui empêcherait de l’utiliser pour les élections de 2024 ? » A priori, rien. Pour ce qui est des personnalités politiques, c’est même déjà fait.
Une poudrière à tous les niveaux
Alors, il reste quelques obstacles à franchir pour que la confusion généralisée ne s’installe sur le web, et notamment l’origine de la vidéo, et la possibilité qu’a l’intéressé de démentir via un compte certifié par exemple. Les bons observateurs réussissent encore à déceler visuellement les signes d’un deepfake bien réalisé, et les experts en informatique savent encore déceler les fausses preuves de ce genre dans les affaires sérieuses. Mais cela durera-t-il ?
Pire, les arnaques sont déjà particulièrement graves : dans son émission (la vraie, cette fois-ci) le monteur de Joe Rogan relatait l’histoire d’un père de famille appelé en plein jour par un faux kidnappeur qui utilise la voix de son fils pour le faire chanter ; alors que l’enfant crie « maman, aide-moi » d’une voix contrefaite, la mère reprend contact et n’arrive même plus à convaincre son mari paniqué que tout est inventé, que tout va bien.
L’histoire est postée sur Facebook par la mère, et bien qu’invérifiée, semble tout à fait plausible au vu des technologies actuelles. « Combien de temps te faut-il pour faire ce deepfake de moi ? » demande l’animateur à son technicien, après le visionnage d’une interview de Donald Trump détournée : « en faisant tourner l’intelligence artificielle, environ huit heures », avant d’ajouter : « Je peux le faire encore plus réaliste si je laisse plus de temps. »
Une bien pauvre contrainte, quand l’on saisi l’ampleur des dégâts que peut causer une seule vidéo choc, qui appellerait à telle ou telle action violente par exemple, une seule étincelle qui enflammerait un pays, et qu’un démenti officiel tardif ne pourrait pas éteindre.
Le combat virtuel
Alors, va-t-on assister aux dernières heures des preuves en vidéo, de la confiance dans la parole publique, de toutes les barrières à l’intox qui survivaient encore, tant bien que mal, jusqu’à aujourd’hui ? Si la technologie continue sa grande lancée vers le mimétisme « parfait » de la nature, les frontières séparant le virtuel du réel pourraient devenir de plus en plus floues. Il n’est besoin que d’un éloge d’Emmanuel Macron par « Chat GPT » pour s’en convaincre.
Dans un tel contexte, l’individualité d’une personne et d’une chose devient alors l’objet d’un combat inédit, que la technologie NFT (des « jetons non fongibles », donc purement uniques) semble faire sienne, grâce à l’usage de la blockchain, une autre technologie complexe et très prometteuse comme garant de confiance dans le monde virtuel. En attendant préparons-nous, devant les vidéos choc de demain, à nous poser cette même question que nous pose le faux Morgan Freeman, de sa voix déroutante et si familière : « Et maintenant, que voyez-vous ? »