La longueur de la vidéo, le visage est trop lisse et les outils de montage de mauvaise qualité – la documentation est-elle vraie ou fausse ? Dans la vidéo publiée par le Hamas aujourd’hui (lundi) à l’occasion de la nomination du nouveau chef d’état-major, Hartzi Halevi, un segment a été inclus dans lequel apparaît l’otage israélien détenu par le Hamas, Avra ​​Mengistu. Comme dans des cas similaires par le passé, dans lesquels les organisations terroristes ont publié des photographies d’Israéliens détenus entre leurs mains, cette fois également, immédiatement après la publication de la vidéo, des questions se sont posées concernant le moment de la photographie et l’identité du personnage et s’il s’agit bien de l’Israélien kidnappé ou d’une autre personne, et s’il s’agit bien d’un Israélien et quand la vidéo a-t-elle été prise ?

Mais cette fois, en plus de ces questions, une autre possibilité s’est présentée, selon laquelle des moyens technologiques extrêmement avancés ont été utilisés dans la création de la vidéo, qui utilisent l’intelligence artificielle (IA) pour falsifier l’image du citoyen et la présenter comme si elle étaient une vraie photographie. Si vous avez ressenti une gêne inexpliquée en regardant la vidéo – c’est peut-être parce que la vidéo n’a que partiellement fonctionné sur vous : votre œil a pu percevoir que quelque chose n’allait pas, et en effet il peut s’agir d’un faux sophistiqué.

Le Hamas publie une nouvelle documentation sur Avra ​​Mengistu

Les contrefaçons d’images fixes, réalisées à l’aide de logiciels tels que Photoshop, sont déjà monnaie courante. Cependant, la falsification vidéo est une tâche beaucoup plus complexe qui n’a été réalisée que ces dernières années, permettant parfois une falsification à un niveau si élevé que, dans certains cas, il est possible de tromper l’œil humain.

Le deepfake, ou hypertrucage, est une technique de synthèse multimédia reposant sur l’intelligence artificielle. Elle peut servir à superposer des fichiers vidéo ou audio existants sur d’autres fichiers vidéo ou audio. Cette technique peut être utilisée pour créer des infox et des canulars malveillants

Plus précisément, parler de « deep fake », le surnom de ces vidéos, est apparu dans le discours public dès 2018, et a depuis suscité des inquiétudes quant à son utilisation non seulement pour créer des contenus inappropriés comme la pornographie, mais aussi en raison de son utilisation potentielle – de la falsification de preuves aux campagnes politiques qui seront utilisées dans le but de biaiser les élections. L’année dernière, les premières publicités « mettant en vedette » des célébrités telles que Bruce Willis, Tom Cruise, Elon Musk et Leonardo DiCaprio sont apparues, dans lesquelles « Deep Fake » a été utilisé.

 

Les contrefaçons générées par ordinateur sont courantes de nos jours, photo: Reuters

Un expert en attaques basées sur l’IA générative (Generative AI), un cadre israélien de haute technologie qui a précédemment servi dans le renseignement, a examiné la vidéo, mais n’a pas pu confirmer ou réfuter sa crédibilité – cependant, il a affirmé qu’à son avis, il s’agissait bien d’un fake : « Les mouvements des lèvres sont très répétitifs et ne révèlent pas les dents. Il y a une sorte de contraction asymétrique « comme un sourire » à un moment illogique, la tête bouge très peu et la vidéo est très courte.

« On dirait qu’ils ont filmé une personne qui lui ressemble en train de faire les mouvements du corps et de faire la présentation de la tête, et de mettre dessus quelque chose qui est créé avec un outil de moindre qualité. Quand la tête ne tourne pas du tout , c’est beaucoup plus facile à faire. C’est à peine 10 secondes, 300-250 images, ce qu’un graphiste numérique peut faire en assemblant les images en quelques heures. »

L’expert a conclu: « Vous pouvez également remarquer que son visage est très lisse, donc si je devais parier, je dirais qu’il y a de très fortes chances que ce soit un faux. » L’expert a nuancé les propos et dit que pour confirmer qu’il s’agit bien d’un faux, il y a des experts en mouvements faciaux qui vont parcourir la vidéo image par image, « et ce sont eux qui pourront repérer les erreurs subtiles dans la photographie ».

« Le test n’est pas simple » (illustration), photo : GettyImages

« La voix sonne synthétique »

Le Dr Liron Itzhaki-Allerhand, qui dirige l’intelligence artificielle chez Hour One, qui opère dans le domaine de l’IA générative, est d’accord avec les propos de l’expert et ajoute qu’il existe plusieurs autres signes qui renforcent la conviction qu’il s’agit d’un faux. « La voix sonne synthétique, les lèvres à peine ouvertes, on ne voit ni les dents ni la langue. Les lèvres n’avancent pas non plus pendant la parole. »

« Le cœur dit que c’est lui, mais la tête n’est toujours pas sûre », a déclaré son frère Yalo Mengistu, auquel l’expert a ajouté : « Le fait que son frère, qui le connaît de près, ne soit pas si convaincu – est typique des cas de faux. »

Il convient de noter que l’establishment de la sécurité pense qu’il s’agit d’Abra Mengistu.