La longueur de la vidéo, le visage est trop lisse et les outils de montage de mauvaise qualité – la documentation est-elle vraie ou fausse ? Dans la vidéo publiée par le Hamas aujourd’hui (lundi) à l’occasion de la nomination du nouveau chef d’état-major, Hartzi Halevi, un segment a été inclus dans lequel apparaît l’otage israélien détenu par le Hamas, Avra Mengistu. Comme dans des cas similaires par le passé, dans lesquels les organisations terroristes ont publié des photographies d’Israéliens détenus entre leurs mains, cette fois également, immédiatement après la publication de la vidéo, des questions se sont posées concernant le moment de la photographie et l’identité du personnage et s’il s’agit bien de l’Israélien kidnappé ou d’une autre personne, et s’il s’agit bien d’un Israélien et quand la vidéo a-t-elle été prise ?
Mais cette fois, en plus de ces questions, une autre possibilité s’est présentée, selon laquelle des moyens technologiques extrêmement avancés ont été utilisés dans la création de la vidéo, qui utilisent l’intelligence artificielle (IA) pour falsifier l’image du citoyen et la présenter comme si elle étaient une vraie photographie. Si vous avez ressenti une gêne inexpliquée en regardant la vidéo – c’est peut-être parce que la vidéo n’a que partiellement fonctionné sur vous : votre œil a pu percevoir que quelque chose n’allait pas, et en effet il peut s’agir d’un faux sophistiqué.
Le Hamas publie une nouvelle documentation sur Avra Mengistu
Les contrefaçons d’images fixes, réalisées à l’aide de logiciels tels que Photoshop, sont déjà monnaie courante. Cependant, la falsification vidéo est une tâche beaucoup plus complexe qui n’a été réalisée que ces dernières années, permettant parfois une falsification à un niveau si élevé que, dans certains cas, il est possible de tromper l’œil humain.
Les dons sont la bienvenue en cette situation particulièrement difficile :
Le deepfake, ou hypertrucage, est une technique de synthèse multimédia reposant sur l’intelligence artificielle. Elle peut servir à superposer des fichiers vidéo ou audio existants sur d’autres fichiers vidéo ou audio. Cette technique peut être utilisée pour créer des infox et des canulars malveillants
Plus précisément, parler de « deep fake », le surnom de ces vidéos, est apparu dans le discours public dès 2018, et a depuis suscité des inquiétudes quant à son utilisation non seulement pour créer des contenus inappropriés comme la pornographie, mais aussi en raison de son utilisation potentielle – de la falsification de preuves aux campagnes politiques qui seront utilisées dans le but de biaiser les élections. L’année dernière, les premières publicités « mettant en vedette » des célébrités telles que Bruce Willis, Tom Cruise, Elon Musk et Leonardo DiCaprio sont apparues, dans lesquelles « Deep Fake » a été utilisé.
Les contrefaçons générées par ordinateur sont courantes de nos jours, photo: Reuters
Un expert en attaques basées sur l’IA générative (Generative AI), un cadre israélien de haute technologie qui a précédemment servi dans le renseignement, a examiné la vidéo, mais n’a pas pu confirmer ou réfuter sa crédibilité – cependant, il a affirmé qu’à son avis, il s’agissait bien d’un fake : « Les mouvements des lèvres sont très répétitifs et ne révèlent pas les dents. Il y a une sorte de contraction asymétrique « comme un sourire » à un moment illogique, la tête bouge très peu et la vidéo est très courte.
« On dirait qu’ils ont filmé une personne qui lui ressemble en train de faire les mouvements du corps et de faire la présentation de la tête, et de mettre dessus quelque chose qui est créé avec un outil de moindre qualité. Quand la tête ne tourne pas du tout , c’est beaucoup plus facile à faire. C’est à peine 10 secondes, 300-250 images, ce qu’un graphiste numérique peut faire en assemblant les images en quelques heures. »
L’expert a conclu: « Vous pouvez également remarquer que son visage est très lisse, donc si je devais parier, je dirais qu’il y a de très fortes chances que ce soit un faux. » L’expert a nuancé les propos et dit que pour confirmer qu’il s’agit bien d’un faux, il y a des experts en mouvements faciaux qui vont parcourir la vidéo image par image, « et ce sont eux qui pourront repérer les erreurs subtiles dans la photographie ».
« Le test n’est pas simple » (illustration), photo : GettyImages
« La voix sonne synthétique »
Le Dr Liron Itzhaki-Allerhand, qui dirige l’intelligence artificielle chez Hour One, qui opère dans le domaine de l’IA générative, est d’accord avec les propos de l’expert et ajoute qu’il existe plusieurs autres signes qui renforcent la conviction qu’il s’agit d’un faux. « La voix sonne synthétique, les lèvres à peine ouvertes, on ne voit ni les dents ni la langue. Les lèvres n’avancent pas non plus pendant la parole. »
« Le cœur dit que c’est lui, mais la tête n’est toujours pas sûre », a déclaré son frère Yalo Mengistu, auquel l’expert a ajouté : « Le fait que son frère, qui le connaît de près, ne soit pas si convaincu – est typique des cas de faux. »
Il convient de noter que l’establishment de la sécurité pense qu’il s’agit d’Abra Mengistu.
Nous utilisons des cookies sur notre site Web pour vous offrir l'expérience la plus pertinente en mémorisant vos préférences et vos visites répétées. En cliquant sur « Accepter », vous consentez à l'utilisation de TOUS les cookies.
Ce site Web utilise des cookies pour améliorer votre expérience lorsque vous naviguez sur le site Web. Parmi ces cookies, les cookies classés comme nécessaires sont stockés sur votre navigateur car ils sont essentiels pour le fonctionnement des fonctionnalités de base du site Web. Nous utilisons également des cookies tiers qui nous aident à analyser et à comprendre comment vous utilisez ce site Web. Ces cookies ne seront stockés dans votre navigateur qu'avec votre consentement. Vous avez également la possibilité de désactiver ces cookies. Mais la désactivation de certains de ces cookies peut avoir un effet sur votre expérience de navigation.
Les cookies nécessaires sont absolument essentiels au bon fonctionnement du site Web. Cette catégorie comprend uniquement les cookies qui garantissent les fonctionnalités de base et les fonctions de sécurité du site Web. Ces cookies ne stockent aucune information personnelle.