Points clés à retenir
- La Première ministre italienne Giorgia Meloni témoignera dans une affaire impliquant des activités de deepfake en Italie.
- Une audience devant la juge Monia Adami est prévue pour juillet.
- Meloni n’est pas la première victime de deepfake célèbre.
La Première ministre italienne Giorgia Meloni a été convoquée pour témoigner devant le tribunal de Sassari en tant que partie lésée dans une affaire impliquant des vidéos pornographiques fabriquées superposant le visage du dirigeant sur des actrices.
Des procédures en diffamation sont actuellement en cours en Sardaigne contre deux individus, un duo père-fils, accusés d'avoir diffusé des vidéos manipulées sur un site Internet basé aux États-Unis en 2020.
Sommaire
L'affaire
Le visage est peut-être celui de Giorgia Meloni, mais le corps n'est pas le sien. Les vidéos pornographiques deepfake mettant en scène le Premier ministre ont recueilli des millions de vues, ce qui a conduit le dirigeant italien à se présenter devant un tribunal pour demander réparation.
Prétendument réalisées par un duo père-fils de Sassari, âgés respectivement de 73 et 40 ans, les vidéos ont été mises en ligne en 2020. Les prévenus sont accusés de diffamation.
Meloni demande la restitution de dommages totalisant 108 000 $. La chef du gouvernement a déclaré qu'elle reverserait cette somme au fonds national du ministère de l'Intérieur pour venir en aide aux femmes touchées par la violence. « Ce plaidoyer sert de message à toutes les femmes qui subissent de tels abus, les exhortant à ne pas hésiter à le signaler. » élucidé L'avocate de Meloni, Maria Giulia Marongiu. « Cette somme est emblématique et vise à renforcer la protection des victimes, des femmes qui, souvent sans le savoir, sont la proie de tels délits.
Par la suite, une audience devant la juge Monia Adami a été fixée au 2 juillet 2024. Selon ses avocats, le témoignage du Premier ministre est nécessaire. Et le juge l'a ordonné, en convenant de la date avec la partie lésée.
Meloni n'est pas la première victime
Michelle Obama, Scarlett Johansson et Emma Watson ont été victimes de cette tendance inquiétante. Le processus de création de deepfake porn est incroyablement simple. Les utilisateurs peuvent télécharger une photo du visage et l’apposer de manière transparente sur le corps d’un acteur pornographique.
En 2019, DeepTrace, une société néerlandaise dédiée à la surveillance des médias synthétiques en ligne, révélé que 96 % des contenus deepfakes circulant sur Internet sont de nature pornographique. Février 2023 a marqué un mois de pointe pour la production et la diffusion de matériel pornographique deepfake.
Ce phénomène inquiétant n’a cessé de prendre de l’ampleur. Cela ne piège pas seulement les premiers ministres et les actrices. Il s’attaque aux femmes et aux filles ordinaires qui deviennent involontairement victimes de vengeance pornographique ou de sextorsion. Début septembre 2023, 20 filles d'Almendralejo, une municipalité espagnole de Badajoz, ont été horrifiées à l'idée de découvrir que leurs pairs avaient utilisé un logiciel alimenté par l'intelligence artificielle (IA) pour fabriquer des images d'eux nus et profonds.
Des incidents similaires se sont produits à travers l’Europe avec l’émergence de l’application BikiniOff. Cette application est capable de déshabiller virtuellement des individus à partir d’une photographie. Cela a suscité une controverse lorsque deux individus l'ont exploité pour créer de fausses images nues de leurs camarades de classe sous couvert d'une « blague », mettant ainsi en lumière une autre facette de l'épidémie de deepfake.
Les plateformes sociales tentent de lutter contre les deepfakes
En janvier 2020, Meta annoncé sa position contre les contenus manipulés qui prolifèrent sur ses plateformes. Il s’agissait d’une réponse directe à la prévalence croissante des deepfakes en ligne. Soulignant son engagement à protéger les utilisateurs, Meta s'est engagé à supprimer rapidement tout contenu nuisible modifié par l'IA.
Pendant ce temps, YouTube a déployé un roman outil pour identifier le contenu généré par l’IA. Cela permet aux créateurs de signaler volontairement les vidéos contenant des éléments synthétisés grâce à cette technologie. Cette fonctionnalité innovante oblige les créateurs à marquer de manière transparente le contenu « modifié » lors du téléchargement et de la publication. Même si cela ressemble beaucoup à la réalité.
« La prolifération des deepfakes pose non seulement de graves préoccupations en matière de confidentialité et de sécurité en ligne, mais suscite également des questions éthiques concernant l'utilisation responsable de cette technologie », a déclaré un expert en IA. CCNdemandant l'anonymat.
« À mesure que l’IA continue de progresser, il devient impératif de délibérer sur ses implications éthiques et de garantir son application judicieuse pour prévenir toute exploitation et tout préjudice. »
« Essentiellement, l’affaire Meloni souligne la nécessité urgente d’affronter de front la menace des deepfakes. Et nous devons mettre en œuvre des mesures robustes pour protéger la vie privée et la sécurité des individus dans le domaine numérique », a ajouté l'expert.