Huguette Bello ou encore Éricka Bareigts vous propose d'augmenter vos revenus mensuels… fuyez, c'est un "deepfake", un hypertrucage. Alors que les arnaques en ligne se multiplient, les progrès de l'intelligence artificielle représentent une nouvelle menace pour les non initiés mais aussi pour celles et ceux à priori à l'aise avec l'intelligence artificielle. À La Réunion, 15% de la population n'est pas familiarisé à cette technologie (Photo : www.imazpress.com)
Ces vidéos aussi réelles puissent-elles paraître, sont ce que l'on appelle des "deepfakes". Des images qui avec l’aide de l’intelligence artificielle reproduisent le visage et ou la voix de n’importe qui pour lui faire dire, ou faire, n'importe quoi.
- Les deepfakes servent aussi à escroquer -
L'image de la présidente de Région vantant "un moyen d'avoir des revenus stables pendant que vous vous attelez à vos activités favorites, ce n'est pas une fantaisie", promet-elle, arguant d'un avantage financier de près de 20.000 euros par mois.
Huguette Bello avait d'ailleurs réagit. "S’il vous plait, ne partagez pas ce contenu pour éviter qu’il ne se propage davantage et signalez-le sur la plateforme concernée pour qu’il soit rapidement supprimé. Soyons toujours vigilantes et vigilants face à ce type de désinformations qui, loin d’être anodines, sont de réelles menaces pour notre démocratie."
La mairie de Saint-Denis, elle aussi est tout à fait crédible. Le timbre de sa voix, le cadre au cœur de la mairie du chef-lieu, on pourrait y croire.
"La ville rappelle que la maire n'a jamais tenu de tels propos et ne cautionne en aucun cas ce type de pratiques. Nous appelons les habitant.e.s à faire preuve de vigilance face à ces arnaques en ligne, à ne pas cliquer sur les liens proposés dans ces publications, et si possible, à signaler les comptes qui les diffusent sur les réseaux sociaux", indique la commune dans un communiqué.
En revanche sur le fond, dans ces vidéos, ce qui peut mettre la puce à l'oreille, ce sont les propositions, peu réalistes.
- De fausses images plus vraies que nature parfois dangereuses -
Ces vidéos peuvent avoir des conséquences dramatiques. On pense notamment aux personnes n'ayant pas suffisamment de notions en termes de numérique. Sur Internet, le faux côtoie le vrai et l’on ne dispose pas encore de tous les outils pour les identifier.
À La Réunion, les premières victimes pourraient être ceux loin du numérique. 15% de la population est d'ailleurs concernée par cette fracture avec l'ère d'internet.
"Par rapport au public qu'on accompagne, c'est inquiétant", témoigne l'association Solidarnum, qui accompagne chaque année environ 5.000 personnes vers l'inclusion numérique.
"Il y avait d'autres types d'arnaque avant, que ce soit les arnaques aux sentiments, tout ce qui touche à l'argent… C'est une chose en plus qui s'ajoute, et on doit s'adapter à ces nouveaux contenus", explique-t-elle.
"Nous sommes cependant habitués à devoir s'adapter. Internet évolue, vite, et nous devons nous adapter constamment à son évolution. Nos médiateurs qui accompagnent le public sont donc sensibilisés sur ces changements, et nous adaptons en fonction du public. Dans le fonds, ça reste les mêmes techniques", assure l'association.
- Les internautes pas ou peu sensibilisés aux vidéos et images frauduleuses -
L'association Solidarnum estime par ailleurs que "si on parle beaucoup d'intelligence artificielle", les "mesures prises pour combattre ses dérives ne sont pas forcément bien connues du public". "Il faudrait plus de communication autour de ce danger".
À Sainte-Marie, au collège de Beauséjour, les élèves sont sensibilisés contre les fakes news et les "deepfakes". Grâce à un partenariat avec Orange et l'académie de La Réunion, le collège est établissement pilote pour proposer aux élèves des ateliers numériques "les magiciens du numérique" et "décrypter l'information à l'heure des réseaux sociaux".
Le meilleur moyen de lutter, c’est d'être prudent et de faire preuve de bon sens quand une vidéo ou une photo est douteuse.
Pour cela, il existe plusieurs astuces : "vérifier le positionnement inhabituel du visage, des mains ou des pieds, des expressions maladroites, un mouvement du visage ou du corps non naturels, des couleurs incohérentes sur l’ensemble de la vidéo, un son mal adapté ou incohérent, un clignement des yeux non naturel, des adresses électroniques suspectes ou encore des messages hors sujet ou non pertinents", conseille Maître Sophie Renaudin, avocate au barreau de Saint-Denis.
Des sociétés du secteur ont également développé certains outils pour détecter les deepfake :
• Microsoft a créé un outil de détection fonctionnant avec une intelligence artificielle pour analyser les vidéos et les photos. Il indique avec précision le taux de probabilité de manipulation.
• Opération Minerva : cet outil utilise le catalogage des sites deepfakes connus et des empreintes numériques. Les vidéos sont comparées à ce catalogue pour détecter les éventuelles modifications.
• Outil de détection Sensity : la plateforme propose un logiciel qui détecte les médias falsifiés. Son fonctionnement est le même que celui des antivirus. En cas de contenus falsifiés, elle envoie une alerte par courrier électronique.
• Mozilla lance l'extension Deep Fake Detector qui permet de détecter les contenus générés par IA.
Lire aussi - Lutte pour les savoir fondamentaux : la Région lance le dispositif "LespassClés"
- L'hypertrucage, une pratique en passe d'être plus encadrée -
Les lois qui protègent notre vie privée se heurtent bien souvent au fait qu’il est difficile, voire impossible de remonter jusqu’aux auteurs des deepfakes.
"La pratique de l’hypertrucage n’est pas forcément interdite par les textes. En effet, elle peut être un moyen au service de la liberté d’expression ou de la création satirique, parodique ou artistique. Néanmoins, l’arsenal juridique est en train de se construire petit à petit pour pouvoir encadrer ces pratiques et sanctionner les dérives", explique Maître Sophie Renaudin.
En Europe la nouvelle réglementation qui vient d’entrer en vigueur vise à contraindre ces dernières à faire le ménage ou à identifier les contenus générés avec de l’intelligence artificielle.
"Concernant le chapitre spécifique au deepfake, ce dernier entrera en application le 2 août 2025 (article 113 du Règlement).
Ce dernier impose une obligation de transparence pour les fournisseurs et déployeurs d’IA", ajoute l'avocate.
"Concernant les fournisseurs d’IA, ils devront marquer techniquement que le contenu a été produit par l’IA dans un format lisible par machine et l’identifier comme ayant été générées ou manipulées par une IA (article 50.2)", précise-t-elle.
Enfin, "concernant le déployeur (utilisateur), l’article 50.4 dispose que "les déployeurs d’un système d’IA qui génère ou manipule des images ou des contenus audio ou vidéo constituant un hypertrucage indiquent que les contenus ont été générés ou manipulés par une IA ». Il y a donc une véritable obligation de transparence".
- Que risquent les personnes qui font des deepfake ? -
Plusieurs leviers légaux existent déjà et peuvent s’appliquer au deepfake.
La première est "l’infraction de montage de l’article 226-8 du Code pénal", explique Maître Sophie Renaudin. "Est puni d'un an d'emprisonnement et de 15.000 euros d'amende le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention."
"Si l’infraction a été réalisée en utilisant un service de communication au public en ligne les peines sont portées à deux ans d’emprisonnement et 45.000 euros d’amende", ajoute l'avocate.
Pour caractériser ce délit, "il faut que le montage généré par IA l’ai été sans le consentement de la personne. Par ailleurs, il ne doit pas apparaitre à l’évidence qu’il s’agit d’un contenu généré par l’IA ou qu’il n’en soit pas fait expressément mention. Ainsi, un contenu généré sans le consentement de la personne mais, dont il est fait mention qu’il a été créé via l’IA ou que cela paraisse évident, ne tombe pas sous le coup de cette infraction".
Il existe également "l'’infraction de montage à caractère sexuel de l’article 226-8-1 du Code pénal. Les peines sont portées à à trois ans d'emprisonnement et à 75.000 euros d'amende lorsque la publication du montage ou du contenu généré par un traitement algorithmique a été réalisée en utilisant un service de communication au public en ligne".
Les "deepfakes" peuvent également porter atteinte au droit à l’image. L’article 9 du Code civil dispose que chacun a droit à sa vie privée. Sur la base de cet article, "il est possible d’engager la responsabilité civile d’une personne qui utiliserait l’image d’une personne sans son consentement", précise Maître Sophie Renaudin.
L’hypertrucage utilise la voix, l’image des personnes. Selon la règlementation en vigueur, il s’agit de données à caractère personnel. L’utilisation de telles données pourraient être sanctionnées sur la base du RGPD (Règlement général sur la protection des données). La "CNIL (Commission nationale de l'informatique et des libertés) s’est d’ailleurs positionnée sur le sujet en rappelant que les systèmes d’IA comprenant des données personnelles devaient disposer d’une base légale (consentement de la personne par exemple)", note l'avocate.
Si le deepfake est utilisé comme moyen pour recevoir des fonds, valeurs ou autre, "la personne pourrait se faire sanctionner au titre des délits d’escroquerie, abus de confiance etc", ajoute la femme de loi.
En cas de doute, nous vous recommandons d'alerter les autorités compétentes, notamment à travers la plateforme de signalement Pharos (www.internet signalement.gouv.fr) ou via le site www.cyberma lveillance.gouv.fr en cas de cyberarnaque.
ma.m et as/www.imazpress.com/redac@ipreunion.com
Entre hypertrucages et marionnettes, je me demande si ce ne sont pas les marionnettes que je préfère. Leur registre est si comique…
Si nos politiques passaient moins de temps devant les caméras de télévision - l'une de ces deux là c'est tous les soirs au JT de 20H - les hackers seraient peut-être moins tentés de détourner leur image. Il faudrait aussi que la justice soit particulièrement sévère avec les auteurs de telles fakenews.
La république réunionnaise c'est moi
la présidente de région va devoir se fournir une carapace après l'élection de jean françois hoarau
si vous faites pas de politique vous avez pas d'ennui
pourquoi bello et bareigts et pas les autres
il y aurait pas des politiques ,pour être plus précis des petites mains de politique il y a pas si longtemps cela se faisait à l'époque du toréador de la région
pourquoi ces deux dames faut il voir une définition politique ?
L'IA peut faire le bonheur, avancer la science, rendre de grands services.
Mais audois tout le contraire...
Et des cerveaux mous et naïfs, (je dois l'être moi aussi, je vous rassure), peuvent e faire piéger par manque de perspicacité...
On l'a vu récemment avec cette dame qui s'est fait plumer de 800.000 euros...
Moi, c'est Marylin Monroe, qui, en ce moment, me sollicite...
Elle est trop belle, je lui ai déjà envoyé de quoi refaire son maquillage
une photo ou une video ne peu donc plus etre une preuve
Bon ben au moins ça fait rire et ça donne une image moins guindée de ces deux dames. Après c'est vrai que c'est dangereux... de faire croire qu'elles sont rigolotes