Au sens du règlement de l'UE du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (IA), un « hypertrucage » (deepfake) est « une image ou un contenu audio ou vidéo généré ou manipulé par l’IA, présentant une ressemblance avec des personnes, des objets, des lieux, des entités ou événements existants et pouvant être perçu à tort par une personne comme authentiques ou véridiques » (article 3). Le règlement européen du 13 juin 2024 précise que les hypertrucages ne se limitent pas à la sphère informationnelle et qu’ils peuvent faire partie « d’une œuvre ou d’un programme manifestement artistique, créatif, satirique, fictif ou analogue » (article 50-4).
Réservée auparavant aux professionnels, la réalisation d’hypertrucages devient aujourd’hui, grâce à l’intelligence artificielle (IA), à portée de main du grand public. L’IA permet ainsi de manipuler des images ou des contenus audio ou vidéo en intervertissant et en remplaçant des visages (face swapping) ou en reconstituant la voix d’une personne (synchronisation labiale ou lipsyncing). Elle permet de créer de toutes pièces des images ou des vidéos réalistes et crédibles. Outre qu’ils sont plus faciles à réaliser, les hypertrucages générés par l’IA présentent une apparence d’authenticité de plus en plus grande. Alors que les contenus manipulés étaient plutôt faciles à détecter auparavant, y compris parfois à l’œil nu, une telle discrimination devient désormais de plus en plus difficile à effectuer.
Le Règlement européen du 13 juin 2024 envisage les hypertrucages principalement sous l’angle des manipulations auxquelles ils peuvent donner lieu, à travers des obligations de transparence et de marquage.
Il fixe tout d’abord un cadre contraignant relatif au marquage des contenus générés par l’intelligence artificielle. En son article 50-2, il dispose que les fournisseurs de systèmes d’IA « veillent à ce que les sorties des systèmes d’IA soient marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA ». Les fournisseurs seront donc tenus de concevoir des systèmes de telle façon que les images, textes, contenus audio et vidéo à caractère synthétique fassent l'objet d'un marquage dans un format lisible par machine et que leur nature de contenus générés ou manipulés artificiellement soit détectable. Il s’agit donc d’une préoccupation qui doit être pleinement intégrée au processus de conception des systèmes d’IA.
Par ailleurs, lorsqu’ils présentent une ressemblance sensible avec des personnes, des objets, des lieux, des entités ou des événements existants et peuvent être perçues à tort comme authentiques, les images et les contenus audio ou vidéo devront être clairement identifiées comme telles par les déployeurs de systèmes d’IA en vertu de l’article 50-4 du même Règlement. Des règles particulières sont applicables d’une part dans les cas où le contenu fait partie « d’une œuvre ou d’un programme manifestement artistique, créatif, satirique, fictif ou analogue », et, d’autre part, aux « déployeurs d’un système d’IA qui génère ou manipule des textes publiés dans le but d’informer le public sur des questions d’intérêt public ».
Présidentes de la mission
Célia Zolynski et Joëlle Farchy
Objectifs
- faire le point sur les obligations spécifiques, notamment de marquage, posées par le Règlement européen sur l’IA (article 50) ;
- cartographier la fabrique des deepfakes : qui les produit et pourquoi ;
- évaluer les enjeux tant pour les artistes et les autres parties prenantes à la création que pour les plateformes confrontées à ce phénomène et pour le public ;
- proposer les outils pour y répondre : obligations de consentement et de rémunération, droit d’auteur et droits voisins, droit de la personnalité, concurrence déloyale…
📅 Les conclusions sont attendues en juin 2026.
Lettre de mission relative aux enjeux pour les secteurs culturels et créatifs des hypertrucages géné
pdf - 4 Mo - Ce document n'est pas conforme aux règles d'accessibilités (RGAA)
Partager la page