Le 4 mai 2026, la présidente de l’Assemblée nationale, Yaël Braun-Pivet, a été confrontée à une situation troublante lorsqu’elle a découvert sa propre image sur une prétendue couverture du magazine Closer, diffusée en direct sur la chaîne d’information CNews. Cette couverture, qui montrait également Najat Vallaud-Belkacem, était en réalité un montage fabriqué par intelligence artificielle, n’ayant jamais été publiée par le magazine.
EN BREF
- Yaël Braun-Pivet a dénoncé l’utilisation d’images truquées sur CNews.
- Elle a annoncé saisir l’Arcom pour vérifier l’honnêteté de l’information.
- Pascal Praud, l’animateur concerné, a reconnu son erreur sur les réseaux sociaux.
Lors de l’émission L’Heure des pros, animée par Pascal Praud, ce dernier a présenté ce qu’il croyait être une couverture de Closer, accompagnée du titre provocateur « Pour elles, ce n’est pas la crise ! ». La présidente s’est immédiatement insurgée, soulignant qu’elle ne se reconnaissait pas dans cette image, qui était alors diffusée en direct, à une heure de grande écoute.
Sur ses réseaux sociaux, Yaël Braun-Pivet a réagi avec fermeté. Elle a insisté sur l’importance de l’authentification des sources d’information, affirmant : « La frontière entre le vrai et le faux n’a jamais été aussi fragile. Informer, ce n’est pas que relayer, c’est vérifier. » Cette déclaration souligne son inquiétude face à la désinformation qui peut circuler rapidement, surtout à l’approche des élections de 2027.
En réponse à cette situation, Yaël Braun-Pivet a décidé de saisir immédiatement l’Arcom, l’autorité de régulation de la communication audiovisuelle, qui a pour mission de veiller à l’intégrité des contenus diffusés sur les chaînes de télévision. Selon elle, la diffusion de cette fausse Une représente une atteinte grave à l’honnêteté de l’information.
Pascal Praud, mis en cause par cette affaire, a tenté de calmer les esprits en rectifiant son erreur quelques minutes après la diffusion. Sur le réseau social X, il a publié un mea culpa, reconnaissant que Yaël Braun-Pivet avait raison de s’inquiéter : « J’ai rectifié en direct quelques minutes plus tard pour préciser que cette fausse Une de Closer était le fait de l’intelligence artificielle. » Reste à savoir si cette correction sera suffisante aux yeux de l’Arcom, compte tenu des responsabilités qui incombent aux chaînes d’information.
Il est à noter que cette fausse couverture s’inspirait d’une véritable séance photo réalisée pour le projet Woman de Yann Arthus-Bertrand. L’utilisation d’images existantes par l’intelligence artificielle a suscité une confusion qui pourrait avoir des conséquences néfastes pour l’image des personnalités concernées.
La situation met en lumière un enjeu crucial dans le paysage médiatique actuel : la nécessité d’une vérification rigoureuse des informations, surtout à une époque où les technologies numériques permettent de manipuler facilement des images et des vidéos. À l’approche des échéances électorales, cette affaire sert d’avertissement. La vigilance est de mise pour éviter que des contenus trompeurs ne circulent sous couvert de légitimité.
Il est donc plus que jamais fondamental pour les médias de s’assurer de la véracité de leurs sources et de ne pas céder à la tentation du sensationnalisme, au risque de perdre la confiance du public. Dans ce contexte, informer ne se limite pas à relayer des informations, mais implique un engagement à vérifier et à authentifier chaque contenu diffusé.