L’ia en médecinePremium

Deepfakes: quand l'IA enfile votre blouse blanche...

Début février, le Pr Serge Hercberg, père du Nutri-Score et figure majeure en santé publique en France, alerte sur le réseau LinkedIn : des vidéos générées par IA usurpent son identité pour diffuser des conseils nutritionnels pseudo-scientifiques, voire carrément farfelus, visant notamment les plus de 60 ans...

Deepfake Pr HercbergEt si c'était vous, la prochaine fois ? Après les Drs Michel Cymes, Marine Lorphelin ou encore Jean-Michel Cohen, ce nouvel épisode, qui frappe cette fois le Pr Serge Hercberg, montre que le deepfake ne cible plus seulement des médecins ultra médiatiques dont l'image circule à gogo et est facile à dupliquer, mais également des scientifiques pur jus à l'ombre de leur bureau. Objectif ? Toujours le même : conférer une crédibilité pseudo-scientifique à de faux (et dangereux) messages en santé, notamment pour vendre des traitements.

Par ailleurs, il aura fallu plusieurs jours et de nombreux efforts au “père” du Nutri-Score pour arriver à s'extirper de cette situation affolante : « Ouf ! Les plaintes et signalements auprès de YouTube et la mobilisation de très nombreux acteurs ont permis d'aboutir à la suppression de la chaîne Santé Sage », soufflait, enfin, le professeur émérite de la Sorbonne, il y a quelques jours.

Ce compte frauduleux, créé le 31 décembre dernier, ciblait tout particulièrement les 60+ ans, avec des conseils nutritionnels autour, notamment, de la santé cérébrale et osseuse. Il a finalement été clôturé par YouTube (sans savoir qui était en coulisses, ni dans quel but précis). C'est via un collègue tombé par hasard sur une vidéo que Serge Hercberg avait découvert le pot aux roses...

Discours inventé dans un décor réaliste

L'épidémiologiste et nutritionniste a fait l'objet de pas moins de 32 deepfakes. Avec un mécanisme bien rodé : blouse blanche (allant jusqu'à afficher son nom brodé), faux cabinet médical et propos fabriqués de toutes pièces. Le Pr Hercberg décrit des vidéos le mettant en scène assis à un bureau inexistant, tenant des discours ésotériques sur l’effet d’aliments (style: "manger une pomme avec la peau nettoierait le cerveau"), nutriments ou comportements sur la santé osseuse et cérébrale des sujets âgés... Des propos qu’il affirme n’avoir « jamais tenus ».

« Cette épisode nous montre à quel point il faut être vigilant sur ce nouveau mode de désinformation en santé s'appuyant sur l'intelligence artificielle, réfléchir comment s'en prémunir, protéger les scientifiques et acteurs de santé et ne rien laisser passer », conclut-il avec bonhommie, après plusieurs jours de réel effroi. Et de plaider pour « une réponse juridique à de tels comportements malhonnêtes ». Les messages n'étaient certes pas réellement dangereux dans son cas, mais suffisamment troublants pour brouiller les recommandations nutritionnelles officielles.

Si les signaux d’alerte restent utiles - désynchronisation lèvres/voix, clignements d'yeux pas naturels -, les progrès rapides de la technologie compliquent l’identification du fake...

La notoriété médicale comme arme commerciale

Le phénomène n’est pas neuf. Cela fait plusieurs années que des deepfakes exploitent sur les réseaux sociaux la confiance accordée à des médecins connus et respectés pour promouvoir des cures « miracle », qui vont parfois jusqu'à inciter à abandonner de vrais traitements. De précédentes victimes ont publiquement dénoncé ces montages, à l’instar du Dr Michel Cymes (qui a assigné Meta en justice), de la Dre Marine Lorphelin (sur TikTok et Instagram en juillet 2024) ou du médecin urgentiste François-Xavier Moronval (septembre 2025, via sa chaîne de pédagogie médicale ‘Doc FX’). 

Si les signaux d’alerte maintes fois décrits demeurent utiles - désynchronisation lèvres/voix, clignements anormaux, variations d’éclairage -, les progrès rapides de la technologie compliquent de plus en plus l’identification du fake...

De son côté, YouTube rappelle que l’usurpation d’identité est interdite par son règlement et met en avant des outils de protection comme « Likeness ID », destiné à repérer des vidéos où un visage est généré/modifié par IA (avec possibilité de demander un retrait, mais YT a quand même mis plusieurs jours à réagir au cas Hercberg...). Les experts en cybercriminalité décrivent toutefois un rapport de force inégal et un 'jeu du chat et de la souris' entre fraudeurs et victimes, les premiers revenant très vite à la charge notamment grâce aux progrès du deep learning pour construire les algorithmes. L'outil idéal serait plutôt un système de certification du contenu, une signature numérique attestant de la non-altération d'une vidéo. 

Wat heb je nodig

Accès GRATUIT à l'article
ou
Faites un essai gratuit!Devenez un membre premium gratuit pendant un mois
et découvrez tous les avantages uniques que nous avons à vous offrir.
  • checkaccès numérique aux magazines imprimés
  • checkaccès numérique à le Journal de Médecin, Le Phamacien et AK Hospitals
  • checkoffre d'actualités variée avec actualités, opinions, analyses, actualités médicales et pratiques
  • checknewsletter quotidienne avec des actualités du secteur médical
Vous êtes déjà abonné? 
Écrit par Cécile Vrayenne12 février 2026

En savoir plus sur

Magazine imprimé

Édition Récente
12 février 2026

Lire la suite

Découvrez la dernière édition de notre magazine, qui regorge d'articles inspirants, d'analyses approfondies et de visuels époustouflants. Laissez-vous entraîner dans un voyage à travers les sujets les plus brûlants et les histoires que vous ne voudrez pas manquer.

Dans ce magazine