The Hong Kong Telegraph - Attention aux "deepfake" de médecins connus, au service d'arnaques commerciales

Hong Kong -

DANS LES NOUVELLES

Attention aux "deepfake" de médecins connus, au service d'arnaques commerciales
Attention aux "deepfake" de médecins connus, au service d'arnaques commerciales / Photo: HANNAH MCKAY - POOL/AFP/Archives

Attention aux "deepfake" de médecins connus, au service d'arnaques commerciales

Des médecins connus et respectés faisant la promotion de cures "miracle" contre le diabète ou l'hypertension ? Des publicités mensongères utilisant l'image de figures d'autorité dans le domaine de la santé, manipulée par l'intelligence artificielle, inondent les réseaux sociaux, un déferlement très difficile à contenir selon des experts.

Taille du texte:

Sur Facebook et Instagram, ils promettent de guérir du diabète sans metformine, un médicament prescrit en première intention, incitant même les patients à abandonner leur traitement qui "va les tuer", au profit d'obscurs sirops soi-disant "naturels".

Ces arnaques frisent la mise en danger de la vie d'autrui et sont d'autant plus pernicieuses qu'elles reposent sur l'image de médecins-stars, comme le Dr Michel Cymes en France ou le Dr Michael Mosley au Royaume-Uni, victimes de ces "deepfake", contenus en ligne générés ou modifiés grâce à l'intelligence artificielle.

"Les gens ont confiance en ces vidéos car ces médecins ont passé du temps à se construire une image de crédibilité, donc on les croit, même quand ils formulent des allégations totalement farfelues", déplore auprès de l'AFP Dr John Cormack, un généraliste britannique qui collabore avec le British Medical Journal (BMJ) sur ce sujet.

Ces "deepfake" ont "vraiment décollé cette année", observe Henry Adjer, spécialiste de l'intelligence artificielle, notant que les publicités visent surtout un public "un peu âgé", en détournant l'image de "médecins de télévision".

Contacté par l'AFP en mai, Michel Cymes avait dit avoir déjà assigné en justice Meta pour dénoncer ces "arnaques".

Le Britannique Hilary Jones, qui apparaît sur des vidéos générées par IA en train de vendre un faux remède contre l'hypertension, mais aussi des gommes au chanvre, a employé un expert pour traquer ces publicités.

"Mais même quand elles sont enlevées, elles réapparaissent le lendemain sous un autre nom", se désespère-t-il dans le BMJ.

- "Cercles conspirationnistes" -

Ces arnaques "ont pris de l'ampleur en raison des progrès du +deep learning+" (technologie destinée à permettre à une machine d'apprendre par elle-même), explique Frédéric Jurie, enseignant-chercheur en informatique de l'Université de Caen.

La qualité des "deepfake" en images, audio et vidéo a fait des progrès énormes, note le spécialiste: "aujourd'hui on accède à des dizaines de milliards d'images et on est capable de construire des algorithmes qui peuvent modéliser tout ce qui peut apparaître dans les images et régénérer les images. C'est ce qu'on appelle l'IA générative".

Plus récemment, ce sont des figures controversées, comme le Pr Didier Raoult en France, qui ont été victimes de "deepfake".

Barbara O'Neill, une naturopathe australienne considérée comme "présentant un danger pour la santé" par les autorités de son pays après avoir notamment promu le bicarbonate de soude contre le cancer, est ainsi devenue une star de TikTok sur la base de "deepfake" lui faisant vendre des pilules pour "nettoyer les vaisseaux sanguins" notamment.

Joint par l'AFP, son époux, qui codirige la O'Neill Company, déplore que "beaucoup de monde utilise la réputation de Barbara pour vendre des produits qu'elle ne recommande pas".

Ce phénomène ne surprend pas Henry Adjer pour qui "ces personnes sont des modèles pour certains cercles conspirationnistes".

Parmi les fausses vidéos utilisant Barbara O'Neill, certaines d'ailleurs versent dans les théories du complot, assurant que la naturopathe est décédée - ce qui est faux - après avoir mis au jour une huile miraculeuse, vendue sur Amazon.

Face à ces "deepfake", les experts ne sont pas très optimistes quant au succès des outils de détection: "C'est le jeu du chat et de la souris", explique Frédéric Jurie. "Par principe, la détection ne peut pas trop s'améliorer, parce que si quelqu'un trouvait quelque chose pour améliorer la détection, à ce moment-là, celui qui veut fabriquer des fausses images utiliserait ce moyen pour le contourner."

Le chercheur met plutôt en avant "des techniques qui permettent de garantir qu'un contenu n'a pas été altéré, comme pour les messageries, grâce à des logiciels qui produisent des signatures numériques, comme un certificat".

何-H.Hé--THT-士蔑報