Google frappe fort dans la lutte contre la désinformation numérique en annonçant, le 21 novembre 2025, une fonctionnalité révolutionnaire au sein de son assistant IA Gemini. Désormais, les utilisateurs peuvent uploader une image et interroger simplement : « Is this AI-generated? » (ou son équivalent en français). Gemini analyse alors le contenu pour déterminer s’il a été généré ou modifié par un outil d’intelligence artificielle, en s’appuyant sur des technologies de pointe comme SynthID et le standard C2PA. Cette innovation, accessible via l’application Gemini, marque un tournant vers une transparence accrue, à une époque où les deepfakes menacent la confiance publique.
Au cœur du système trône SynthID, un watermark invisible développé par Google DeepMind. Cette marque numérique, indétectable à l’œil nu, est intégrée dès la création dans les images produites par les modèles Google, tels que Imagen 3 ou le tout nouveau Nano Banana Pro – un générateur d’images lancé aujourd’hui, capable de produire des visuels ultra-réalistes en quelques secondes. SynthID permet à Gemini d’identifier avec précision les contenus issus de ces outils, en analysant des motifs cachés dans les pixels. L’extension à la vidéo et à l’audio est prévue « bientôt », promettant une couverture multimédia exhaustive.
Mais Google ne s’arrête pas à ses propres productions. Pour une traçabilité universelle, l’entreprise adopte le protocole C2PA (Content Credentials and Provenance Alliance), un standard ouvert soutenu par des géants comme Adobe, Microsoft et le Content Authenticity Initiative. Grâce à C2PA, Gemini pourra bientôt vérifier les images générées par des concurrents : OpenAI avec Sora, Adobe Firefly, ou même les outils IA de TikTok, qui vient d’annoncer son intégration de C2PA dans ses watermarks invisibles. Nano Banana Pro, par exemple, embarque déjà ces métadonnées C2PA de manière systématique, facilitant la chaîne de traçabilité depuis la création jusqu’au partage.
Bientôt, cette vérification s’étendra à Google Search : un clic sur une image en ligne suffira pour en révéler l’origine IA. Pourtant, des limites persistent. La fonctionnalité repose encore sur l’initiative de l’utilisateur final, et son efficacité dépendra de l’adoption massive par les plateformes sociales – Facebook, Instagram ou X – qui pourraient alors détecter automatiquement les contenus synthétiques. Sans cette automatisation, les deepfakes risquent de proliférer, alimentant fake news et manipulations électorales.
Cette avancée positionne Google en leader éthique de l’IA, répondant aux appels urgents de régulateurs comme l’Union européenne avec son AI Act. En favorisant un écosystème ouvert via C2PA, l’entreprise invite l’industrie à une collaboration inédite. Pour les créateurs, journalistes et citoyens, c’est un bouclier précieux contre l’opacité numérique. Reste à voir si cette transparence technique suffira face à des acteurs malveillants qui pourraient contourner ces garde-fous. Une étape encourageante, mais la vigilance collective reste impérative pour un web fiable.
Une réponse sur « Google Gemini intègre SynthID et C2PA : Une arme contre les deepfakes pour vérifier les images IA »
[…] TikTok renforce ses mécanismes de détection. Des filigranes invisibles, inspirés de la technologie SynthID de Google, sont intégrés nativement dans ses outils de création. Parallèlement, l’adoption des […]