Qu'est-ce que SynthID, le filigrane de l'intelligence artificielle ?

Dernière mise à jour : 29/08/2025

  • SynthID intègre des filigranes imperceptibles dans le texte, les images, l'audio et la vidéo pour identifier le contenu généré par l'IA.
  • Dans le texte, il agit comme un processeur logit avec des clés et des n-grammes, avec une détection bayésienne configurable par des seuils.
  • L'implémentation est disponible dans Transformers 4.46.0+, avec Space officiel et référence sur GitHub.
  • Il comporte des limites (textes courts, traductions, réécritures) mais renforce la transparence et la traçabilité.
Filigrane SynthID

L'émergence de l'IA générative a stimulé la production d'images, de textes, d'audios et de vidéos à une échelle jamais vue auparavant, et avec elle, les doutes sur leur origine ont grandi ; dans ce contexte, Identifier si le contenu a été créé ou modifié par un modèle devient la clé de la confiance numérique. SynthID peut être une excellente solution.

Il s'agit de la proposition de Google DeepMind, une famille de techniques de filigrane « invisibles » qui sont intégrés directement dans le contenu généré par l'IA pour faciliter la vérification ultérieure sans dégrader la qualité perçue par les humains.

Qu'est-ce que SynthID et à quoi sert-il ?

Google décrit SynthID comme un outil pour filigrane spécifique pour le contenu généré par l'IA, conçu pour favoriser la transparence et la traçabilité. Il ne se limite pas à un seul format : il englobe les images, l'audio, le texte et la vidéo, permettant ainsi d'appliquer une approche technique unique à différents types de médias.

Dans l’écosystème Google, il est déjà utilisé de plusieurs manières :

  • Dans le texte, le drapeau s'applique aux réponses Gemini.
  • En audio, est utilisé avec le modèle Lyria et avec des fonctionnalités telles que la création de podcasts à partir de texte dans Notebook LM.
  • En vidéo, est intégré aux créations Veo, le modèle capable de générer des clips en 1080p.

Dans tous les cas, filigrane Il est imperceptible et a été conçu pour résister à des modifications fréquentes comme la compression, les changements de rythme dans les coupes audio ou vidéo, sans réduire la qualité.

Au-delà de la technologie, son objectif pratique est clair : aider à distinguer les matières synthétiques de celles produites sans IA, afin que les utilisateurs, les médias et les institutions puissent prendre des décisions éclairées sur la consommation et la distribution de contenu.

synthID

Comment fonctionne le filigrane de texte (SynthID Text)

En pratique, SynthID Text agit comme un processeur logit qui s'intègre au pipeline de génération du modèle de langage après les filtres d'échantillonnage habituels (Top-K et Top-P). Ce processeur modifie subtilement les scores du modèle grâce à un fonction pseudo-aléatoire g, encodant les informations selon le modèle des probabilités sans introduire d'artefacts visibles dans le style ou la qualité du texte.

Contenu exclusif - Cliquez ici  Voici comment vous pouvez attraper tous les Pokémon sur Google depuis votre mobile.

Le résultat est un texte qui, à première vue, maintient qualité, précision et fluidité, mais qui intègre une structure statistique détectable avec un vérificateur formé.

Pour générer du texte avec filigrane, ce n'est pas nécessaire recycler le modèle: fournir simplement une configuration à la méthode .generate() et activez le processeur logit de SynthID Text. Cela simplifie l'adoption et permet de tester avec des modèles déjà déployés.

Les paramètres du filigrane incluent deux paramètres essentiels : keys y ngram_len. Les clés Il s'agit d'une liste d'entiers uniques et aléatoires utilisés pour évaluer le vocabulaire à l'aide de la fonction g ; la longueur de cette liste détermine le nombre de couches de tatouage appliquées. ngram_len Définit l'équilibre entre la détectabilité et la robustesse aux transformations : des valeurs plus élevées facilitent la détection mais rendent le sceau plus vulnérable aux changements ; une valeur de 5 fonctionne bien comme point de départ.

De plus, SynthID Text utilise un tableau d'échantillonnage avec deux propriétés : sampling_table_size y sampling_table_seed. Une taille d'au moins 2^16 est recommandée pour garantir que la fonction g se comporte de manière stable et impartiale lors de l'échantillonnage, en tenant compte du fait que une taille plus grande signifie plus de mémoire pendant l'inférence. La valeur de départ peut être n'importe quel entier, ce qui facilite la reproductibilité dans les environnements d'évaluation.

Il y a une nuance importante pour améliorer le signal : n-grammes répétés dans l'histoire récente du contexte (défini par context_history_size) ne sont pas marqués, ce qui favorise la détectabilité de la marque dans le reste du texte et réduit les faux positifs liés aux répétitions naturelles de la langue.

Pour des raisons de sécurité, chaque configuration de filigrane (y compris ses clés, ses graines et ses paramètres) doit être stocké en privéSi ces clés sont divulguées, des tiers pourraient facilement reproduire la marque ou, pire encore, tenter de la manipuler en connaissant parfaitement sa structure.

Contenu exclusif - Cliquez ici  Comment utiliser la mise à l'échelle linéaire dans Google Forms

Comment détecter : vérification probabiliste avec seuils

La vérification d'un filigrane dans un texte n'est pas binaire, mais probabilisteGoogle publie un détecteur bayésien sur Transformers et GitHub qui, après avoir analysé le modèle statistique du texte, renvoie trois états possibles : marque, sans marque o incertainCette sortie ternaire permet d'ajuster l'opération à différents contextes de tolérance aux risques et aux erreurs.

Le comportement du vérificateur est configurable par deux seuils qui contrôlent le taux de faux positifs et de faux négatifs. Autrement dit, vous pouvez calibrer la précision de la détection, en sacrifiant la sensibilité à la précision, ou inversement, selon votre cas d'utilisation, ce qui est particulièrement utile. environnements éditoriaux, modération ou audit interne.

Si plusieurs modèles partagent le même tokeniseur, peut également partager le même configuration de marque et même détecteur, à condition que l'ensemble d'apprentissage du vérificateur inclue des exemples de chacun d'entre eux. Cela facilite la création de « filigranes communs » dans les organisations possédant plusieurs LLM.

Une fois le détecteur formé, les organisations peuvent décider de son niveau d'exposition : le conserver entièrement privé, offrez-le d'une manière semi-privé via une API, ou le publier d'une manière publique Pour téléchargement et utilisation par des tiers. Le choix dépend de la capacité opérationnelle de l'infrastructure de chaque entité, des risques réglementaires et de sa stratégie de transparence.

Technologie de filigrane SynthID AI

Filigrane sur les images, l'audio et la vidéo

Cette marque est conçue pour durer transformations courantes comme le recadrage, le redimensionnement, la rotation, le changement de couleur ou même les captures d'écran, sans avoir à conserver les métadonnées. Initialement, son utilisation était proposée via Image dans Vertex AI, où les utilisateurs peuvent choisir d'activer le filigrane lors de la génération de contenu.

En audio, la marque est inaudible et prend en charge les opérations courantes telles que la compression MP3, l'ajout de bruit ou la modification de la vitesse de lecture. Google l'intègre à Lyrie et dans les fonctionnalités basées sur Notebook LM, amplifiant le signal même lorsque le fichier passe par des flux de publication avec perte.

En vidéo, l'approche reproduit l'approche image : la marque est ancrée dans l'image. pixels de chaque image, imperceptiblement, et reste stable face aux filtres, aux changements de fréquence de rafraîchissement, de compression ou coupes. Vidéos générées par Je vois Des outils comme VideoFX intègrent cette marque lors de la création, réduisant ainsi le risque de suppression accidentelle lors des modifications ultérieures.

Contenu exclusif - Cliquez ici  Comment envoyer iMovie sur Google Drive

Algorithmes d'échantillonnage et robustesse du sceau de texte

Le cœur de SynthID Text est son algorithme d'échantillonnage, qui utilise une clé (ou un ensemble de clés) pour attribuer des scores pseudo-aléatoires à chaque jeton potentiel. Les candidats sont tirés de la distribution du modèle (après Top-K/Top-P) et mis en compétition après des tours éliminatoires, jusqu'à ce que le jeton ayant obtenu le score le plus élevé soit choisi selon la fonction g.

Cette procédure de sélection favorise les modèle statistique final Les probabilités portent la marque de la marque, sans toutefois imposer des options artificielles. Selon des études publiées, cette technique complique la tâche. effacer, falsifier ou inverser le sceau, toujours dans des limites raisonnables contre des adversaires avec du temps et de la motivation.

Bonnes pratiques de mise en œuvre et de sécurité

  • Si vous déployez SynthID Text, traitez la configuration comme secret de fabricationStockez les clés et les graines dans un gestionnaire sécurisé, appliquez des contrôles d'accès et autorisez une rotation périodique. La prévention des fuites réduit la surface d'attaque contre les tentatives de rétro-ingénierie.
  • Concevoir un plan pour surveillance pour votre détecteur : enregistrez les taux de faux positifs/négatifs, ajustez les seuils en fonction du contexte et décidez de votre politique de détection exposition (privé, semi-privé via API ou public) avec des critères juridiques et opérationnels clairs. Et si plusieurs modèles partagent un tokeniseur, envisagez de former un détecteur commun avec des exemples de chacun d'entre eux pour simplifier la maintenance.
  • Au niveau de la performance, il évalue l’impact de sampling_table_size en mémoire et en latence, et choisissez un ngram_len qui équilibre votre tolérance aux modifications avec le besoin d'une détection fiable. N'oubliez pas d'exclure les n-grammes répétés (via context_history_size) pour améliorer le signal dans le texte fluide.

SynthID n’est pas une solution miracle contre la désinformation, mais fournit un élément fondamental pour reconstruire la chaîne de confiance à l’ère de l’IA générative. En intégrant des signaux de provenance dans le texte, les images, l'audio et la vidéo, et en ouvrant le composant texte à la communauté, Google DeepMind s'oriente vers un avenir où l'authenticité peut être auditée de manière pratique, mesurable et, surtout, compatible avec la créativité et la qualité du contenu.