En partenariat avec Google Cloud, Google DeepMind (la division de recherche en IA de Google) lance un outil permettant de filigraner et d’identifier les images générées par l’IA – mais uniquement les images créées par le modèle de génération d’images de Google.
Cet outil, appelé SynthID et disponible en version bêta pour certains utilisateurs de Vertex AI (la plateforme de Google pour la création d’applications et de modèles d’IA), incorpore un filigrane numérique directement dans les pixels d’une image, ce qui le rend imperceptible à l’œil humain, mais détectable par un algorithme. SynthID ne prend en charge qu’Imagen, le modèle texte-image de Google, qui est exclusivement disponible dans Vertex AI.
Google a déjà annoncé qu’il intégrerait des métadonnées pour signaler les médias visuels créés par les modèles d’IA générative. SynthID va évidemment plus loin.
« Si l’IA générative peut débloquer un énorme potentiel créatif, elle présente également de nouveaux risques, comme celui de permettre aux créateurs de diffuser de fausses informations – de manière intentionnelle ou non », écrit DeepMind dans un billet de blog. « Il est essentiel de pouvoir identifier le contenu généré par l’IA pour permettre aux gens de savoir quand ils interagissent avec des médias générés et pour aider à prévenir la diffusion de fausses informations. »
DeepMind affirme que SynthID, qu’il a développé et affiné en partenariat avec Google Research (l’équipe R&D de Google), reste en place même après des modifications telles que l’ajout de filtres aux images ou la modification des couleurs des images et leur forte compression. L’outil exploite deux modèles d’IA, l’un pour le filigrane et l’autre pour l’identification, qui ont été entraînés ensemble sur un ensemble « diversifié » d’images, explique DeepMind.
SynthID ne peut pas identifier les images filigranées avec une certitude de 100 %. Mais l’outil fait la distinction entre les cas où une image pourrait contenir un filigrane et ceux où il est très probable qu’elle en contienne un.
« SynthID n’est pas à l’épreuve des manipulations d’images extrêmes, mais il constitue une approche technique prometteuse pour permettre aux personnes et aux organisations de travailler de manière responsable avec des contenus générés par l’IA », écrit DeepMind dans son billet de blog. « Cet outil pourrait également évoluer avec d’autres modèles et modalités d’IA au-delà de l’imagerie, comme l’audio, la vidéo et le texte. »
Les techniques de filigrane pour l’art génératif ne sont pas nouvelles. La startup française Imatag, lancée en 2020, propose un outil de filigrane qui, selon elle, n’est pas affecté par le redimensionnement, le recadrage, l’édition ou la compression des images, à l’instar de SynthID. Une autre entreprise, Steg.AI, utilise un modèle d’intelligence artificielle pour appliquer des filigranes qui résistent au redimensionnement et à d’autres modifications.
Mais la pression s’accroît sur les entreprises technologiques pour qu’elles fournissent un moyen d’indiquer clairement que les œuvres ont été générées par l’IA.
Récemment, l’administration chinoise du cyberespace a publié une réglementation exigeant que les fournisseurs d’IA générative marquent le contenu généré – y compris les générateurs de textes et d’images – sans affecter l’utilisation par l’utilisateur. Lors de récentes auditions devant une commission du Sénat américain, la sénatrice Kyrsten Sinema (I-AZ) a insisté sur la nécessité d’assurer la transparence de l’IA générative, notamment par l’utilisation de filigranes.
En mai, lors de sa conférence annuelle Build, Microsoft s’est engagé à filigraner les images et les vidéos générées par l’IA « à l’aide de méthodes cryptographiques ». Ailleurs, Shutterstock et la startup d’IA générative Midjourney ont adopté des directives pour intégrer un marqueur indiquant que le contenu a été créé par un outil d’IA générative. DALL-E 2, l’outil de conversion de texte en image d’OpenAI, insère un petit filigrane en bas à droite des images qu’il génère.
Mais jusqu’à présent, une norme commune de filigrane – tant pour la création que pour la détection des filigranes – s’est avérée difficile à trouver.
SynthID, comme les autres technologies proposées, ne sera pas utile pour les générateurs d’images autres qu’Imagen, du moins sous sa forme actuelle. DeepMind indique qu’elle envisage de mettre SynthID à la disposition de tiers dans un avenir proche. Mais la question de savoir si les tiers – en particulier ceux qui développent des générateurs d’images IA open source, qui n’ont pas les garde-fous des générateurs protégés par une API – adopteront la technologie est une toute autre question.