CastLabs, société de gestion des droits numériques (DRM) basée à Amsterdam, a introduit ce qu’elle considère comme la prochaine étape en matière de protection du contenu grâce à une nouvelle technique, baptisée « fabrication d’eau médico-légale à image unique ». Le concept derrière le système DRM est d’exploiter la « solution Video Toolkit » basée sur le cloud de l’entreprise, qui traite et protège le contenu téléchargé (tel que des vidéos, des images et des documents) en ajoutant des « filigranes réglables », qui sont ensuite redistribués aux côtés du ( contenu désormais filigrané et surveillé).
L’idée de base du service est qu’il peut être appliqué de manière autonome ou conjointement avec d’autres mécanismes de protection DRM, tout en offrant une couche supplémentaire de sécurité « réglable » à tout contenu sensible. Lorsque le contenu est téléchargé via la solution hébergée par AWS de l’entreprise, le logiciel de l’entreprise intègre secrètement des informations d’identification sur chaque image en « créant des identifiants de filigrane uniques, [and] en les cachant stratégiquement dans des images vidéo ou d’autres ressources numériques visuelles. redondances dans la façon dont les données sont codées dans les images.
Selon la société, une seule image traitée avec sa technologie de « filigrane médico-légal » est tout ce qui est nécessaire pour récupérer les informations de droit d’auteur d’origine – même lorsque l’on tente de récupérer des données à partir d’une photo ou d’une vidéo prise sur l’écran de l’ordinateur (l’une des méthodes les plus simples). moyens de vaincre les protections basées sur les métadonnées). Selon l’entreprise, cette capacité « d’extraction aveugle » (où le logiciel détecte les filigranes existants sans savoir si le fichier source les contient ou non) est l’un de ses différenciateurs dans le domaine de la protection des contenus. La capacité de sa fonction de filigrane à survivre à la conversion numérique-analogique est également relativement frappante.
L’outil semble être davantage orienté vers les cas d’utilisation d’espionnage d’entreprise et industriel. Les entreprises technologiques, par exemple, distribuent généralement des informations avancées sur des produits inédits aux journalistes, aux influenceurs et aux partenaires de distribution, dans le cadre de ce que l’on appelle la non-divulgation. Mais comme l’atteste l’existence de fuites, même l’existence de filigranes physiques et d’une liste de diffusion peut conduire à des fuites : dès que l’information quitte son origine, Internet se charge de la diffuser. La solution de l’entreprise vise à atténuer considérablement ce problème.
On ne sait pas quand et si cette technologie pourrait être utilisée pour d’autres supports. Par exemple, cette technologie pourrait-elle être appliquée aux versions de jeux internes ou aux versions de jeux qui ont disparu ? Si cette technologie se retrouve dans les jeux, alors, du moins en théorie, quiconque « diffuse » une version piratée d’un jeu pourrait être pris au dépourvu par le détenteur des droits numériques. L’idée ici pourrait être d’inclure un contrôle exécutable qui vérifie la licence en ligne pour le jeu en question, activant le filigrane en cas d’échec. Soyons clairs, cela ne se produit pas ici et rien ne dit que cela se produira. Mais étant donné que les sociétés de jeux en particulier sont à l’avant-garde des techniques DRM anti-piratage telles que Denuvo, il semble plausible que ce type de « filigrane médico-légal » fasse tourner certaines têtes dans ce secteur.
Le temps nous le dira; mais pour l’instant, il semble que le filigrane par image qui survit même aux changements de médias soit arrivé. Nous nous demandons si les entreprises d’IA s’intéressent à cette technologie ; Compte tenu des difficultés rencontrées pour séparer les données synthétiques des données émergentes pour la formation en IA, et de la propre promesse de ces entreprises d’introduire une technologie de filigrane compétente dans le contenu produit par l’IA, nous nous attendrions à ce qu’elles tendent le cou.