CopyrAIght
![OpenAI peut tatouer les textes générés par ChatGPT, mais hésite à s’en servir](http://next.ink/wp-content/uploads/2024/08/OpenAI-filigrane2.webp)
La technologie serait « efficace à 99,9 % », mais aussi relativement facile à effacer. Ce pourquoi l’entreprise ne l’a toujours pas rendue publique, quand bien même cela pourrait contribuer à la reconnaissance des textes générés par des intelligences artificielles génératives.
Le Wall Street Journal a appris de plusieurs sources qu’OpenAI avait bien mis au point un outil susceptible de tatouer une signature en filigrane (watermarking en anglais) permettant d’identifier les contenus générés par ChatGPT. Le projet serait disponible depuis un an, mais serait « embourbé dans des débats internes à OpenAI depuis environ deux ans ».
Les employés d’OpenAI hésiteraient encore entre le fait de respecter l’engagement déclaré de la startup à la transparence et leur désir d’attirer et de retenir ses utilisateurs. Une enquête menée par l’entreprise auprès d’utilisateurs fidèles de ChatGPT aurait en effet révélé que « près d’un tiers d’entre eux seraient rebutés par la technologie anti-triche », précise le WSJ.
D’après une porte-parole d’OpenAI, l’entreprise craint en outre que l’outil n’affecte de manière disproportionnée des groupes tels que les personnes dont l’anglais n’est pas la langue maternelle : « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives ».
- Comment tenter d’identifier les textes émanant d’intelligences artificielles génératives ?
- Copyright traps : un outil pour détecter si un texte est utilisé pour entrainer des IA ?
Efficace à 99,9 %, mais… facile à effacer
Des employés soutenant la diffusion de l’outil ou ayant participé à son développement estiment, a contrario, que ces arguments « étaient dérisoires par rapport aux bienfaits que cette technologie pourrait apporter », tempère le WSJ.