Cloudflare, un acteur majeur du trafic internet mondial, a récemment dévoilé une nouvelle fonctionnalité qui pourrait changer la donne pour les éditeurs de sites web. Désormais, grâce à la « Content Signals Policy », les propriétaires de sites peuvent indiquer leurs préférences quant à l’utilisation de leur contenu par Google, notamment dans le cadre des aperçus IA.
Une nouvelle fonctionnalité dans robots.txt
La « Content Signals Policy » s’ajoute au fichier robots.txt, permettant aux éditeurs de spécifier que leur contenu peut être utilisé pour la recherche classique, mais pas pour les aperçus IA. Cependant, cette directive nécessite la coopération de Google, qui n’a pas encore confirmé son adhésion à ces nouvelles règles.
Le contexte de l’annonce
Cette initiative de Cloudflare intervient après que son PDG, Matthew Prince, a exprimé son intention d’inciter Google à accepter ces conditions. Bien que la mise à jour des fichiers robots.txt soit facilitée, elle ne lie pas légalement les entreprises d’IA à s’y conformer.
Implications pour les éditeurs
Si Google ou d’autres entreprises d’IA choisissent d’ignorer ces directives, les éditeurs pourraient envisager des actions légales. Cette situation souligne l’importance de mettre en place des mécanismes de contrôle pour la réutilisation de contenus numériques à l’ère de l’IA.
Réactions et perspectives
Glenn Gabe, expert en SEO, a souligné l’importance de cette évolution pour les propriétaires de sites. Néanmoins, sans l’assurance de la part de Google de respecter ces directives, l’efficacité de cette mesure reste à démontrer.
Nos recos Optis Oignons
Pour les éditeurs soucieux de la réutilisation de leur contenu, il est crucial de suivre de près l’évolution de cette situation. Intégrer la « Content Signals Policy » dans le fichier robots.txt est un premier pas, mais il faudra peut-être envisager des solutions complémentaires si les géants de l’IA ne respectent pas ces nouvelles directives.
Source
Article original publié par Search Engine Roundtable.

