En finir avec le contenu dupliqué grâce au fichier robots.txt

En finir avec le contenu dupliqué grâce au fichier robots.txt

Vous n’êtes pas sans savoir que le Duplicate Content ou Contenu Dupliqué est à proscrire si vous souhaitez ne pas dégrader le référencement de vos articles sur Google. Si il est difficile d’agir contre le Duplicate Content externe (Provenant d’un site concurrent ayant un meilleur pagerank qui copierait vos articles et donc volerait votre audience), vous pouvez au moins combattre le Duplicate Content provenant de votre propre site via les pages d’archives (Archives / Recherches / Tag / Catégories).

Le meilleur VPN au monde

Voici quelques conseils très intéressants pour vous éviter tout contenu dupliqué provenant de votre site sur les moteurs de recherches.

Removing duplicate search engine content using robots.txt | markwilson.it

Laisser un commentaire