+261 34 05 114 55
contact@za-seo.com

Blacklister du contenu : Google explique ses raisons !

C'est en partageant qu'on pourra tous évoluer

blacklister-contenu-par-google

Une récente publication de Google affirme sa volonté et sa motivation de supprimer certaines pages web de son index. Un post publié par Danny Sullivan sur l’un des blogs de Google expose les principales raisons qui peuvent inciter Google à désindexer ou blacklister certains contenus. Nous allons alors les présenter en détail ci-dessous.

Respect de la loi et protection des utilisateurs

Google est un moteur de recherche assez réticent en ce qui concerne le respect de la loi et la protection des utilisateurs. On le considère comme un juge ayant le droit de classer, de trier et de faire remonter ou redescendre les sites web dans les résultats de recherche. Selon un témoignage, il est de son devoir et de sa responsabilité de protéger les utilisateurs et de respecter la loi sur les contenus illégaux. Si un contenu n’est donc pas conforme à la législation locale, il est en mesure de supprimer l’accès à Google Search. Si un contenu publié sur le web n’a pas respecté la loi, il est dans l’obligation de le rayer des résultats de recherche. Google a également mentionné la diversité de ses obligations légales d’un pays à l’autre face à la diffamation et à la confidentialité. Il est vrai que les mentions légales diffèrent selon les juridictions de chaque pays car il serait plus complexe pour Google d’appliquer des mesures sans que cela affecte leur loi respective.

Il est aussi mentionné dans le post que si un contenu jouit des droits d’auteur, il est difficile pour Google de confirmer de façon automatique si la page web possède une licence ou non à moins que les titulaires lui avisent directement. Par contre, une page qui met en place des outils pédopornographiques est toujours illégale pour la majorité des juridictions. Le moteur de recherche dispose des moyens efficaces pour déceler automatiquement de telle page web et de la retirer immédiatement des résultats. Ainsi, les contenus illégaux n’apparaitront pas dans les résultats de recherche de Google.

Préserver des contenus de qualité

Telle est la principale mission de Google : surveiller la qualité des contenus qui apparaissent dans les résultats. Il essaie alors de chasser certaines informations personnelles des utilisateurs qui concernent par exemple les données médicales ou bancaires, des pièces d’identités remises par l’Etat ou même les photos intimes publies sans approbation. Google traque ces types de contenus pour qu’ils ne s’affichent pas dans le moteur de recherche mais aussi les pages qui détériorent la réputation d’une personne sur le web.

En même temps, cela lui permettra combattre facilement le spam. En général, Google reçoit une quantité accrue de demandes de suppressions de droits d’auteurs approuvés ou légitimes pour un site web donné.  Il pourra s’en servir comme indicateur de qualité et pour faire réviser le positionnement du site dans les résultats. Il a mis en œuvre des principes identiques à cela pour les sites dont il a désindexé les pages dans cette lutte contre le spam. Grâce à cela, le moteur de recherche répond à la demande des personnes pour les suppressions de ces contenus diffamés mais il améliore aussi sa politique anti-spam.

Ce sont alors les deux principales raisons qui encouragent Google à éliminer du contenu du moteur. Mais il existe également deux autres raisons liées au monde du SEO.

Moyen incontournable pour éradiquer le spamdexing

Des efforts sont déjà en cours pour rayer le spamdexing. Il faut noter tout de même que Google identifie plus de 25 milliards de pages de spam tous les jours. Il paraît logique alors que le moteur ne conserve plus les contenus vides d’intérêt puisque cela n’intéresse plus personne. Et le black hat ou la « triche SEO » subira aussi le même sort.

Des raisons d’ordre technique

Blacklister du contenu c’est une question d’ordre technique pour Google. Cela afin de pouvoir faciliter le triage des pages web. Pour preuve, il suffit simplement d’aller jeter un œil dans la Search Console, de consulter le rapport « Couverture » ensuite, de cliquer sur « Exclues ». En consultant ce rapport, on peut faire une vue d’ensemble des contenus refusés par Google. Cela concerne entre autre le surplus de pages pour un seul site web, les pages dites « noindex », le duplicate content, les pages avec très peu de contenu, et bien d’autres encore. Tous les jours, Googlebot récupère aussi des milliards d’URL afin de les placer à l’index mais pas forcément dedans.

On reconnaît alors les raisons qui expliquent les diverses décisions prises par Google en ce qui concerne la suppression du contenu de son index. Mais il y en a forcément d’autres que nous pouvons nous-même identifier. Le web continue de s’agrandir et il faudrait bien que le moteur instaure un certain équilibre entre les meilleurs contenus et ceux qui méritent leur exclusion. Et cela représente tout de même une tâche fastidieuse.  D’ailleurs, les problèmes que Google a rencontré depuis deux ans sans parler des bugs d’indexation prouvent à quel point le contexte est délicat et que la vigilance est toujours de rigueur sur cette affaire.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *