SEO How-to, Partie 12: Outils techniques

0
118

La mise en œuvre d’une stratégie d’optimisation des moteurs de recherche nécessite généralement des outils qui peuvent être dangereux lorsqu’ils sont mal gérés. Connaître ces outils – quand les utiliser et comment – peut faire toute la différence.

Ceci est le 12ème volet de ma série «SEO How-to». Les versements précédents sont:

Le référencement technique se concentre sur quelques domaines critiques: l’exploration, l’indexation et la définition des types de contenu.

Réglementer les robots d’exploration des moteurs de recherche

L’exigence de recherche organique la plus fondamentale est de permettre aux robots des moteurs de recherche d’accéder à votre site. Sans l’exploration, les moteurs de recherche ne peuvent pas indexer et classer vos pages.

Les outils d’exploration vous permettent d’ouvrir ou de fermer la porte pour rechercher des robots page par page. Utilisez les outils pour bloquer les robots conviviaux du contenu que vous ne voulez pas dans l’index de Google, comme le panier et les pages de compte.

Fichier Robots.txt, situé dans le répertoire racine de votre domaine, indique aux robots quelles pages explorer. Par exemple, le fichier robots.txt de Practical Ecommerce se trouve sur Practicalecommerce.com/robots.txt.

L’accès au site complet est la valeur par défaut – vous n’avez pas besoin d’activer l’accès. L’émission de commandes d’interdiction empêche les robots de recherche réputés d’accéder à une ou plusieurs pages. Les robots nuisibles, tels que les scrapers qui copient votre contenu pour le republier sur des sites de spam, n’obéiront pas aux fichiers robots.txt. À des fins de référencement, cependant, le fichier robots.txt fonctionne bien.

Voir mon article en avril pour en savoir plus sur le fichier robots.txt.

Méta robots noindex marque. Appliqué à des pages individuelles, le noindex attribut du les robots metatag – généralement appelé simplement un noindex tag – peut empêcher les robots d’indexer des pages individuelles. Il se trouve dans le tête du code HTML de votre page avec vos balises de titre et de méta description.

La méta noindex La balise peut être puissante mais aussi dangereuse. Lorsqu’il est utilisé dans un modèle de page, le méta noindex La balise coupe l’indexation pour chaque page de ce modèle.

D’autres attributs, tels que pas de suivi, nocache, et nosnippet, sont disponibles avec le les robots Meta tag pour, respectivement, restreindre le flux d’autorité de lien, empêcher la mise en cache de la page et demander qu’aucun extrait du contenu de la page ne s’affiche dans les résultats de recherche.

Consultez mon article d’avril pour obtenir des conseils sur la gestion noindex Mots clés.

Activation de l’indexation

Les outils d’indexation guident les moteurs de recherche vers le contenu que vous souhaitez voir apparaître dans les résultats de recherche organiques.

Plan du site XML. Contrairement à un plan de site HTML, auquel de nombreux sites renvoient dans le pied de page, les plans de site XML sont une liste stricte d’URL et de leurs attributs. Les robots utilisent des sitemaps XML pour augmenter la liste des pages qu’ils découvrent lors de l’exploration de votre site. Les sitemaps XML invitent les robots à explorer les pages mais ne garantissent pas l’indexation.

J’ai abordé l’année dernière la structure et les limites des sitemaps XML.

Google Search Console et Bing Webmaster Tools. Une fois que vous avez un plan de site XML, soumettez-le à la fois à Google Search Console et aux outils Bing pour les webmasters. Cela, et le référencement de l’URL du plan de site XML dans votre fichier robots.txt, garantit que les robots peuvent le trouver.

L’envoi de sitemaps n’est cependant pas la seule raison de s’inscrire aux ensembles d’outils pour les webmasters de Google et Bing. Ils servent également de tableaux de bord de performance pour chaque moteur de recherche. De plus, la Search Console de Google comprend un outil d’inspection d’URL pour demander l’indexation de n’importe quelle URL de votre domaine.

Suppression des URL indexées

Assurez-vous que vous souhaitez que le contenu soit analysé et indexé avant sa mise en ligne. Il est beaucoup plus facile d’empêcher l’indexation que de la supprimer par la suite. Cependant, si vous devez supprimer des pages d’un index de moteur de recherche, par exemple pour un contenu en double ou des informations personnellement identifiables, envisagez ces méthodes.

Fichier 404 introuvable. Le moyen le plus rapide de supprimer une page d’un index de recherche est de la supprimer de votre serveur Web afin qu’elle renvoie une erreur 404 fichier non trouvé.

Cependant, les erreurs 404 sont des impasses. Toute l’autorité que la page en direct avait acquise au fil du temps (d’autres sites qui y étaient liés) meurt. Dans la mesure du possible, utilisez une autre méthode pour désindexer le contenu.

Voir mon message sur les erreurs 404.

301 redirections sont des demandes d’en-tête du serveur Web à l’utilisateur avant le chargement d’une page signalant que la page demandée n’existe plus. Il est puissant car il commande également aux moteurs de recherche de transférer toute l’autorité de l’ancienne page vers la page vers laquelle il est redirigé, renforçant ainsi l’URL de réception. Utilisez les redirections 301 chaque fois que possible pour supprimer le contenu, préserver l’autorité de lien et déplacer l’utilisateur vers une nouvelle page.
Voir mon article sur les redirections 301.

Balises canoniques. Une autre forme de métadonnées trouvée dans le tête du code d’une page, la balise canonique indique aux robots des moteurs de recherche si la page est la source canonique (c’est-à-dire faisant autorité). Les balises canoniques peuvent désindexer les pages et agréger l’autorité de lien vers la version canonique.

Les balises canoniques sont pratiques pour gérer les pages en double – un phénomène courant avec les catalogues de produits de commerce électronique.

Les balises canoniques sont une requête, pas une commande comme les redirections 301. Néanmoins, ils sont efficaces lorsque vous avez besoin d’humains pour accéder à une page, mais que vous ne voulez pas que les moteurs de recherche l’indexent.

Voir mon article sur les balises canoniques.

Outil de suppression de Google. Autre fonctionnalité de Google Search Console, l’outil de suppression peut supprimer temporairement des pages de l’index de Google. Soyez prudent, cependant, car j’ai vu des sites entiers supprimés accidentellement en un seul clic.

L’outil Suppressions est un bon choix lorsque vous devez supprimer rapidement des informations obsolètes ou sensibles des résultats de recherche. Toutefois, si vous souhaitez que la suppression soit définitive, vous devrez supprimer la page de votre site (pour renvoyer une erreur 404) ou placer un noindex étiquette dessus. Sinon, Google réexplorera et réindexera la page dans les six mois.

Pour en savoir plus, consultez l’explication de l’outil de suppression de Google.

Définition du contenu

Enfin, les données structurées peuvent définir des types de contenu pour aider les moteurs de recherche à les comprendre. Les données structurées peuvent également déclencher le placement d’extraits enrichis et de panneaux dynamiques dans les résultats de recherche naturels de Google.

Habituellement codées à l’aide de JSON-LD ou de la norme de microdonnées, les données structurées placent des bits de métadonnées dans vos modèles de page existants. Le code entoure les éléments de données existants, tels que le prix, les évaluations et la disponibilité.

J’ai abordé les données structurées pour les pages de produits de commerce électronique l’année dernière.