Visualiser vos pages avec l’outil Explorer comme Google

Explorer comme Google

Cette semaine, Google a publié un billet sur son blog officiel autour d’une fonctionnalité souvent trop oubliée, l’outil « Explorer comme Google » dans les Webmaster Tools.

Cette fonctionnalité fournit aux webmasters les résultats des essais de Googlebot, le robot d’indexation de Google, en vue d’explorer leurs pages. Les en-têtes serveur et le code HTML sont pratiques afin de diagnostiquer les problèmes techniques et d’identifier des problèmes de piratage informatique. Néanmoins, il n’est pas toujours évident d’interpréter la réponse reçue. Google déclare ainsi avoir ajouté des fonctionnalités à son outil afin de voir à travers les yeux de Google et d’observer la manière dont il perçoit les pages d’un site.

Visualiser la page affichée

Pour restituer une page, Google essaiera de trouver l’ensemble des fichiers externes à la page et de les explorer. Ces fichiers sont la plupart du temps constitués d’images, de feuilles de style et de fichiers JavaScript, aussi bien que d’autres fichiers susceptibles d’être indirectement intégrés par le biais du CSS et du JS. Ceux-ci sont ensuite utilisés pour donner un aperçu de ce que Googlebot voit réellement.

Où trouver cette fonctionnalité et comment l’utiliser ?

L’outil « Explorer comme Google » se situe dans la section « Exploration » des Webmaster Tools. L’analyse d’une page se déroule en 2 étapes :

  • Après avoir soumis votre URL et cliqué sur le bouton « Explorer et afficher », le traitement de la demande peut prendre quelques minutes.

  • Une fois l’analyse terminée, il ne vous reste plus qu’à cliquer sur l’URL de votre page qui s’affiche pour avoir un aperçu de la façon dont Googlebot l’interprète.

NB: cet outil permet d’envoyer une URL pour indexation pour accélérer la prise en compte d’une page par Google. Pour ce faire, il suffit simplement de cliquer sur le bouton « Envoyer pour indexation » dès que le traitement de votre requête se termine. La page devrait ainsi être indexée en moins de 24h. Cependant, rien n’indique que ce soit effectivement le cas, Google privilégiant le plus souvent les outils d’indexation traditionnelle comme les backlinks, le fichier sitemap.xml, etc.

Manipulation des ressources bloquées par le fichier robots.txt

Google suit les directives du fichier robots.txt pour l’ensemble des fichiers qu’il télécharge. Si vous avez empêché l’indexation de certains de ces fichiers (CSS ou JS), Google ne sera pas en mesure de les exposer dans le rendu de la page affichée. D’autre part, si le serveur ne répond pas ou s’il retourne une page d’erreur, Google sera incapable de les exploiter.

Il est conseillé de veiller à ce que les robots de Google puissent facilement indexer vos pages en leur permettant d’avoir libre accès aux ressources statiques ou dynamiques qui contribuent à rendre votre contenu visible ou, du moins, à le mettre en forme. Au contraire, certains types de contenu, tels que les boutons sociaux, les polices de caractères ou les scripts Analytics, peuvent être interdits d’indexation étant donné qu’ils ne participent pas à l’affichage du contenu visible de votre site, ni à sa mise en page.

Le saviez-vous ? Les robots d’indexation de Google décryptent de mieux en mieux le JavaScript

Cette semaine également, Matt Cutts a révélé que Google avait mis en place des améliorations en vue d’interpréter de manière optimale le code JavaScript inclus dans les pages web. Jusque là, ceci est un secret de Polichinelle, le numéro 1 mondial des moteurs de recherche éprouvait des difficultés quant à l’affichage et à l’analyse des fichiers Javascript. Sur son blog, le porte-parole de la cellule anti-spam chez Google fournit quelques conseils afin d’améliorer l’indexation des contenus JavaScript :

    • Si certaines ressources comme le JavaScript ou le CSS sont bloqués das des fichiers séparés, par le biais du fichier robots.txt notamment, le système d’indexation de Google sera incapable de voir le site dans son intégralité, comme pourrait le voir un humain. Google recommande de permettre à Googlebot d’extraire le JavaScript et le CSS, de manière à ce que votre contenu soit mieux indexé. A noter, cette astuce est conseillée pour les sites mobiles, auquel cas, les ressources externes comme le JS et le CSS aident les algorithmes de Google à mieux comprendre que les pages en cours d’indexation sont optimisées pour les mobiles.
    • Si votre serveur est incapable de gérer le volume d’informations et les multiples requêtes générées par les robots d’indexation, cela peut avoir un impact négatif sur la capacité de Google à afficher les pages. Si vous souhaitez vous assurer que vos pages seront bien affichées et interprétées par Google, renseignez-vous auprès de votre hébergeur pour en savoir plus sur la configuration et la performance de votre serveur
    • Parfois, le JavaScript peut être trop complexe à exécuter pour les robots, auquel cas le système d’indexation de Google ne peut afficher la page dans son intégralité
    • Certains codes JS suppriment du contenu plutôt que d’en ajouter, ce qui empêche également les spiders de Google d’indexer convenablement vos pages

NB: pour information, Google travaille actuellement sur un nouvel outil en vue d’aider les webmasters à mieux comprendre la manière dont les robots de Google interprète leur site. Cette nouvelle fonctionnalité sera disponible prochainement dans votre compte Google Webmaster Tools. Je vous tiendrai au courant de son arrivée et de la façon dont vous pouvez l’utiliser.

Sources de l’article :

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut