Publié le 26/12/2014 dans , , , , , , ,

Techniques de référencement : 4 outils pour optimiser vos pages

Techniques de référencement : 4 outils pour optimiser vos pages 8027644078 24d7f1d0c3

Il existe de nombreux outils qui ont chacun leurs techniques de référencement selon l’utilisation que l’on en fait. Qu’ils s’agissent d’outils en ligne, de logiciels,  gratuits ou payants, ces outils s’avèrent redoutables lorsqu’on sait bien les utiliser. Parmi eux, on retrouve les fameux crawlers ou robots d’indexation qui vous permettent d’explorer n’importe quelle page web ainsi que leur contenu dans le but d’optimiser vos pages.

Petit tour d’horizon des types de crawlers que l’on trouve actuellement sur le marché.

Google Webmaster Tools : le géant

Cet outil va vous être d’une aide redoutable dans l’optimisation de votre site web. Parmi ses fonctionnalités, on retrouve l’outil de test des données structurées qui va vous permettre de vérifier l’optimisation de votre balisage de données. Egalement, Google Adresses vous permettra d’indexer votre activité par rapport à sa géolocalisation et ainsi générer un nombre de clients conséquent. De manière générale, de nombreux paramètres SEO sont disponibles via cet outil ce qui vous permettra de gérer votre référencement naturel en quelques clics.

Xenu’s Link Sleuth : le dinosaure

Xenu’s Link Sleuth permet de scanner intégralement des pages web et de générer un rapport personnalisable disponible en HTML et sous Excel. Il est particulièrement pratique car il permet d’identifier les problèmes de contenu dupliqué ainsi que de repérer le poids des pages et images scannées afin d’avoir une idée de leur rapidité. Il génere également un sitemap qui vous permettra d’accéder rapidement à l’ensemble des ressources proposées par le site. Xenu offre des avantages tels que sa gratuité et sa facilité d’utilisation. Néanmoins, il reste assez lourd et occupe considérablement la bande passante.

Scrutiny : le convoité

Cet outil est l’un des plus récent disponible sur le marché. Uniquement disponible sur Mac OS, il permet comme ses concurrents de repérer les erreurs 404 et de les visualiser afin de les corriger. Concernant la rapidité des pages, il contrôle leur poids ainsi que ceux des images. Il vérifie les titres et descriptions de chacune de vos pages, ainsi que la validation W3C. C’est en quelque sorte votre assistant qui vous aidera à optimiser l’ensemble de votre site.  L’avantage de Scrunity est qu’il peut être utilisé en local ou directement sur le web, également programmable et configurable à souhait c’est le préféré des développeurs !

Screaming Frog : le minutieux

Screaming Frog offre sensiblement les mêmes fonctionnalités que ses concurrents mais va plus loin dans l’analyse des pages. En effet, en plus de repérer les 404 et de vérifier les titres / descriptions de chaque page, il va vérifier certaines balises telles que H1 et H2 ainsi que les balises canonical ce qui peut être très intéressant pour éviter le duplicate content. De manière générale, Screaming Frog se charge d’analyser chaque page de manière très précise, niveau par niveau. Cet outil est donc conseiller pour l’optimisation très fine. Cet outils vous coutera 110€ mais une version limitée à 500 urls est disponible, de quoi vous rendre vite accro !

Quel outil avez-vous choisi de votre côté ? Vous en connaissez d’autres ? Tenez-nous au courant dans les commentaires !

Plus d'articles sur : , , , , , , ,

trouver-des-clients---bas-blog

 

abo-blog

  • Svplim

    Nous utilisons pour notre part,( ormis GWT qui reste incontournable pour les requêtes entres-autres), les logiciels SEOPOWER Suite qui regroupent tous ces outils et apportent d’autres indicateurs comme le risque de pénalités pour les backlinks