Chaque site marchand a des facteurs bloquants au niveau SEO. Ceux-ci peuvent être des erreurs techniques, structurelles ou de contenu qui empêchent une bonne visibilité.
Mais il existe des freins plus implicites quand un site est bien propre, mais il y a un grand potentiel non-utilisé.
Une vision restreinte des demandes d’internautes
Quelque expérimenté qu’on soit, on a toujours une vision limité de ce comment les internautes recherchent nos produits.
On trouve encore pas mal de boutiques se contentant de la catégorisation bilatérale: par type de produit (TV, téléphones mobiles, vêtements de grossesse etc.) et nom de la marque (Samsung, LG, Zara etc.).
D’abord voici ce qui se passe lorsqu’on ne vise que les requêtes populaires et connus de tout le monde. A un moment donné on se retrouve dans un énorme embouteillage dans lequel notre boutique est perdue parmi des centaines d’autres:
Et pour un jeune site c’est voué en amont à l’échec.
Deuxièmement, c’est ce genre de sites sur lesquels on perd plus qu’on gagne, car l’essentielle part du traffic potentiel reste intacte.
Solution?
Chercher de nouvelles opportunités en terme d’expressions clées, moins répandues, plus concrètes, plus diversifiées et donc moins concurrentielles.
On perd toujours lorsqu’on crée le site ne se basant que sur sa gamme de produits, car les internautes effectuent des recherches selon leur besoins.
Et en fonction de la thématique ces besoins peuvent être très variés:
A vos services toute une palette d’outils:
- Outil de planification des mots-clefs de Google Adwords
- Suggestions de Google
- Outils d’investigation concurrentielle du type de Semrush.
- Outils tiers genre Ubersuggest
- Vos statistiques (Google Analytics)
- Recherche interne sur votre site…
Filtres «intelligents» et navigation à facettes
D’habitude les filtres sur les pages de listings c’est quelque chose qui est réparé en premier lieu. Ils génèrent des urls illisibles, du contenu dupliqué ou presque dupliqué et donc attirent de nombreux risques éventuels. On les cache par tous les moyens possibles des moteurs de recherche et pourtant ils gardent en soi un potentiel énorme!
Et si vous créiez un filtre intelligent, celui que Google aimera?
Configurez le remplacement de paramètres dans les urls par des termes clairs et concis séparés par un tiret. Ajoutez dans votre système de gestion de contenu un fonctionnel d’optimisation de ces pages (title, description, H1, texte descriptif, règles d’affichages etc.).
Ainsi vous aurez un nombre quasi infini de combinaisons de paramètres que vous pourrez ensuite utiliser dans des modules de votre maillage interne – la navigation à facettes.
Un très bon exemple de se comment tirer le maximum de son listing est le site de Particulier à Particulier:
Pour concevoir et mettre en place la navigation à facettes il vaut mieux vous adresser à un prestataire SEO compétent pour pouvoir anticiper toutes les pierres d’achoppement possibles (et il y en aura!). De plus cela demandera des frais pour retravailler votre catalogue. Mais c’est un investissement qui vous fera beaucoup de bonnes choses après.
Pour en savoir plus sur la navigation à facettes, je vous recommande un très bon livre blanc de Philippe Yonnet (PDF).
Catégories superflues dans les urls des fiches produits
Cela concerne surtout les thématiques avec de multiples variantes de groupement de produits, par exemple celle des cadeaux, mais pas que.
Avez-vous vu des boutiques qui dans les adresses de leurs fiches de produits répètent toute l’arborescence où les derniers se trouvent: /categorie/sous-categorie/nom-de-produit.html.
Par exemple:
- www.exemple.com/catalog/telephones-mobiles/samsung/galaxy-s5.html
Voyez-vous un problème?:)
Si on décide de suivre les besoins d’utilisateurs et d’ajouter d’autres catégories / sous-categories / facettes on rencontre tout de suite un souci:
- www.exemple.com/catalog/telephones-mobiles/1-sim/galaxy-s5.html
- www.exemple.com/catalog/telephones-mobiles/tactiles/galaxy-s5.html
- www.exemple.com/catalog/telephones-mobiles/android/galaxy-s5.html
- www.exemple.com/catalog/telephones-mobiles/grand-ecran/galaxy-s5.html
- www.exemple.com/catalog/telephones-mobiles/blancs/galaxy-s5.html
A chaque fois notre fiche se munit d’une adresse supplémentaire qui est un doublon complet.
Solution:
Si vous vendez des produits qui sont capables d’être regroupés de manières différentes (par exemple les cadeaux peuvent être catégorisés par type, destinataire, occasion, matière, forme etc.) il y a 2 solutions:
- oubliez les catégories dans les urls: www.exemple/catalog/galaxy-s5.html (exemple: Fnac)
- ne laissez que la catégorie racine: www.exemple/catalog/telephones-mobiles/galaxy-s5.html (exemple: Pixmania)
Ainsi, pourrez-vous plus tard rajouter autant que vous voulez d’autres catégories sans avoir peur de générer du contenu dupliqué.
Pagination
On parle beaucoup de l’importance de travailler la longue traine, souvent associée aux fiches produits, mais contre toute la logique on continue souvent de fermer sa pagination par les directive sappropriées dans robots.txt, via les variations de la meta robots, via la rel=”canonical” ou encore par l’attribut rel=”nofollow”. On en trouve de tout! D’un côté on veut positionner ces fiches produits, mais en même temps on limite la lecture du catalogue par le moteur…
Ouvrez votre pagination, laissez GoogleBot crawler librement votre catalogue produits. Il y a des solutions tout à fait clean pour l’optimiser, par exemple avec les attributs rel=”prev” et rel=”next”. Si vous avez un texte descriptif sur votre page de listing, faites l’apparaître uniquement sur la page racine de la catégorie. Ajoutez des petits queues dans vos title et meta descriptions pour ne pas avoir de doublons dans Google Webmasters Tools.
Pagination classique vs chargement « lazy loading»
Autre chose que je regarde un peu de travers c’est le remplacement de la pagination classique (1, 2, 3…) par le chargement (automatique ou par clic) d’un paquet de produits une fois la fin de la page est atteinte. Technologie appelée en anglais Lazy loading – bien à la mode maintenant. Mais de nouveau ça se fait via Javascript et Ajax qui dernier un joli look cachent des barrières pour un crawler.
Solution possible conseillée par Google est de créer un lien “Afficher tout” qui ne marche forcément pas sur les gros volumes.
Meta Noindex vs rel=”canonical”
Dans le SEO je distingue des travaux destructifs et constructifs. Les premiers ne font que limiter l’accès à certaines choses sur le site, les seconds le font aussi, mais en même temps permettent de rajouter quelque chose en plus.
Je parle en particulier du choix entre la balise Meta Robots avec la valeur noindex et l’attibut rel=”canonical” de la balise <link>.
Imaginons que sur votre site marchand vous avez un filtre classique, donc qui doit être interdit à lire par le robot de Google. En mettant en place la ligne meta name=”robots” content=”noindex, nofollow” vous faites bien car communiquez au GoogleBot la commande “ne pas indexer ce contenu”. A son tour GoogleBot obéït et désindexe ce que vous lui dites.
Mais il se retrouve un utilisateur lambda qui sur un forum ou sur Facebook laisse un commentaire genre “Tu cherchais un télé blanc pour la cuisine de ta maman? Ici il y en a un bon choix” et pose un lien menant aux résultats de votre listing où les items sont filtrés par la couleur blanche.
Si les résultats du filtre sont désindexés, ce lien sauf visites ne vous donnera plus rien.
Autre méthode, peut-être plus judicieuse, serait d’utiliser l’attribut rel=”canonical” qui permettra de coller une page (un groupe de pages) à une autre, n’en laissant dans l’index du moteur que la page de destination, mais aussi en transférant du poids (du jus / du Pagerank) éventuel de la première page. A croire Google, le rel=”canonical” fonctionne un peu comme la redirection permanente. Alors, pourquoi pas en tirer un petit profit?)
Fichiers de scripts et de styles
On a appris cette année que GoogleBot lors de son analyse se met à reconstituer chaque page comme si c’était un internaute humain. Afin qu’il puisse le faire correctement, rassurez-vous que les directives de votre fichier robots.txt ne bloquent pas l’accès aux fichiers importants utilisés dans la génération de la page comme ceux de scriptes (.js) et styles (.css).
Pour voir si Google traite votre page correctement servez-vous de l’outil “Explorer comme Google” dans Google Webmasters Tools.
Fiches produits temporairement absents
Imaginons que vous vendez des iPhones 6 (ou des Galaxy 5). Vous avez rédigé une belle description, créé des pages de support, attiré des liens (car la requête est concurrentielle). Soudainement votre stock devient épuisé (par exemple suite à un problème du côté de fournisseur), votre CRM envoie le statut “absent” et votre jolie page disparait du site en donnant le statut 404.
A son tour Googlebot ne trouve plus nécessaire de garder votre page dans ses résultats de recherche. Une semaine après le problème de stock est résolu, mais la page n’est plus positionnée.
Ici il y a des variantes comment agir. Je vais dire la mienne.
Si le produit est temporairement absent:
- Laisser tout de même la page sur le site.
- La page doit retourner le statut 200 ok.
- Afficher un message que ce produit est temporairement indisponible.
- Proposer au visiteurs de laisser leurs contacts pour les notifier de la disponibilité du produit.
- Afficher des alternatives (semblables / best-sellers / bon plans).
Evidemment, si vous ne pensez plus jamais vendre ce produit, il faut le supprimer définitivement du site.
Bon, pour le moment c’est tout!
Chers amis, si vous avez des choses à ajouter, ou vous procédez autrement, je serai ravi de lire vos commentaires ci-dessous!
J’applique tout ce que tu dis sauf pour les produits hors stock. Ta des exemples du capping email sur un produit épuisé ? Je dois y mettre en place pour un site client mais je n’ai pas trop d’idées pour la mise en forme.
Et pour mettre les produits associés tu y cloake pour google ? Si non ta pas peur de perdre des positions sur le nom du produit ?
Salut,
Merci pour l’article, cool et bien construit !
Je voudrais revenir sur la pagination. Je suis entièrement d’accord pour laisser le bot crawler, du coup toi tu met les pages : /page2 /page3 en “noindex, follow”, ou tu les laisses s’indexer ?
Et pour la partie noindex vs canonical, quand tu as un site avez des paramètres d’url, tu mets simplement une canonique de l’url avec paramètres vers la page mère ? Ça suffit pour qu’aucun des paramètres ne soient indexé ?
Article bien construit et assez complet… Par contre toutes ses mesures sont assez faciles à mettre en place sur un bon vieux CMS genre prestashop ou magento, mais quand comme moi, on s’occupe de sites fait maison par une agence… ça à s’arracher les cheveux…
J’en ai même un ou je n’ai pas la possibilité de modifier le “title” et “description” depuis le back-office… Perte de temps et belle galère!
Merci pour le partage . Très intéressant .
Les informations pour le boutique en ligne est génial.
Merci pour ce travail formidable .
Bonne journée.
Il y a des choses sur lesquelles je n’ai pas le même avis, bon ça…
Par contre, deux choses à corriger:
– si on a pas de raison spéciale de mettre une page en nofollow, même quand on interdit son >indexationne passait pas de jus<. Le test a été fait par d'autres, donc il peut être reproduit pour vérifier que c'est toujours vrai (tout peut changer):
http://www.seomix.fr/pagerank-repartition-popularite/
Le canonical n'a donc d'utilité que sur une page externe, quand on ne veut pas que le contenu externe passe devant un contenu interne qu'il reproduit. A l'intérieur du site, pour tous les traitements de dédoublonnage, il faut travailler avec de la redirection 301 uniquement (et en évitant de faire plus d'une redirection à la suite, car il y a de la perte).
Et hop, j'ai fait mon intéressant ! 😀
Il y a eu un passage de filtre sur mon commentaire précédent, sans doute pcq j’y avais mis un signe inferieur interpreté comme le début d’une balise.
Mon texte complet, c’est:
Il y a des choses sur lesquelles je n’ai pas le même avis, bon ça…
Par contre, deux choses à corriger:
– si on a pas de raison spéciale de mettre une page en nofollow, même quand on interdit son indexation, on la laisse en nofollow, pas la peine de perdre du jus avec un “noindex,nofollow”, “noindex” suffit (le “noindex,follow” comme dit romain, fait 7 caractéres de plus, donc pas la peine de préciser le follow).
– contrairement à ce qui est dit plus haut, la derniere fois que j’ai fait le test le canonical ne passait pas de jus. Le test a été fait par d’autres, donc il peut être reproduit pour vérifier que c’est toujours vrai (tout peut changer):
http://www.seomix.fr/pagerank-repartition-popularite/
Le canonical n’a donc d’utilité que sur une page externe, quand on ne veut pas que le contenu externe passe devant un contenu interne qu’il reproduit. A l’intérieur du site, pour tous les traitements de dédoublonnage, il faut travailler avec de la redirection 301 uniquement (et en évitant de faire plus d’une redirection à la suite, car il y a de la perte).
Et hop, j’ai fait mon intéressant ! 😀