Vous n'êtes pas identifié(e).
Bonjour,
Une petite question me perturbe.
Quel est le poids sur le référencement de l'indexation des pages de catégories de produit avec les attributs des filtres ?
Je m'explique : la search console m'indexe toutes les variante possible de mes pages avec les attribut des produits, ce qui me génère plus de 5500 pages dans l'indexe, en sachant que j'ai 1600 produits à peu prêt.
Exemple de page : https://monsite.com/plaques-plexi-pmma-pvc?q=Transparence-Transparent/Couleur-Rouge/Aspect-Lisse
Je me demande si cela peut être positif ou négatif avec le duplicate content. j'ai la possibilité de bloquer par le robot.txt le scrall de ces variantes. malheureusement j'ai trouvé la méthode tardivement.
Alors dois-je laisser google continuer ou le bloquer et demander la désindexation des pages (une par une j'en ai pour 10 ans )?
Merci pour votre retour.
🔴 Hors ligne
Salut Manu_Manu95,
La gestion des filtres à facettes SEO peut en effet être un peu pénible, surtout si on récupère un projet en cours de route
99 fois sur 100, tu vas chercher à bloquer les paramètres d'URL générées par tes filtres pour éviter effectivement le duplicate content et le gaspillage de budget crawl. On peut envisager de laisser Google y accéder si certains filtres à facettes sont pertinents (exemple : exemple.fr/pull-hommes.html?couleur=rouge >> si la volumétrie est intéressante et qu'il y a de place, tu pourrais tenter d'indexer cette URL sur la requête "Pull hommes rouge"), mais dans la réalité des faits ça vaut assez rarement le coup.
J'ai pu trouver le site sur lequel tu travaillais et manifestement tes URL de base sont en conflit avec tes url avec ?q= qui s'indexent et qui ne sont pas canonisées. Il est donc plus que temps en effet d'agir sur le sujet :-)
Moralité : un petit Disallow : /*?q= dans ton robots.txt te fera déjà pas mal de bien ! Ce sera plus long à désindexer les URL inutiles, mais au moins tu préserveras du budget crawl plus rapidement
"Yesterday you said tomorrow"
🔴 Hors ligne
bonjour et merci pour cette réponse, nous somme tout à fais d'accord, c'est ce que j'ai mis en place, j'ai demandé au dev du module de recherche comment bloquer l'indexation pour cibler les URLs de recherche et il m'avais donné la même info que toi.
Du coup ma search console c'est arrêté de gonfler :-).
C'est vrais que sur des tubes ou bâton ca peux être pertinent de laisser les couleurs ou la longueur, mais je ne sais pas comment je peux autorisé c'certaine page, ou juste de mon coté je génère l'url et l'envoie dans la demande d'indexation.
Le ref basique (mots clé, densité, nbre de caractère des métas...) ça va je m'en sort, mais tout le coté indexation, gestion d'url... je suis pommé.
ça va rentrer avec le temp :-)
🔴 Hors ligne
C'est en forgeant qu'on devient forgeron
Effectivement il faut assez souvent avoir le soutien d'un dev pour pouvoir travailler le SEO de pages avec un filtre à facettes. Mais si déjà dans un premier temps tu peux éviter le duplicate et la dilution de ton budget crawl en te focalisant sur les pages canoniques de tes rayons, ce serait déjà très positif pour le SEO de ton site (si tu optimises bien la triade contenu/technique/popularité bien sûr )
"Yesterday you said tomorrow"
🔴 Hors ligne
Salut Manu_Manu95,
La gestion des filtres à facettes SEO peut en effet être un peu pénible, surtout si on récupère un projet en cours de route
99 fois sur 100, tu vas chercher à bloquer les paramètres d'URL générées par tes filtres pour éviter effectivement le duplicate content et le gaspillage de budget crawl. On peut envisager de laisser Google y accéder si certains filtres à facettes sont pertinents (exemple : exemple.fr/pull-hommes.html?couleur=rouge >> si la volumétrie est intéressante et qu'il y a de place, tu pourrais tenter d'indexer cette URL sur la requête "Pull hommes rouge"), mais dans la réalité des faits ça vaut assez rarement le coup.
J'ai pu trouver le site sur lequel tu travaillais et manifestement tes URL de base sont en conflit avec tes url avec ?q= qui s'indexent et qui ne sont pas canonisées. Il est donc plus que temps en effet d'agir sur le sujet :-)
Moralité : un petit Disallow : /*?q= dans ton robots.txt te fera déjà pas mal de bien ! Ce sera plus long à désindexer les URL inutiles, mais au moins tu préserveras du budget crawl plus rapidement
+1, très bonne réponse
Après, si les pages sont déjà indexées, il va falloir les désindexer AVANT de mettre à jour le robots.txt.
Pour ça : balise noindex ou canonical vers l'url sans paramètres, et tu attends sagement que Google viennent les crawler. Tu peux accélérer le processus en faisant une demande de désindexation dans la Google Search Console en y ajoutant tes groupes de page à désindexer.
Une fois que c'est désindexé, tu peux bloquer dans le robots.txt si t'as vraiment aucune autre option.
Mais le mieux, c'est encore de faire en sorte que ces filtres n'existent pas sur le site (pas toujours évident) et/ou de faire en sorte que Google ne puissent pas les crawler (obfusquation / filtres en ajax sans rechargement de page/url).
Pour faire en sorte de limiter au maximum les filtres à facettes, il faut qualifier le besoin de l'internaute AVANT de lui balancer un listing produit.
Il y a un site qui fait ça bien et dont je me suis inspiré pour mes sites e-commerce : hxxps://www.adepem.com/
Sur ce site, tu es OBLIGÉ de passer par des "pages sommaires" avant d'arriver sur un listing produit paginé avec des filtres.
Cela représente plein d'avantages :
1. En terme d'UX c'est cool car ton client n'a pas besoin de galérer avec les filtres, il avance naturellement vers le produit qu'il lui faut. Au moment où il se retrouve à faire un choix, il est déjà dans la bonne sous-catégorie, avec peu de produits.
2. D'un point de vue SEO, tu gardes la main sur ce qu'il se passe : chaque page sommaire répond à une requête d'internaute, avec un texte SEO, des balises optimisées, et des liens vers les sous-catégories. C'est une page froide que tu peux éditorialiser, et donc optimiser.
3. En terme de pagination : comme tu as affiné le besoin de l'internaute avant de lui balancer un listing, tu lui proposes moins de produits, donc t'as une pagination qui est + légère.
4. La cerise sur le gâteau : les filtres sur la gauche, qui ressemblent à des filtres à facettes, te font "sauter" d'une catégorie à l'autre. Ils ne génèrent pas tous une nouvelle url non-canonique.
Finalement ça s'approche un peu du fameux concept de silo thématique
Testé et approuvé sur plusieurs sites.
Si ça peut aider
Dernière modification par Wabbajack (2022-09-21 09:17:10)
🔴 Hors ligne
C'est en forgeant qu'on devient forgeron
Effectivement il faut assez souvent avoir le soutien d'un dev pour pouvoir travailler le SEO de pages avec un filtre à facettes. Mais si déjà dans un premier temps tu peux éviter le duplicate et la dilution de ton budget crawl en te focalisant sur les pages canoniques de tes rayons, ce serait déjà très positif pour le SEO de ton site (si tu optimises bien la triade contenu/technique/popularité bien sûr )
OUi cela est compliqué, en tout cas pour moi. Le site est composé de plus de 1600 produits, donc dans chaque catégorie je propose une url canonical vers le produit le plus pertinent, par exemple les plaques transparentes incolores sont proposées en 12 épaisseurs, 3 aspects (lisse, granité et satiné). Donc j'envois le jus de toutes les incolores lisse vers une seule épaisseur, idem pour le granité et idem pour le satiné.
Je pense que c'est la solution pour éviter le duplicate, et chaque pages principales seront travaillées avec du texte diffèrent.
Merci pour le soutien :-)
🔴 Hors ligne
Après, si les pages sont déjà indexées, il va falloir les désindexer AVANT de mettre à jour le robots.txt.
Pour ça : balise noindex + canonical vers l'url sans paramètres, et tu attends sagement que Google viennent les crawler. Tu peux accélérer le processus en faisant une demande de désindexation dans la Google Search Console en y ajoutant tes groupes de page à désindexer.
J'ai déjà fais le blocage sur le robot.txt car les pages indexées augmentaient à vue d'œil. Par contre je ne sais pas comment mettre du no-index et du canonical sur des pages qui sont générées automatiquement, je suis sur prestashop.
Mais le mieux, c'est encore de faire en sorte que ces filtres n'existent pas sur le site (pas toujours évident) et/ou de faire en sorte que Google ne puissent pas les crawler (obfusquation / filtres en ajax sans rechargement de page/url).
Sur ce type de produits les filtres sont important sinon si je suis le principe intérenssant de ton exemple, je me retrouve avec des pages de plus de 50 produits, ce qui deviens compliqué pour le client. (obfusquation / filtres en ajax sans rechargement de page/url) je ne sais pas faire non plus :-)
Pour faire en sorte de limiter au maximum les filtres à facettes, il faut qualifier le besoin de l'internaute AVANT de lui balancer un listing produit.
Il y a un site qui fait ça bien et dont je me suis inspiré pour mes sites e-commerce : hxxps://www.adepem.com/Sur ce site, tu es OBLIGÉ de passer par des "pages sommaires" avant d'arriver sur un listing produit paginé avec des filtres.
Cela représente plein d'avantages :
1. En terme d'UX c'est cool car ton client n'a pas besoin de galérer avec les filtres, il avance naturellement vers le produit qu'il lui faut. Au moment où il se retrouve à faire un choix, il est déjà dans la bonne sous-catégorie, avec peu de produits.
2. D'un point de vue SEO, tu gardes la main sur ce qu'il se passe : chaque page sommaire répond à une requête d'internaute, avec un texte SEO, des balises optimisées, et des liens vers les sous-catégories. C'est une page froide que tu peux éditorialiser, et donc optimiser.
3. En terme de pagination : comme tu as affiné le besoin de l'internaute avant de lui balancer un listing, tu lui proposes moins de produits, donc t'as une pagination qui est + légère.
4. La cerise sur le gâteau : les filtres sur la gauche, qui ressemblent à des filtres à facettes, te font "sauter" d'une catégorie à l'autre. Ils ne génèrent pas tous une nouvelle url non-canonique.
L'idée est intéressante et à creuser, pour éliminer le filtre de transparence dans mon cas (opaque/diffusant/transparent) mais cela m'oblige a créer d'autres sous catégories, cela n'est-il pas déconseiller pour la profondeur ?
Pour mieux ce rendre compte, voici le site : https://plastiquesurmesure.com/
Vos conseils m'aident à y voir plus clair.
🔴 Hors ligne
Je regarderai ton site + en détails quand j'aurais le temps, mais pour la profondeur ce n'est pas un problème. Certes, tes produits seront profonds, mais tes catégories seront niveau 2 ou 3 grand max. Or, ce sont elles qu'on cherche à positionner généralement
En terme de PR, perso je préfère mettre mes produits assez loin pour laisser plus de place à mes catégories.
Pour le canonical et le noindex, c'est vrai que quand on n'est pas dev, c'est chiant. Mais on peut tricher avec GTM
Tiens, regarde ça : hxxps://www.searchviu.com/en/javascript-seo-experiments-google-tag-manager/
Testé et approuvé.
🔴 Hors ligne
Top merci je vais check ça tranquillement.
🔴 Hors ligne
Bonjour, je voulais vous remercier, Le seo remonte petit à petit, c'est pas fou mais le tendance c'est inversée. Encore beaucoup de travail et d'inconnu mais chaques chose en sont temp. Merci pour vos conseils :-)
🔴 Hors ligne
Bonjour, je voulais vous remercier, Le seo remonte petit à petit, c'est pas fou mais le tendance c'est inversée. Encore beaucoup de travail et d'inconnu mais chaques chose en sont temp. Merci pour vos conseils :-)
Avec plaisir, merci pour le retour d'XP, qu'est-ce que tu as pu appliquer finalement ?
🔴 Hors ligne
Bonjour, Merci de demander des news :-).
Pour le retour, j'ai pas encore été au fond des choses, pour le moment, j'ai bloqué l'indexation des pages avec le robot, dans chaque type produits j'envois le jus sur le produits qui se vend le plus (grâce à un petit export des ventes).
Pour le moment je suis toujours dans l'optimisation des fiches produits (métas orientées sur les mots clés définis pour chaque type de produits), c'est très long, je sais qu'en théorie j'ai besoin de m'occuper que des pages concernées par l'url canonique et que les autres pages produits ne seront pas pénalisées par google car l'url lui indique de ne pas les prendre en comptes, mais c'est plus fort que moi. dans le doute que google change sa manière de fonctionner, je préfère que toutes les fiches produits soient optis.
Le positionnement remonte petit à petit concernant les produits que j'ai traités, certains étaient au fond de la 3ieme page google et aujourd'hui en haut de la seconde. c'est long.
L'optimisation du texte des fiches produits n'est pas simple pour mettre en avant du plastique :-), il faut se creuser la tête pour rédiger du texte.
La prochaine étape est de cibler la page concurrentes sur mes requêtes de recherche (mots clés), voir le nombre de fois que la requête est présentes sur la page concurrente et de faire en sorte d'en avoir plus sur ma page toute en gardant un texte et des titres cohérant et clair.
Juste pour les plaques, j'ai pratiquement 90 requêtes cibles. Ce qui me rend fou c'est lorsque je vois leroy merlin en premier sur une requête et qu'elle est présente 4 fois sur la page et que la meta n'est pas opti et que le produit recherché apparait après 5 scrolls de sourie. :-).
🔴 Hors ligne