Vous n'êtes pas identifié(e).
Bonjour à tous,
je suis inscrite sur le forum depuis un bout de temps mais c'est la première fois que je crée un sujet car là j'ai vraiment besoin d'aide au sujet de l'indexation de mon dernier site web et que je ne m'en sors pas toute seule... :')
Pour résumer le pb : j'ai lancé le site il y a bientôt un mois, mais pour le moment Google n'a tjs pas indexé mes pages "principales", alors qu'il en a indexé certaines qui n'ont presque pas de contenu, et qu'à priori il crawle le site régulièrement puisque cette semaine j'ai remarqué qu'il avait déjà indexé une page de membre qui n'existait que depuis quelques heures... oO
Le site : jaimemasalledesport.com
Il s'agit d'un site d'avis sur les salles de sport. Il est basé sur wordpress + développement PHP & MySQL pour les pages d'annuaire (pages "départements", pages "villes", et pages "salles de sport") mais aussi pour des pages de contenu (pages "activités sportives" comme l'aérobic, la zumba etc...; pages "equipement" avec les accessoires de sport que l'on peut acheter etc...).
Le problème : J'ai l'impression que jusqu'à présent il indexe plus facilement les pages natives wordpress comme les qq articles du blog et les pages des membres (alors que par exemple les pages membres n'ont quasiment pas de contenu); et qu'il n'indexe au contraire qu'une ou deux page de mes autres types de contenu en base de données que je considère pourtant comme mes pages "principales" et qui ont bien plus de contenu...
Google a aussi commencé à indexer pas mal de pages "activité + ville" (exemple Zumba à Nantes) alors que là aussi elles figurent parmi celles qui ont le moins de contenu...
A noter qu'au lancement j'avais listé toutes mes pages sur des sitemaps séparés (car bcp, bcp de pages "activité + ville"), au fur et à mesure que je me suis rendue compte que l'indexation déconnait, j'ai essayé de l'empêcher d'aller se perdre sur mes milliers de pages "activité + ville" pour qu'il se concentre sur les pages "principales" mais cela n'a pas l'air de fonctionner : j'ai passé presque tous les liens du footer en nofollow pour qu'il ne perde pas de temps à crawler tjs les mêmes pages, j'ai passé les liens des pages "activité + ville" en nofollow aussi, je les ai même viré du sitemap, j'ai rajouté dans la page "plan de site" en HTML (disponible dans le footer) les accès en direct aux pages de contenu car j'ai pensé que le chemin d'accès était peut être trop long pour lui... mais pour l'instant pas d'amélioration...
Il y a une semaine il est monté d'un coup à 1500 pages indexées (mais presque que des pages "activité + ville"), du coup c'est à ce moment là que j'ai passé mes liens "activité + ville" en nofollow et le lendemain c'est retombé à 700 (mais ça n'a ptete rien à voir), et là on est redescendu à 200 pages (nb de résultats qd je fais site:jaimemasalledesport.com) alors que j'ai au moins 6000 pages géo qui n'attendent que d'être indexées...
Au tout début je me suis dit que j'étais dans la sandbox, que je devais être patiente.... puis je me suis dit que mes pages géo n'avaient pas assez de contenu donc j'étais en train d'en préparer pour compléter mes pages, mais il y a qq jours je me suis rendue compte qu'il avait réussi à indexer la page d'un membre créé il y a qq heures seulement et qui était quasiment vide... du coup là je n'y comprend plus rien
En plus, sur la Search Console (ancien GWT) j'ai tjs les stats en décalage de 2 ou 3 jours et les chiffres ne correspondent pas, donc je ne suis pas aidée... j'ai aussi remarqué au début que j'avais des erreurs 503 et 520 (erreur serveur) du coup je me suis dit que mon hébergement tenait pas la charge qd il essayait de crawler donc je suis passée au niveau au dessus mais il y a quelques jours j'ai vu de nouvelles erreurs 503 et 520... bref, là je commence vraiment à ne plus avoir d'idées pour corriger le tir...
Voilà, j'ai fait de mon mieux pour que mon explication soit à peu près claire, si vous avez des questions pour éclaircir le sujet hésitez pas, et si vous avez des pistes à creuser ce serait top parce que là je commence à désespérer... :')
Exemple de pages qui devraient être indexées (alors qu'il y en a seulement une ou deux qui se battent en duel dans les SERP) :
site:jaimemasalledesport.com/dep/ => 95 pages normalement
site:jaimemasalledesport.com/ville/ => 3000 pages
site:jaimemasalledesport.com/salle/ => 3000 pages aussi
site:jaimemasalledesport.com/enseigne/ => 45 pages
...
A noter que pour l'instant je n'ai pas du tout travaillé le linking (j'ai soumis dans 2 ou 3 annuaires mais ce n'est pas encore validé) donc je n'ai aucun backlink... mais si j'ai bien compris les backlinks m'aideraient surtout en terme de positionnement et pas pour l'indexation ? (à part peut être pour qu'il vienne plus rapidement sur des pages toutes fraiches, mais là mes pages ont presque un mois...)
Ce qui est terrible c'est que dans mon ancien boulot, on a fait plusieurs sites sur ce modèle, à chaque fois on avait aucun backlink et de mémoire on s'indexait sans souci et on rankait sur la longue traine rien qu'avec le volume des pages et le maillage interne... mais c'était pas sur un dev à partir de wordpress, et l'hébergement était sur un serveur dédié et pas du mutualisé... est-ce que ça peut venir de là ?
BREF, toutes les pistes à creuser et idées d'amélioration sont les bienvenues... parce que moi je commence à sécher
Merci d'avance de votre aide, je croise les doigts pour que mon ou mes sauveurs soient parmi vous
Julie
🔴 Hors ligne
Les backlinks servent également à Google pour "trouver" ton site, et venir le crawler, donc ensuite l'indexer.
Avec quasi zéro lien, ça ne va pas bouger très vite.
🔴 Hors ligne
Hello,
Fais des BL dans un premier temps.
Dans un 2eme temps passe en noindex tes pages pages villes qui sont à priori pauvres (et en DC de ce que je vois)
Règle tes problèmes de 50x
Le contenu pauvre/dupliqué + les erreurs sur un site qui n'a pas de BL ça ne doit pas plaire au crawler
Jérôme - Générer des revenus avec les NDD expirés (formation) | Blog perso jeromeweb.net
🔴 Hors ligne
J'ajouterai aussi de mettre une priorité plus importante dans tes sitempas sur les pages concernées pas ce problème d'indexation. Actuellement elles ont toutes les mêmes prios.
Dernière modification par Makmanuss (2016-02-21 11:34:34)
🔴 Hors ligne
J'ajouterai aussi de mettre une priorité plus importante dans tes sitempas sur les pages concernées pas ce problème d'indexation. Actuellement elles ont toutes les mêmes prios.
Oublie ça sert plus à rien ça depuis longtempts
Jérôme - Générer des revenus avec les NDD expirés (formation) | Blog perso jeromeweb.net
🔴 Hors ligne
il nya pas de partage sur les réseaux sociaux sur votre site
🔴 Hors ligne
Salut Julie,
Dans ton search console, as tu poussé tes pages d'entrées Ville/Dpt/Enseigne et ta home (en gros les pages d'entrées qui listent ensuite les autres) avec explorer comme Google? Vu ton volume de page et la notoriété non existante, il se peut que ça traine. N'hésite pas à le faire plusieurs fois par jour.
Quand j'essaye de crawl ton site avec Screaming Frog, bizarrement, connection refused...voit côté serveur et/ou ton certif Https.
J.
🔴 Hors ligne
Ah oui ? Meme pour un site à gros volume ?
Je connais un paquet de gros sites qui n'utilisent plus les sitemaps, à part pour comparer url soumises et url indexées (= pas pour l'indexation)
Tes priorités elles se font via la profondeur de clic, maillage interne et Bl..."naturellement" :-)
Jérôme - Générer des revenus avec les NDD expirés (formation) | Blog perso jeromeweb.net
🔴 Hors ligne
Salut,
Quelles sont tes pages "principales" qui ont un problème d'indexation, tu peux dire où les trouver ou bien donner des exemples car je ne suis pas sûr de savoir desquelles tu parles ?
🔴 Hors ligne
Makmanuss a écrit :Ah oui ? Meme pour un site à gros volume ?
Je connais un paquet de gros sites qui n'utilisent plus les sitemaps, à part pour comparer url soumises et url indexées (= pas pour l'indexation)
Tes priorités elles se font via la profondeur de clic, maillage interne et Bl..."naturellement" :-)
Ok ,merci pour ces explications qui tombent sous le sens .
🔴 Hors ligne
il y a toujours un décalage dans search console.
Combien de pages google expolre-il page jour ?
Combien de pages sont indexées ? Il y a une grande différence avec la commande site: ?
Si sur une page ville, tu fais explorer comme google, le rendu est pareil ?
Si tu pousses pour soumettre à l'indexation, la page apparait-elle ?
Les erreurs serveur font fuire les robots.
Est-ce qu'une page detectée comme une erreur en est vraiment une ?
si non, les marques-tu comme corrigée ?
Apres il te reste à faire de l'analyse de logs
🔴 Hors ligne
Merci bcp à tous pour ces quelques pistes
Pour répondre à ta question T5hak, mes pages principales sont par exemple :
1) les pages "département" => jaimemasalledesport.com/dep/ardennes/
2) les pages "ville" => jaimemasalledesport.com/ville/paris/
3) les pages "salle de sport" => jaimemasalledesport.com/salle/accro-forme-paris/
4) les pages "enseigne" => jaimemasalledesport.com/enseigne/amazonia/
5) les pages "activités" => jaimemasalledesport.com/activite/aquabike/
Pour les types de pages 1 à 3, c'est du contenu spinné, mais j'avoue que j'étais restée light sur le volume parce que le spin à la main me saoule rapidement et que je ne savais plus quoi raconter... du coup je m'étais dit que "ça irait bien"... mais peut être que non en fait
Je pense que cette semaine je vais préparer du contenu pour compléter ces pages, ça ne peut pas faire de mal en tous cas...
Je vais essayer de pousser aussi mes pages d'entrée comme tu dis J3R, j'avais poussé plusieurs fois la page "plan de site" HTML (dans le footer) sur laquelle j'ai essayé de ramener toutes les pages principales en direct mais pour l'instant ça n'avait pas changé gd chose....
Pour ce qui est du serveur je suis sur un hébergement mutualisé OVH Performance1 et j'ai aussi cloudflare en gratuit qui est "censé" optimiser mes contenus (javascript, css etc...) mais peut être que mon hébergement est sous-dimensionné ??
Là où je ne comprend pas la logique c'est que des pages sans contenu sont indexées en qq heures sans que je demande rien (exemple jaimemasalledesport.com/membres/poisson89/) alors que celles que j'essaye de lui faire indexer sont snobées depuis 1 mois... c'est ça qui me tracasse le plus... >_<
du coup j'en étais arrivée à psychoter sur le fait que les pages "natives" de wordpress s'indexaient et pas celles que j'avais créé dynamiquement avec ma base de données à cause peut être d'un problème technique dans le code source... mais j'ai beau chercher je ne vois pas ?
Bref, ma priorité cette semaine : contenu en + et liens depuis quelques annuaires "de qualité"... et puis croiser les doigts et serrer les fesses
Si la semaine prochaine ça n'a tjs pas bougé je verrais ptete pour changer d'hébergement... si vous avez des bons plans à me conseiller hésitez pas
D'ici là, si vous avez d'autres pistes, je prends !
Bonne fin de week end à tous
🔴 Hors ligne
Argh je mets tjs 3h à écrire mes msg du coup j'ai croisé le tien Razbithume !
Alors pour tes questions :
1) Combien de pages google expolre-il page jour ?
A priori il explore entre 200 et 1000 pages par jour sur la dernière semaine, mais le 11/02 il en a exploré 29 000 (et déclenché 25 erreurs 503 ou 520) et le plus gros pic c'était le 24/01 où il a exploré 41 000 pages (quasiment tout le site du coup) et là aussi il avait fait une vingtaine d'erreurs...
J'ai vérifié ces pages et pour moi elles s'affichaient nickel, j'en ai déduit que c'était le serveur qui tenait pas les gros crawls, et du coup je les ai mises en "corrigé" à chaque fois
2) Combien de pages sont indexées ? Il y a une grande différence avec la commande site: ?
là il me dit que le 14/02 il en avait 1123, mais ça doit correspondre au gros pic que j'avais la semaine dernière où avec la commande site: j'étais montée à 1500 résultats dans les SERP... aujourd'hui qd je fais site: j'ai 189 résultats (il désindexe peut être les pages qu'il considère trop pauvres en contenu, mais alors pourquoi il garde ces satanées page "membre" alors qu'il n'y a rien dessus (grrrr))
3) Si sur une page ville, tu fais explorer comme google, le rendu est pareil ?
J'ai envoyé la page "Paris", à priori l'affichage est OK il n'y a que le script Adsense qui déconne (^^) mais pour le reste ma page est conforme....
4) Si tu pousses pour soumettre à l'indexation, la page apparait-elle ?
je viens juste de le faire pour la page "Paris", je vais voir dans les jours qui viennent si elle s'indexe...
5) Est-ce qu'une page detectée comme une erreur en est vraiment une ? si non, les marques-tu comme corrigée ?
Du coup j'avais déjà répondu, quand j'allais voir les pages par moi même ça marchait nickel, donc à mon avis c'est un ralentissement du serveur au moment du crawle complet... je les ai toutes marquées en "corrigé"...
Pour l'analyse de log, j'ai essayé d'installer Watussibox en gratuit mais j'avais eu un msg d'erreur, je me suis dit que c'était le https qui devait bloquer qqch, mais j'avoue que j'avais pas creusé donc il va falloir que je reessaye de l'installer histoire d'avoir effectivement une meilleure idée de ce que Google fait qd il vient me voir...
Voilou, affaire à suivre, et merci en tous cas pour tes remarques Razbithume
🔴 Hors ligne
Le backlink, oui forcément c'est important, mais pas nécessairement pour faire indexer ton site plus vite, surtout si ton spot où tu le poses est lui même difficilement indexable...l'annuaire de base reste lui intéressant...mais pour moi le BL n'est pas une réponse légitime à une problématique d'indexation...plus de positionnement.
Explorer comme Google est la base pour lancer un premier crawl, voir même plusieurs, de ta home, de tes pages importantes, de tes pages profondes, quand tu lances ça, tes pages sont censées être dans l'index dans les minutes qui suivent.
Concernant ton serveur, Flagfox me détecte ton cloudfare avec une IP US (https://iplookup.flagfox.net/?ip=104.31.68.61&host=www.jaimemasalledesport.com)...je n'utilise pas ce genre de système donc je laisse les experts en la matière répondre.
Si tu as une problématique de chargement, commence déjà avec un plugin de cache gratuit ou payant (wprocket).
J.
🔴 Hors ligne
Ah ça me rassure ta remarque J3R car justement il me semblait bien que le linking impactait surtout le "positionnement" et pas forcément la vitesse de l'indexation...
Je viens de faire "explorer comme Google" sur quelques unes de mes principales pages, je vais voir si elles s'indexent ou pas... à noter que la page Paris que j'avais envoyé hier après-midi n'est pour l'instant pas indexée.
Pour ce qui est de Cloudflare je ne sais pas si cela pose pb que l'ip soit aux usa, ils en parlent ici mais la réponse n'est pas très claire : http://forum.webrankinfo.com/cloudflare-referencement-americaine-t171309.html et http://forum.webrankinfo.com/impact-cdn-cloudflare-sur-referencement-t154600.html
A noter qu'en parallèle j'utilise aussi le plugin WP rocket (à priori c'est complémentaire et pas forcément redondant avec Cloudflare)...donc ce sera peut être dans mes pistes à creuser, je vais ptete faire un essai d'une semaine sans cloudflare et avec juste mon plugin de cache wp rocket... l'ip reviendrait en France au moins... ?
BREF je vous tiens au courant !
🔴 Hors ligne
Pas d'accord. La base de google c'est son bot, son bot fait quoi? il va de lien en lien pour scanner les pages. S'il trouve 50 liens allant vers ton site, il a 50 chance de venir le visiter, alors que sans lien ben faut jouer avec la search console, le browser et autre artifice.
C'est de la logique pure, après bien évidemment que les liens sont la faille/base de l'algo pour le positionnement, mais pas uniquement.
🔴 Hors ligne
Cherubin m a devancé, je partage la même pensée que lui. Les liens permettre à Google de connaître d indexer une page si il ne la connaît pas, puis de la positionner et la classer selon sa thématique et pertinence par rapport à d'autres pages similaires.
🔴 Hors ligne
Comme le dise Cehrubin et Makmanuss, les backlinks vont aider le site à s'indexer plus rapidement. Une page profonde qui recevra un lien depuis une page crawlée par Google (donc pas trop pourrie) sera plus vite indexée.
Après globalement, quand tu as un site avec plusieurs milliers de pages et avec quelques niveaux de profondeurs, il faut se dire que plus ton site sera populaires via l'obtention de backlinks, plus Google accordera un temps de crawl important pour ton site et plus il crawlera de pages profondes de ton site et donc les indexera (si pages pas trop pauvres et uniques).
🔴 Hors ligne
Sinon en onsite, quelques remarques :
- Ta page d'accueil pourrait faire des liens vers chaque page département salle de sport (même via une carte de France à la leboncoin type <map><area>), voir peut être créées des pages région qui viendrait au dessus des pages départements. Ca permettrait de répartir équitablement le jus vers les différentes zones géographiques depuis la page d'accueil
- Sur la page d'accueil faire aussi des liens vers les pages /activite/ sans zone géographique associée (ou les principales) pour répartir aussi équitablement le jus depuis la page d'accueil
- Toutes tes pages qui ont un système de contenu visible via onglet JS comme https://www.jaimemasalledesport.com/enseigne/amazonia/, il vaudrait mieux afficher les contenus et liens importants sans avoir à cliquer sur chaque onglet, en utilisant un système de "top menu bar sticky" si tu tiens absolument à avoir un système d'onglets. En fait le contenu caché "serait" potentiellement dévalué (je n'ai pas fait de tests poussés la dessus) mais vu qu'il y a des systèmes pour éviter de prendre ce risque, je préfère que tout contenu important soit directement visible. Leroy Merlin fait ça très bien sur ces fiches produits.
- Dans la Search console > trafic de recherche > ciblage international est-ce que tu as associé ton domaine à la France (vu que tu as un .com) ?
- Dans Exploration > statistique sur l'exploration, c'est quoi ta moyenne de temps de chargement d'une page ?
🔴 Hors ligne