Vous n'êtes pas identifié(e).
Hello,
je sais pas si je poste au bon endroit étant donné qu'il ne s'agit pas d'une pénalité mais juste d"un ajustement de l'algorithme de GG, n'hésitez à déplacer ce post dans une catégorie plus adaptée si nécessaire.
Vous l'avez sans doute constaté mais GG a revu ses critères de qualité début mai, et donc ajusté son algo en conséquence : http://searchengineland.com/the-quality-update-google-confirms-changing-how-quality-is-assessed-resulting-in-rankings-shake-up-221118
Un de mes sites a été touché, -25% de trafic, et j'ai beau trifouiller les données dans tous les sens je vois pas bien les critères concernés. Donc peut-être qu'en mettant en commun nos données ca permettrait d'y voir plus clair ?
Le site est de type informationnel (tourisme) et possède peu de BL (1000, Trust Flow de 29), pas de BL exotique, pas de BL non naturel hormis quelques vieux annuaires et 2-3 échanges thématiques A-B-C, les pages ont un contenu moyen de 500 mots environ (et plusieurs près de 2000, que du contenu unique et manuel), pages/visites : 1.9, , durée visites : 1mn20, tx rebond moyen : 71%, title/desc uniques. Pas de pub sur les pages les plus touchées, le site en revanche doit clairement être marqué comme affilié mais la pub est loin d'être intrusive et abusive. Pas de popups. Temps de chargement relativement élevé : 3.9s. Environ 1600 partages réseaux sociaux sur l'ensemble du site.
Des pages très similaires ont un comportement totalement différent depuis cette révision de l'algo, par exemple baisse de 60% pour certaines et hausse de 50% pour d'autres alors qu'elles font partie de la même section du site, 0 Bl, avec tx de rebond, pages/visite, temps sur la page, structure et nombre de mots quasi identiques. De la même façon certaines avec des indicateurs UX bons (rebond, pages/temps sur la page etc...) chutent totalement alors que d'autres pages pas top à ce niveau là montent.
Bref j'ai du mal à faire ressortir une réelle logique on page. Y a t-il des points communs avec vos sites touchés qui pourraient mettre en évidence des points clés de cette maj ?
Dernière modification par Kankun (2015-05-19 19:47:54)
🔴 Hors ligne
j'ai eu également des baisses de trafic sur pas mal de sites, sans qu'il y est de vrai logique non plus et le cpc adsense a chuté également ... j'ai même cru a une sorte de maj de pinguoin tellement cela avait l'air de toucher la longue traine et fait baissé le traffic.
Sur des requêtes e-commerce que je suis les sites des trois premières pages font un yoyo permanent quasi toutes les demi journées
Easy Peasy Lemon Squeezy
🔴 Hors ligne
Tient j'aurai parié que la mise à jour mobile était un trompe l'oeil pour passer en douce d'autres MAJ, j'aurai gagné
Chez Google, une maj peut en cacher une autre, voir plusieurs
J'ai remarqué pas mal de yoyo depuis quelques temps également, et j'attendais la mise à jour des pages doorways de pied ferme, je savais qu'ils allaient la passer en douce .... mais à priori y 'en a eu encore une de plus la Quality update.
Arf ce Google rend fou, vivement qu'il se fasse démanteler par l'Union Européenne
🔴 Hors ligne
Hello,
Apparemment très dure à cerner cette maj, même hubpages a tenté de comprendre sans succès http://pauledmondson.hubpages.com/hub/May-Day-2015-Google-Update
C'est que de la théorie, mais je me demande si cette fois ce n'est pas lié réellement à la qualité intrinsèque des contenus. Tu serais d'accord pour partager en privé des pages qui ont perdu du trafic et d'autres qui ont gagné. Je n'ai malheureusement (ou heureusement plutôt) pas de "cobaye" à disposition.
🔴 Hors ligne
Je suis sceptique sur les critères de qualité du contenu, j'ai des pages sans contenus de la ferme de liens avec des liens spammy en footer qui triplent leur trafic via google depuis début mai sans raison valable...
un exemple hxxp://synonymus.fr
🔴 Hors ligne
Je suis sceptique sur les critères de qualité du contenu, j'ai des pages sans contenus de la ferme de liens avec des liens spammy en footer qui triplent leur trafic via google depuis début mai sans raison valable...
un exemple hxxp://synonymus.fr
Je suis un peu surpris, j'ai jeté un œil aux stats de synonymus.fr mais tu ne trouves pas qu'il a pas suffisamment de trafic pour être soumis à un banc d'essai non ?
D'ailleurs si on regarde bien le peu de trafic que tu avais n'a pas été multiplié par trois, mais divisé par trois depuis l'update http://suite.searchmetrics.com/en/research/domains/visibility?url=synonymus.fr&cc=FR
🔴 Hors ligne
Je suis sceptique sur les critères de qualité du contenu, j'ai des pages sans contenus de la ferme de liens avec des liens spammy en footer qui triplent leur trafic via google depuis début mai sans raison valable...
un exemple hxxp://synonymus.fr
C est le cas typique que voulait cibler la maj doorway pour tout ces types de contenus qui ciblent un tas de kW en footer (sites de plomberie....)
Si le trafic a augmente c est peut être un effet de bord mais c est intéressant . Aurais tu des chiffres a communiquer sur le trafic envoyé depuis Google?
🔴 Hors ligne
treps a écrit :Je suis sceptique sur les critères de qualité du contenu, j'ai des pages sans contenus de la ferme de liens avec des liens spammy en footer qui triplent leur trafic via google depuis début mai sans raison valable...
un exemple hxxp://synonymus.frC est le cas typique que voulait cibler la maj doorway pour tout ces types de contenus qui ciblent un tas de kW en footer (sites de plomberie....)
Si le trafic a augmente c est peut être un effet de bord mais c est intéressant . Aurais tu des chiffres a communiquer sur le trafic envoyé depuis Google?
C'est très faible hein, faut pas rêver ce genre de sites n'apporte pas grand chose, on était à 150/200 visiteurs uniques par jour et là on tourne à 5/600 depuis le 30 avril.
L'utilité de ce genre de sites c'est de pouvoir faire connaitre un site très vite à google, avec plus de 35 000 pages dans l'annuaire Google en crawle en moyenne un peu plus de 1000 tous les jours.
Ce qui est amusant c'est que Google doit quand même avoir du mal avec ce genre de sites, parce que le taux de rebond n'est que de 57%, que le nombre moyen de pages vues par visite est de presque 4 (du à l'aspect "ludique" tu cliques sur un mot qui te donne les autres synonymes et ainsi de suite) et que le temps passé de l'ordre de 2m30 et en cas de manual review tu ne peux pas contester que ce n'est pas un site utile aux internautes en réponse à un besoin précis ^^
🔴 Hors ligne
D'ailleurs si on regarde bien le peu de trafic que tu avais n'a pas été multiplié par trois, mais divisé par trois depuis l'update http://suite.searchmetrics.com/en/research/domains/visibility?url=synonymus.fr&cc=FR
C'est dans ce genre de cas où l'on peut se poser des questions sur la validité de ce genre de metrics très loin de la réalité...
🔴 Hors ligne
probablement un classifieur qui a appris les jugements humains, c'est exactement ce qu'on fait dans l'étude webspam.
Tant va la loutre à l'eau qu'à la fin elle se mouille...
🔴 Hors ligne
C'est dans ce genre de cas où l'on peut se poser des questions sur la validité de ce genre de metrics très loin de la réalité...
Je suis d'accord avec ça, d'ailleurs je suis pas un extrémiste des métriques.
Si on a du mal à faire confiance aux métriques, les tendances sont rarement trompeuses
🔴 Hors ligne
probablement un classifieur qui a appris les jugements humains, c'est exactement ce qu'on fait dans l'étude webspam.
Est-ce que cela signifie que l'on pourrait confirmer ou infirmer ton hypothèse en étudiant le comportement utilisateur sur les pages touchées ?
🔴 Hors ligne
le site sort sur plus de 1500 recherches du type "synonyme mot" ou "synonyme de mot", dont plus de la moitié en page 1 et avec une position moyenne pour l'ensemble des recherches à 11,2 (d'après GWT), quand eux me sortent 1 seul résultat de recherche je trouve ça un peu faible qd même et un peu juste pour en déduire une tendance, en fait le trafic est très lié aux mots fléchés du jour et donc les mots recherchés changent fréquemment.
Je vous tiendrai informé des changements de tendance sur ce genre de sites si ça vous intéresse.
🔴 Hors ligne
le site sort sur plus de 1500 recherches du type "synonyme mot" ou "synonyme de mot", dont plus de la moitié en page 1 et avec une position moyenne pour l'ensemble des recherches à 11,2 (d'après GWT), quand eux me sortent 1 seul résultat de recherche je trouve ça un peu faible qd même et un peu juste pour en déduire une tendance, en fait le trafic est très lié aux mots fléchés du jour et donc les mots recherchés changent fréquemment.
Je vous tiendrai informé des changements de tendance sur ce genre de sites si ça vous intéresse.
Ok Treps, merci pour ces explications. C'est effectivement un site particulier, d'ailleurs cela me rappelle un partage récent fait par Davidc1 sur le forum
Tes mots clés changent continuellement, les pages de destination aussi j'imagine. Difficile d'étudier le comportement utilisateur pour une page précise, est ce que tu as pu analyser quoi que ce soit dans ce sens là ?
🔴 Hors ligne
Ok Treps, merci pour ces explications. C'est effectivement un site particulier, d'ailleurs cela me rappelle un partage récent fait par Davidc1 sur le forum
Tes mots clés changent continuellement, les pages de destination aussi j'imagine. Difficile d'étudier le comportement utilisateur pour une page précise, est ce que tu as pu analyser quoi que ce soit dans ce sens là ?
Oui c'est très difficile d'étudier le comportement des utilisateurs pour une page, et ça n'a probablement pas beaucoup de sens non plus, la seule qui ressort régulièrement c'est "raie cornue" (sans doute un truc de cruciverbistes) et sa fréquentation est proportionnelle aux visites du site et représente toujours en gros entre 8 et 12% des visites, pour le reste c'est aléatoire d'un jour sur l'autre avec beaucoup de pages vues juste 2 ou 3 fois par jour.
C'est pour ça que je ne raisonne que de façon globale sur celui là, et franchement pour un truc codé en moins d'1h il y a 5 ans je ne me pose pas trop de questions non plus, ma remarque initiale portait surtout sur le fait que si le filtre google prenait en compte le contenu et bien là ils étaient encore passé à côté de la plaque sur ce genre de sites
🔴 Hors ligne
ma remarque initiale portait surtout sur le fait que si le filtre google prenait en compte le contenu et bien là ils étaient encore passé à côté de la plaque sur ce genre de sites
Je comprends bcp mieux ta remarque maintenant, mais en revanche cibler la qualité du contenu ça ne veut pas forcément dire "pénaliser" les sites qui n'ont que du contenu très maigre. Là tu as l'exemple parfait du truc qui répond à un besoin sans avoir un roman sur la page. Autre argument, le "thin content" est propre à ta SERP, j'imagine que c'est le même topo pour la plupart de tes concurrents non?
🔴 Hors ligne
Sylvain a écrit :probablement un classifieur qui a appris les jugements humains, c'est exactement ce qu'on fait dans l'étude webspam.
Est-ce que cela signifie que l'on pourrait confirmer ou infirmer ton hypothèse en étudiant le comportement utilisateur sur les pages touchées ?
Tout à fait, les pages impactées devraient être des pages qui avant le passage du phantom avaient des métriques d'engagement utilisateurs mauvaises.
Tant va la loutre à l'eau qu'à la fin elle se mouille...
🔴 Hors ligne
Je viens de passer un peu de temps à tenter de faire ressortir quelques tendances en épluchant les métriques de Screaming Frog sur les pages du site touché (Taille du Title, du H1, Inlinks, liens externes, level, bref toutes les colonnes de Screaming Frog) : résultat aucune logique. Les pages partagent toutes des critères communs qu'elles montent ou qu'elles descendent.
J'ai également jeté un œil aux changements de requètes tels qu'ils sont donné dans GWT en comparant les positions du 04/05 au 17/05 à la période précédente. Là encore aucune logique. Je disparais sur des mots clés principaux sur certaines pages mais pas sur d'autres qui sont "identiques", même topo pour les requètes secondaires.
J'ai bien sûr vérifié l'emplacement des mots clés principaux et secondaires dans les headers, le texte, title ou liens internes (liens sur la page et bls internes) pour voir s'il y avait une récurrence parmi les pages qui gagnent des places ou celles qui descendent mais j'ai rien vu de particulier.
Il y a certaines pages du site que je considère comme "pourries" dans le sens où je m'en suis pas occupé depuis un bout de temps et le contenu est peu travaillé, et qui pourtant montent bien. Mais d'autres qui sont dans le même cas (+ dans la même section du site et très proches hormis le contenu) descendent. Bref, c'est le chaos
Je pense que le changement doit se baser sur des métriques qu'on n'a pas comme par exemple en comparant nos données à celles des concurrents. Notamment le comportement de l'utilisateur pour deux pages concurrentes.
Autre piste : il serait bien de pouvoir comparer les métriques utilisateurs (tx de rebond, pages/visites...) pour chaque requète malheureusement je suis limité à ce que nous fournit GA. J'essaierai de croiser les données dans la semaine avec les quelques requètes GA que j'ai et les variations de positions de GWT. Je me suis pas penché sur les backlinks non plus mais je pense pas du tout que ce soit ca vu la façon anarchique dont les pages sont touchées. En tout cas pour l'instant pas évident de faire ressortir grand chose on page, c'est bien caché !
🔴 Hors ligne
yop moi aussi baisse des visites mais c' était des sites qui choppaient des vidéos youtube en auto via l api v2 et la v3 étant passé ben c'est mort, mais j'ai mis du temps à capter ! donc rien à voir avec le sujet !!!
🔴 Hors ligne
Je pense que le changement doit se baser sur des métriques qu'on n'a pas comme par exemple en comparant nos données à celles des concurrents. Notamment le comportement de l'utilisateur pour deux pages concurrentes.
Pas nécessairement, comme il s'agit probablement d'un arbre de classification, l'interaction entre les métriques est ce qui fait le job. En regardant les métriques une par une, on peut ne rien voir alors qu'il se passe quelque chose.
Autre piste : il serait bien de pouvoir comparer les métriques utilisateurs (tx de rebond, pages/visites...) pour chaque requète malheureusement je suis limité à ce que nous fournit GA.
C'est plus que probablement utilisé. J'ai écrit un article il y a 2 mois pour abondance sur le sujet, on voit que prendre en compte ces métriques a une incidence très forte sur la qualité des résultats (un effet plus fort que l'analyse sémantique par exemple).
Tant va la loutre à l'eau qu'à la fin elle se mouille...
🔴 Hors ligne