Vous n'êtes pas identifié(e).
Donc nous serions en train de passer à une nouvelle dimension. De Content is king à User is king. Où on ne maitrise plus totalement les choses même si le 1er peut aider le second.
La plupart de mon entourage ne comprend pas que mon taf soit considéré comme du marketing mais, si on flirtait déjà avec, on entre encore plus dedans avec cette maj de l'algo (si elle renforce bien le poids de ces données utilisateurs). Il s'agira plus seulement de faire du seo, rédiger des articles convenablement mais détecter avant quelles sont leurs attentes. Ou risquer de bosser un peu pour rien. Et compléter ca avec du pur marketing on page pour les retenir et montrer à Google que ca leur plait.
Bon bah je vais mettre des photos de nanas à poil sur toutes mes pages !
Sylvain quand tu parles d'arbre de classification c'est ça : http://www.google.fr/imgres?imgurl=http … e34wLrzsDM?
A mon grand regret je sens que tu vas me dire que c'est ca : http://eric.univ-lyon2.fr/~ricco/cours/ … cation.pdf ...
Dernière modification par Kankun (2015-05-20 22:13:05)
🔴 Hors ligne
D'un autre côté depuis le temps qu'on en entend parler ce serait pas totalement déconnant, et plus difficile à abuser que le linking.
Avec Panda ils ont essayé de limiter les contenus bidons, la riposte était assez facile : génération (manuelle ou auto) de contenu en tenant compte de règles sémantiques
Avec Penguin ils ont joué sur les liens spammy, on sait tous que sur des réseaux bien fait ça reste très facilement spammable à volonté
La prise en compte du comportement utilisateur sera plus difficile à contourner (tx de rebond, temps passé, etc.) et surtout demandera plus de travail que mettre en place des splogs de niveau 3 avec du contenu autogénéré, il va vraiment falloir trouver les moyens de faire rester les utilisateurs sur le site cette fois, et je ne suis pas sûr qu'une photo de chaton ou de femme à poil suffise....
Si c'est le cas, on devrait voir les sites qui proposent des contenus du genre "les 15 pires trucs..." splittés sur 3 ou 4 pages gagner du terrain, non ? Car ces sites doivent avoir un bon taux de rebond (les gens passent à la page suivante), un temps d'utilisation correct (le temps de regarder les images et de lire leur légendes d'1 ligne), et un nombre de pages moyennes par session de l'ordre de 3 ou 4, voire plus si les utilisateurs cliquent sur un autre "top" en bas d'article.
🔴 Hors ligne
@kankun les arbres de classification c'est bien ça, mais l'intuition est ultra simple. Je pense que la plupart des gens qui sont venus à une de nos masterclass pourront te le confirmer.
Concernant le user monitoring (c'est comme ça qu'on dit), les moteurs le prennent en compte depuis déjà longtemps (c'est Microsoft qui a ouvert le bal en ... 2000) mais avec des métriques plus difficiles à forcer que le taux de clics
@Treps Tu as a la fois raison et tort, comme le moteur apprend du quality ratings les bonnes mesures sur l'analyse du comportement, toute manipulation reste transitoire (quelques semaines, voire mois, le temps qu'un nouveau roll de l'algo soit réalisé). Mais c'est pendant cette période transitoire que le BH prend tout son bénéf ^^
Dernière modification par Sylvain (2015-05-21 07:22:44)
Tant va la loutre à l'eau qu'à la fin elle se mouille...
🔴 Hors ligne
@Treps : la métrique du nombre de pages consultées par l utilisateur est très facilement contournable, il suffit de ne pas mettre de services Google sur sa page, ce qui va de soit sur un splog de niveau 3 ou autre site bien BH...
Après le temps passé sur le site par l utilisateur est un problème plus difficile a résoudre la je suis d accord il va falloir ruser ...
Ces métriques sont prises en compte depuis longtemps, mais leur poids prend de plus en plus d ampleur...
Dernière modification par guitouxx (2015-05-21 08:52:17)
🔴 Hors ligne
Pour ruser et garder l'internaute il suffit de mettre un js pour empêcher le button précédent sur un navigateur.
OK je sors... lol
°¨¨°³º¤£ [ COOLBYTES ] £¤º³°¨¨° - Skype: cb_nalex_levrai
🔴 Hors ligne
@Treps : la métrique du nombre de pages consultées par l utilisateur est très facilement contournable, il suffit de ne pas mettre de services Google sur sa page, ce qui va de soit sur un splog de niveau 3 ou autre site bien BH...
Après le temps passé sur le site par l utilisateur est un problème plus difficile a résoudre la je suis d accord il va falloir ruser ...
Ces métriques sont prises en compte depuis longtemps, mais leur poids prend de plus en plus d ampleur...
On est bien d'accord sur les splogs, mais le problème reste le retour direct dans les quelques secondes sur la page de résultats, et c'est là qu'il va falloir effectivement trouver des ruses pour faire rester l'utilisateur ou l'empêcher de retourner sur google ^^
🔴 Hors ligne
@Treps : la métrique du nombre de pages consultées par l utilisateur est très facilement contournable, il suffit de ne pas mettre de services Google sur sa page, ce qui va de soit sur un splog de niveau 3 ou autre site bien BH...
Je suis pas si sûr, tu fais allusion à Analytics et/ou GWT ?
S'il y a un souci avec les produits Google le plus gros de nos problème à mon avis c'est Google Chrome. Que mieux qu'un navigateur pour reconstruire l'UX ?
Je sais Google a dit maintes fois que les différents services n'utilisent pas les données d'un autre service Google... Tu parles !
Sinon a propos du SERP Bounce je suis mitigé, ça à l'air d'être un super signal pour Google, mais lorsque je suis dans une session de recherche Google, il m'arrive souvent d'aller sur une page, je pécho l'information qui m'intéresse, et je clique sur back pour revenir sur Google... en observant ma femme en train de naviguer elle fait à peu près pareil, une autre variante on ouvre une page dans un autre onglet, donc on ne peut pas revenir en arrière. Mais on est vraiment certain de la fiabilité de ce SERP Bounce pour qualifier une page ?
Bon sinon dans le cas ou le SERP Bounce serait le truc qu'il faut absolument optimiser, l'astuce du JS elle est pas dégueu, pas besoin que le js soit toujours en place, mais juste dans certains cars. Si le referer est Google et si l'utilisateur clique sur back, êtes vous sur de vouloir quitter la page, s'il clique oui on le renvoie sur Qwant.
🔴 Hors ligne
Si le referer est Google et si l'utilisateur clique sur back, êtes vous sur de vouloir quitter la page, s'il clique oui on le renvoie sur Qwant.
⌕ Comment Ranker ?
▶ Nouveauté : Ninja Web Pro Pack copies limitées !
▶ Ebook : Ninjalinking 2022 (-25% : labo25e)
▶ Conseils stratégiques ou techniques ? ( Skype : jaffaarbh )
🟢 En ligne
@Bigorno :
Sinon a propos du SERP Bounce je suis mitigé, ça à l'air d'être un super signal pour Google, mais lorsque je suis dans une session de recherche Google, il m'arrive souvent d'aller sur une page, je pécho l'information qui m'intéresse, et je clique sur back pour revenir sur Google...
Tant que tu ne cliques pas sur un autre site après ton retour arrière sur Google, logiquement celà ne devrait pas te pénaliser. Je le fais également.
Je suis pas si sûr, tu fais allusion à Analytics et/ou GWT ?
Alors pour ma ptite histoire, même si ça n'intéressera pas tout le monde, avant j'étais un grand fan de Google, c'était pour moi la meilleure entreprise informatique du monde, qui prenait soin de ses employés, et qui laissait sa chance aux nouveaux jeunes entrepreneurs du net avec Adsense et tout et tout... Du coup j'utilisais tous leurs services et limite j'avais un poster de Google dans ma chambre ....
Mais depuis le virage qu'ils ont pris en 2011, j'ai décidé de passer BH, et depuis je n'utilise plus les services Google orientés SEO :
1/ Plus du tout d'analytics, ni sur satellites, ni sur MS, ni pour client (excepté si volonté du client malgré mise en garde)
Pourquoi ?
Ils conservent toutes les données (pages vues, temps moyen page a page, bounce rate, zone de clic sur la page...). Peut-être qu'ils ne s'en servent pas, ou pas totalement, mais ils peuvent s'en servir un jour ou l'autre ...
Je préfére un bon vieux Xiti bien à l'ancienne, avec beaucoup moins d'information, mais on a un code par site donc réseau non tracable et il fournit les analyses essentielles (pages vues, taux de rebond ...)
2/ GWT : je l'ajoute uniquement pour le money site, et encore pas tous car si pas besoin d'Adsense, je ne l'ajoute pas.
J'utilise seulement Adsense par la force des choses (c'est mon gros point noir), j'ai pas encore vu mieux ailleurs, bien que Taboola ait l'air de prendre de plus en plus d'ampleur. J'espère chaque jour que nous aurons des opportunités équivalentes avec une autre régie.
3/Google Chrome : je l'utilise uniquement pour le développement de mes sites en local (travail ou perso) car je le trouve plus pratique que les autres. Si je l'utilise pour surfer, c'est pour simuler des bonnes sessions qui m'arrangent bien sur mon site histoire d'augmenter artificiellement mon taux de clic. Sinon j'utilise de préférence Mozila.
..... par contre j'avoue j'ai un Android, mais j'ai essayé Windows Phone, et Bing, mais c'est trop pourri
D'ailleurs l'autre jour on avait un consultant Microsoft au boulot, et c'est la première fois que je voyais quelqu'un faire ses recherches uniquement sur Bing, ça fait bizzare
Dernière modification par guitouxx (2015-05-21 20:25:57)
🔴 Hors ligne
@Treps : la métrique du nombre de pages consultées par l utilisateur est très facilement contournable, il suffit de ne pas mettre de services Google sur sa page, ce qui va de soit sur un splog de niveau 3 ou autre site bien BH...
Je ne suis pas d'accord, principalement car la principale source de données est le DNS, et que maintenant GG a suffisamment de gens qui utilisent son DNS pour avoir une bonne vision de ce qui se passe sur le web.
Tant va la loutre à l'eau qu'à la fin elle se mouille...
🔴 Hors ligne
Edit : bon après coup je suis pas sûr que ca soit une piste valable mais je laisse quand même mon message parce que ca me semble intéressant d'en parler. Et comme ca je l'ai pas écrit pour rien
Ne trouvant pas réellement de cohérence en analysant les métriques utilisateurs (effectivement ca pourrait être mieux mais plusieurs pages avec de bonnes stats chutent tout autant) hormis si on considère que la "pénalité" de la mise à jour Qualité du début du mois toucherait la globalité du site et pas les pages elle-même (bizarre comme fonctionnement vu que c'est l'algorithme global et pas un filtre à la panda, ca devrait être du page par page), j'ai regardé vite fait si je trouvais d'autres pistes. Fin de la phrase, vous pouvez reprendre votre souffle et la relire si nécessaire
Je suis tombé là dessus : ne pourrait pas aussi imaginer que c'est ca qui été mis en place/réajusté à la hausse. Je parle des points 5-6 de cette page, l'étape 210 sur le schéma : http://davidcarlehq.com/pagerank-2-0-voici-comment-google-pourrait-classer-les-resultats-internet/
En 2 mots :
le score on-page de la page qui ressort pour une requète est évalué au score on-page du site. Donc des pages à priori pertinentes seraient déclassées puisque pas cohérentes avec le score du site.
Simple hypothèse de ma part, j'ai bien sûr aucune idée si ca joue ou pas dans la Quality update mais ca expliquerait certains points :
- ca correspond assez à ce que je constate à savoir : les pages pertinentes (à savoir optimisées) sont celles qui chutent le plus (édit : finalement après recheck c'est pas si flagrant)
- la plupart des sites touchés sont ceux qui ont subi une pénalité Panda
- comme je l'ai dit je ne constate pas réellement de cohérence avec les métriques utilisateurs (taux de sortie, ctr, rebond, pages/visite etc...) puisqu'un certain nombre de pages avec des métriques très acceptables sont tout autant touchées.
🔴 Hors ligne
guitouxx a écrit :@Treps : la métrique du nombre de pages consultées par l utilisateur est très facilement contournable, il suffit de ne pas mettre de services Google sur sa page, ce qui va de soit sur un splog de niveau 3 ou autre site bien BH...
Je suis pas si sûr, tu fais allusion à Analytics et/ou GWT ?
S'il y a un souci avec les produits Google le plus gros de nos problème à mon avis c'est Google Chrome. Que mieux qu'un navigateur pour reconstruire l'UX ?
Je sais Google a dit maintes fois que les différents services n'utilisent pas les données d'un autre service Google... Tu parles !
Sinon a propos du SERP Bounce je suis mitigé, ça à l'air d'être un super signal pour Google, mais lorsque je suis dans une session de recherche Google, il m'arrive souvent d'aller sur une page, je pécho l'information qui m'intéresse, et je clique sur back pour revenir sur Google... en observant ma femme en train de naviguer elle fait à peu près pareil, une autre variante on ouvre une page dans un autre onglet, donc on ne peut pas revenir en arrière. Mais on est vraiment certain de la fiabilité de ce SERP Bounce pour qualifier une page ?
Bon sinon dans le cas ou le SERP Bounce serait le truc qu'il faut absolument optimiser, l'astuce du JS elle est pas dégueu, pas besoin que le js soit toujours en place, mais juste dans certains cars. Si le referer est Google et si l'utilisateur clique sur back, êtes vous sur de vouloir quitter la page, s'il clique oui on le renvoie sur Qwant.
OH J'avais pas lu ta réplique J'adore mais perso je le renverrais avant vers mon splog
°¨¨°³º¤£ [ COOLBYTES ] £¤º³°¨¨° - Skype: cb_nalex_levrai
🔴 Hors ligne