Vous n'êtes pas identifié(e).
Bonjour tout le monde,
voilà, j'ai eu accès à des infos plutôt croustillantes ces dernières semaines, et il y a un truc qui m'interpelle.
En gros, c'est sur la création d'un piège-robot, pour maximiser le crawl de Googlebot sur un domaine (et donc pousser le PR).
La technique :
J'ai mon site A, ultra classique : pages, contenus, navigation etc.
Sur ce site, j'ai une page toto.html, qui fait un lien vers une page titi.html
Cette page titi.html n'a pas de navigation. Elle ne contient aucun lien interne. On y trouve du contenu (classique), avec un seul lien qui pointe vers un domaine externe (que je controle).
Sur ce domaine externe, je n'ai qu'une seule page, avec du contenu, pas de nav, pas de liens interne : il y a un seul lien, qui pointe vers titi.html, sur mon site principal.
Le but, c'est de créer une boucle entre titi.html sur mon site et ma page sur le second domaine. Une fois sur titi.html, le bot est piégé, et est obligé de parcourir la boucle (85% de chance qu'il suive le lien,15% qu'il disparaisse du site).
En théorie, c'est supposé pour le PR sur mon site principal.
Est-ce que vous avez des idées là dessus ?
🔴 Hors ligne
Ca s'appelle une boosting page. Et oui, c'est une structure efficace pour gagner en PR.
Ca ne piège pas le robots. Un piège à robot c'est faire tourner le robot en faisant de la génération de page à la volée
🔴 Hors ligne
Vous penssez pas que le robot stop le crawl quand le referer = destination?
----
Chili con seo
🔴 Hors ligne
Bonjour Guillaume, et merci pour ta réponse.
J'ai encore une question : ça pousse le PR sur la page uniquement, ou sur tout le site ?
La page titi.html n'étant liée à aucune autre page du site, si ça ne pousse que sur elle, ça n' a pas vraiment d'intérêt.
Je te demande ça parce que...tu dois connaitre
Mes amitiés à S.
🔴 Hors ligne
@Jojo comme le dit Guillaume, ça ne piège pas le bot (en tout cas pour le crawl), mais en revanche ça fait cycler le surfeur aléatoire, donc ça amplifie le pagerank.
Tant va la loutre à l'eau qu'à la fin elle se mouille...
🔴 Hors ligne
Bonjour Guillaume, et merci pour ta réponse.
J'ai encore une question : ça pousse le PR sur la page uniquement, ou sur tout le site ?
La page titi.html n'étant liée à aucune autre page du site, si ça ne pousse que sur elle, ça n' a pas vraiment d'intérêt.
Je te demande ça parce que...tu dois connaitre
Mes amitiés à S.
Venir aux masterclass il faut pour comprendre et tester cela
🔴 Hors ligne
🔴 Hors ligne
Je suis d'accord sur la théorie mais je rejoins Jojo, le piège me parait assez grossier pour que le moteur ne s'en rendent pas compte.
🔴 Hors ligne
Est-ce que le bot tombe dans le panneau ? Ça dépend beaucoup de la qualité des pages : il y a des raisons légitimes de faire un tel linking.
🔴 Hors ligne
Que la construction soit légitime ou non, la question n'est pas là, la question est simplement : est-il pertinent de mongoliser sur deux pages et monter artificiellement un pagerank sur ce type de construction ? Cette question se pose indépendamment du fait que la construction ait été faite naturellement ou intentionnellement pour piéger l'algo.
Pour éviter que le surfeur aléatoire soit piégé dans un cul de sac, il a l’intelligence de choper une autre page au hasard directement (la règle des 15% ne s'applique plus dans ce cas).
Là on se dit, on va faire le cul de sac sur deux pages pour niquer le système... je me dis que juste ça a l'air très grossier pour que Google n'ai pas prévu ce cas de figure depuis le temps non ?
Dernière modification par Mitsu (2015-03-12 13:54:56)
🔴 Hors ligne
@Mitsu : le concept même de surfeur aléatoire est de ne pas éviter les cycles car c'est comme ça qu'est calculé le pagerank. Il n'a l'intelligence de rien du tout, sinon il ne calcule plus le PR, il fait simplement de l'indexation, ce qui est une autre chose complètement disjointe que doit faire le moteur.
Et un edit rapide pour dire que ça marche en pratique bien sur, si la thématisation est présente également.
Dernière modification par Sylvain (2015-03-12 14:01:16)
Tant va la loutre à l'eau qu'à la fin elle se mouille...
🔴 Hors ligne
J'entends bien Sylvain. Je ne remet rien en cause, je dis juste que sur ce cas précis, ça m'a l'air tellement grossier que je me demande si ça n'est pas assimilé au même type d'exception que les dangling pages parce qu'on en est vraiment pas loin quoi.
Enfin je me trompe peut être mais si j'étais à la tête de l'algo je pense que c'est ce que je ferais quoi, l'idée c'est de naviguer en faisant des cycles pour pondérer certes mais là on parle de mongoliser sur deux pages quoi, ça me parait pas bien intéressant à part pour biaiser les classements, non ?
Dernière modification par Mitsu (2015-03-12 14:10:44)
🔴 Hors ligne
Un algo qui commence à faire des exceptions pour chaque type de truc qu'on peut faire, c'est un algo qui ne marche pas. Donc on ne fait pas un traitement spécifique pour chaque structure, a l'extrème limite on détecte à postériori pour un filtrage, mais pas plus.
Par ailleurs, les pages de boost représentent trop peu en masse sur le web pour mériter un traitement spécifique.
Dernière modification par Sylvain (2015-03-12 14:21:11)
Tant va la loutre à l'eau qu'à la fin elle se mouille...
🔴 Hors ligne
Pour en revenir à un peu plus tôt dans la conversation, la page de boost ça booste surtout les deux pages liées. Mais de façon assez considérable.
Sinon, est-ce que ça marche. Faut essayer s'il y a un doute. Quand c'est quali, ça donne d'après mon expérience de bons résultats (liens thématisés, plein texte)
🔴 Hors ligne
Intéressante cette discussion (elle date un peu mais je débarque sur le forum aujourd'hui), je m'apprêtais à poser la même question et j'avais un peu le même raisonnement que Kryptos. Donc merci pour les explications complémentaires.
D'ailleurs j'avais en tête que depuis plusieurs années on disait qu'il ne servait plus à rien de faire des échanges de liens direct mais qu'il fallait plutôt faire du A->B->C->A par exemple.
Or ce que je lis ici (et dans la newsletter d'Abondance de ce mois-ci avec l'article de Guillaume et Sylvain qui parle de tout ça) tend à me faire penser qu'en fait ce n'est pas du tout inutile de faire A->B->A , voire même que ce serait carrément une bonne idée ! (à condition que les pages soient pertinentes avec du bon contenu bien sûr).
J'ai bon ou je m'égare ?
Dernière modification par MisterBlack (2015-12-28 11:11:28)
🔴 Hors ligne
D'un point de vue PageRank, bien sûr, c'est une bonne idée, c'est pas pour rien que tout le monde le faisait sans se poser de questions il y a quelques années (c'est hyper naturel comme échange en réalité).
Si on est passé aux liens triangles et cie, c'est simplement pour éviter que ce soit détectable facilement quand on fait manifestement des liens artificiels.
C'est une pure question d'arbitrage. Ca marche bien, mais quelle part de risque on peut prendre ?
Avec des contenus qualis, on peut faire beaucoup de choses. Avec du contenu pas top, aussi, mais le risque de se faire prendre est plus étendu.
🔴 Hors ligne
Merci Guillaume pour ta réponse !
Et désolé de ne pas t'avoir remercié plus rapidement mais j'avais oublié d'activer le suivi automatique de la discussion donc je ne découvre ton commentaire qu'aujourd'hui
🔴 Hors ligne