Vous n'êtes pas identifié(e).

  • Contributions :
  • Vos boîtes de messages privés sont vides.

🟣 Faire un spider-trap pour Googlebot


#1 2015-03-03 09:56:50

Mention Kryptos666
♟️ Grade : Recruit

Disciple
Inscription : 2015-03-03
Messages : 3
Likes : 0

Faire un spider-trap pour Googlebot

Bonjour tout le monde,

voilà, j'ai eu accès à des infos plutôt croustillantes ces dernières semaines, et il y a un truc qui m'interpelle.

En gros, c'est sur la création d'un piège-robot, pour maximiser le crawl de Googlebot sur un domaine (et donc pousser le PR).

La technique :

J'ai mon site A, ultra classique : pages, contenus, navigation etc.

Sur ce site, j'ai une page toto.html, qui fait un lien vers une page titi.html

Cette page titi.html n'a pas de navigation. Elle ne contient aucun lien interne. On y trouve du contenu (classique), avec un seul lien qui pointe vers un domaine externe (que je controle).

Sur ce domaine externe, je n'ai qu'une seule page, avec du contenu, pas de nav, pas de liens interne : il y a un seul lien, qui pointe vers titi.html, sur mon site principal.

Sans_titre_4.jpg

Le but, c'est de créer une boucle entre titi.html sur mon site et ma page sur le second domaine. Une fois sur titi.html, le bot est piégé, et est obligé de parcourir la boucle (85% de chance qu'il suive le lien,15% qu'il disparaisse du site).

En théorie, c'est supposé pour le PR sur mon site principal.

Est-ce que vous avez des idées là dessus ?

0
J'aime ❤️

🔴 Hors ligne

#2 2015-03-03 15:59:35

Mention GuillaumeP
🥉 Grade : Scout

Auxiliaire
Inscription : 2015-02-15
Messages : 44
Likes : 0

Re : Faire un spider-trap pour Googlebot

Ca s'appelle une boosting page. Et oui, c'est une structure efficace pour gagner en PR.

Ca ne piège pas le robots. Un piège à robot c'est faire tourner le robot en faisant de la génération de page à la volée wink

0
J'aime ❤️

🔴 Hors ligne

#3 2015-03-03 16:54:19

Mention Jojo_le_haricot
🥉 Grade : Scout

Auxiliaire
Inscription : 2014-04-18
Messages : 461
Likes : 2

Re : Faire un spider-trap pour Googlebot

Vous penssez pas que le robot stop le crawl quand le referer = destination?


----
Chili con seo

0
J'aime ❤️

🔴 Hors ligne

#4 2015-03-04 12:39:40

Mention Kryptos666
♟️ Grade : Recruit

Disciple
Inscription : 2015-03-03
Messages : 3
Likes : 0

Re : Faire un spider-trap pour Googlebot

Bonjour Guillaume, et merci pour ta réponse.

J'ai encore une question : ça pousse le PR sur la page uniquement, ou sur tout le site ?

La page titi.html n'étant liée à aucune autre page du site, si ça ne pousse que sur elle, ça n' a pas vraiment d'intérêt.

Je te demande ça parce que...tu dois connaitre smile

Mes amitiés à S.

0
J'aime ❤️

🔴 Hors ligne

#5 2015-03-04 15:29:57

Mention Sylvain
🥈 Grade : Soldier

Membre du CercleOfficierNarcissiqueForce PolyvalenteStratège100likes
Inscription : 2014-04-07
Messages : 816
Likes : 110

Développement Python
Audit et Analyse
Sémantique
Advertising

Re : Faire un spider-trap pour Googlebot

@Jojo comme le dit Guillaume, ça ne piège pas le bot (en tout cas pour le crawl), mais en revanche ça fait cycler le surfeur aléatoire, donc ça amplifie le pagerank.


Tant va la loutre à l'eau qu'à la fin elle se mouille...

0
J'aime ❤️

🔴 Hors ligne

#6 2015-03-04 16:35:33

Mention razbithume
🥉 Grade : Scout

AuxiliaireStratègeMembre Hospitalier
Inscription : 2013-09-17
Messages : 827
Likes : 1

Audit et Analyse
Scraping
Marketing
Site Web

Re : Faire un spider-trap pour Googlebot

Kryptos666 a écrit :

Bonjour Guillaume, et merci pour ta réponse.

J'ai encore une question : ça pousse le PR sur la page uniquement, ou sur tout le site ?

La page titi.html n'étant liée à aucune autre page du site, si ça ne pousse que sur elle, ça n' a pas vraiment d'intérêt.

Je te demande ça parce que...tu dois connaitre smile

Mes amitiés à S.

Venir aux masterclass il faut pour comprendre et tester cela big_smile


Vive les regex et le xpath !

0
J'aime ❤️

🔴 Hors ligne

#7 2015-03-12 03:29:02

Mention Stanley
♟️ Grade : Recruit

Disciple
Inscription : 2015-03-12
Messages : 3
Likes : 0

Re : Faire un spider-trap pour Googlebot

Oui la Masterclass explique très bien tout cela !
Faut y aller ! wink

0
J'aime ❤️

🔴 Hors ligne

#8 2015-03-12 07:09:03

Mention lapido
🥉 Grade : Scout

Auxiliaire10likes
Inscription : 2014-12-14
Messages : 394
Likes : 22

Re : Faire un spider-trap pour Googlebot

Pardon j'ai pas compris de quelle Masterclass il s'agit ?

0
J'aime ❤️

🔴 Hors ligne

#9 2015-03-12 07:38:59

Mention guitouxx
🥈 Grade : Soldier

Membre du CercleOfficierForce PolyvalenteStratège
Inscription : 2012-09-25
Messages : 745
Likes : 5

Automatisation Web
Développement C#
Netlinking
Comunity Management

Re : Faire un spider-trap pour Googlebot

Les Masterclass sont les formations dispensées par Sylvain et Guillaume, les frères Peyronnet

0
J'aime ❤️

🔴 Hors ligne

#10 2015-03-12 08:24:06

Mention Mitsu
🥉 Grade : Scout

AuxiliaireIngénieur webStratège1000 messagesMembre Hospitalier
Inscription : 2014-11-17
Messages : 2 012
Likes : 8

Développement PHP
Développement JS
Audit et Analyse
Netlinking
Site Web

Re : Faire un spider-trap pour Googlebot

Je suis d'accord sur la théorie mais je rejoins Jojo, le piège me parait assez grossier pour que le moteur ne s'en rendent pas compte.

0
J'aime ❤️

🔴 Hors ligne

#11 2015-03-12 13:27:00

Mention GuillaumeP
🥉 Grade : Scout

Auxiliaire
Inscription : 2015-02-15
Messages : 44
Likes : 0

Re : Faire un spider-trap pour Googlebot

Est-ce que le bot tombe dans le panneau ? Ça dépend beaucoup de la qualité des pages : il y a des raisons légitimes de faire un tel linking.

0
J'aime ❤️

🔴 Hors ligne

#12 2015-03-12 13:53:03

Mention Mitsu
🥉 Grade : Scout

AuxiliaireIngénieur webStratège1000 messagesMembre Hospitalier
Inscription : 2014-11-17
Messages : 2 012
Likes : 8

Développement PHP
Développement JS
Audit et Analyse
Netlinking
Site Web

Re : Faire un spider-trap pour Googlebot

Que la construction soit légitime ou non, la question n'est pas là, la question est simplement : est-il pertinent de mongoliser sur deux pages et monter artificiellement un pagerank sur ce type de construction ? Cette question se pose indépendamment du fait que la construction ait été faite naturellement ou intentionnellement pour piéger l'algo.

Pour éviter que le surfeur aléatoire soit piégé dans un cul de sac, il a l’intelligence de choper une autre page au hasard directement (la règle des 15% ne s'applique plus dans ce cas).
Là on se dit, on va faire le cul de sac sur deux pages pour niquer le système... je me dis que juste ça a l'air très grossier pour que Google n'ai pas prévu ce cas de figure depuis le temps non ?

Dernière modification par Mitsu (2015-03-12 13:54:56)

0
J'aime ❤️

🔴 Hors ligne

#13 2015-03-12 14:00:01

Mention Sylvain
🥈 Grade : Soldier

Membre du CercleOfficierNarcissiqueForce PolyvalenteStratège100likes
Inscription : 2014-04-07
Messages : 816
Likes : 110

Développement Python
Audit et Analyse
Sémantique
Advertising

Re : Faire un spider-trap pour Googlebot

@Mitsu : le concept même de surfeur aléatoire est de ne pas éviter les cycles car c'est comme ça qu'est calculé le pagerank. Il n'a l'intelligence de rien du tout, sinon il ne calcule plus le PR, il fait simplement de l'indexation, ce qui est une autre chose complètement disjointe que doit faire le moteur.

Et un edit rapide pour dire que ça marche en pratique bien sur, si la thématisation est présente également.

Dernière modification par Sylvain (2015-03-12 14:01:16)


Tant va la loutre à l'eau qu'à la fin elle se mouille...

0
J'aime ❤️

🔴 Hors ligne

#14 2015-03-12 14:10:08

Mention Mitsu
🥉 Grade : Scout

AuxiliaireIngénieur webStratège1000 messagesMembre Hospitalier
Inscription : 2014-11-17
Messages : 2 012
Likes : 8

Développement PHP
Développement JS
Audit et Analyse
Netlinking
Site Web

Re : Faire un spider-trap pour Googlebot

J'entends bien Sylvain. Je ne remet rien en cause, je dis juste que sur ce cas précis, ça m'a l'air tellement grossier que je me demande si ça n'est pas assimilé au même type d'exception que les dangling pages parce qu'on en est vraiment pas loin quoi.

Enfin je me trompe peut être mais si j'étais à la tête de l'algo je pense que c'est ce que je ferais quoi, l'idée c'est de naviguer en faisant des cycles pour pondérer certes mais là on parle de mongoliser sur deux pages quoi, ça me parait pas bien intéressant à part pour biaiser les classements, non ?

Dernière modification par Mitsu (2015-03-12 14:10:44)

0
J'aime ❤️

🔴 Hors ligne

#15 2015-03-12 14:20:13

Mention Sylvain
🥈 Grade : Soldier

Membre du CercleOfficierNarcissiqueForce PolyvalenteStratège100likes
Inscription : 2014-04-07
Messages : 816
Likes : 110

Développement Python
Audit et Analyse
Sémantique
Advertising

Re : Faire un spider-trap pour Googlebot

Un algo qui commence à faire des exceptions pour chaque type de truc qu'on peut faire, c'est un algo qui ne marche pas. Donc on ne fait pas un traitement spécifique pour chaque structure, a l'extrème limite on détecte à postériori pour un filtrage, mais pas plus.

Par ailleurs, les pages de boost représentent trop peu en masse sur le web pour mériter un traitement spécifique.

Dernière modification par Sylvain (2015-03-12 14:21:11)


Tant va la loutre à l'eau qu'à la fin elle se mouille...

0
J'aime ❤️

🔴 Hors ligne

#16 2015-03-12 16:45:37

Mention GuillaumeP
🥉 Grade : Scout

Auxiliaire
Inscription : 2015-02-15
Messages : 44
Likes : 0

Re : Faire un spider-trap pour Googlebot

Pour en revenir à un peu plus tôt dans la conversation, la page de boost ça booste surtout les deux pages liées. Mais de façon assez considérable.

Sinon, est-ce que ça marche. Faut essayer s'il y a un doute. Quand c'est quali, ça donne d'après mon expérience de bons résultats (liens thématisés, plein texte)

0
J'aime ❤️

🔴 Hors ligne

#17 2015-12-28 11:08:15

Mention MisterBlack
🥉 Grade : Scout

AuxiliaireStratège
Lieu : Lyon
Inscription : 2015-12-28
Messages : 278
Likes : 3

Audit et Analyse
Marketing
Netlinking
Content Spinning

Re : Faire un spider-trap pour Googlebot

Intéressante cette discussion (elle date un peu mais je débarque sur le forum aujourd'hui), je m'apprêtais à poser la même question et j'avais un peu le même raisonnement que Kryptos. Donc merci pour les explications complémentaires.
D'ailleurs j'avais en tête que depuis plusieurs années on disait qu'il ne servait plus à rien de faire des échanges de liens direct mais qu'il fallait plutôt faire du A->B->C->A par exemple.
Or ce que je lis ici (et dans la newsletter d'Abondance de ce mois-ci avec l'article de Guillaume et Sylvain qui parle de tout ça) tend à me faire penser qu'en fait ce n'est pas du tout inutile de faire A->B->A , voire même que ce serait carrément une bonne idée ! (à condition que les pages soient pertinentes avec du bon contenu bien sûr).
J'ai bon ou je m'égare ?

Dernière modification par MisterBlack (2015-12-28 11:11:28)

0
J'aime ❤️

🔴 Hors ligne

#18 2016-01-17 19:09:42

Mention GuillaumeP
🥉 Grade : Scout

Auxiliaire
Inscription : 2015-02-15
Messages : 44
Likes : 0

Re : Faire un spider-trap pour Googlebot

D'un point de vue PageRank, bien sûr, c'est une bonne idée, c'est pas pour rien que tout le monde le faisait sans se poser de questions il y a quelques années (c'est hyper naturel comme échange en réalité).
Si on est passé aux liens triangles et cie, c'est simplement pour éviter que ce soit détectable facilement quand on fait manifestement des liens artificiels.

C'est une pure question d'arbitrage. Ca marche bien, mais quelle part de risque on peut prendre ?
Avec des contenus qualis, on peut faire beaucoup de choses. Avec du contenu pas top, aussi, mais le risque de se faire prendre est plus étendu.

0
J'aime ❤️

🔴 Hors ligne

#19 2016-02-12 09:44:15

Mention MisterBlack
🥉 Grade : Scout

AuxiliaireStratège
Lieu : Lyon
Inscription : 2015-12-28
Messages : 278
Likes : 3

Audit et Analyse
Marketing
Netlinking
Content Spinning

Re : Faire un spider-trap pour Googlebot

Merci Guillaume pour ta réponse !
Et désolé de ne pas t'avoir remercié plus rapidement mais j'avais oublié d'activer le suivi automatique de la discussion donc je ne découvre ton commentaire qu'aujourd'hui smile

0
J'aime ❤️

🔴 Hors ligne

#20 2016-02-15 11:41:26

Mention cb_nalex
🥉 Grade : Scout

AuxiliaireStratège
Inscription : 2014-04-26
Messages : 784
Likes : 2

Html Css
Netlinking
Sémantique
Audit et Analyse

Re : Faire un spider-trap pour Googlebot

MasterClass !!!!!  +10000


°¨¨°³º¤£ [  COOLBYTES  ] £¤º³°¨¨° - Skype: cb_nalex_levrai

0
J'aime ❤️

🔴 Hors ligne

Pied de page des forums