Vous n'êtes pas identifié(e).
Il semblerai quand même que c'est lié au contenu, donc ------>
avec 100% de certitude, ce n'est pas lié au contenu ou tout du moins à la qualité. Tous mes sites touchés ont un contenu clean (rédacteur agence) et idem chez de gros éditeurs avec qui j'ai pu échanger. L'analyse porte sur plusieurs dizaines de sites. Cela vas être compliqué de trouver un pattern établi pour un filtre qui semble complètement chaotique, on est clairement sur quelque chose de très complexe (ou foireux/heuristique bipolaire ) qui s'appuie sur du ML
Ce qu'il faudrait faire c'est d'établir une liste de KPI onsite et offsite communs à un échantillon (mini 200 sites amha) et de passer le tout à la moulinette chez dataiku par exemple pour en crée un modèle, ça aiderais à dégrossir le taff et avoir un aperçu plus concret de ce qui peut effectivement provoquer l'application du filtre.
@JesuispasSEO
🔴 Hors ligne
Perso cela ressemble plus à une raison technique, qu'à un filtre.
Si c'était une pénalité voulue, pourquoi épargner 4 pages ? Pourquoi aucun pattern commun clair entre ces sites ?
Il doit y avoir un bug d'indexation qqs parts entre Google et ces sites... reste à trouver pourquoi. Perso, je travaillerai plutôt sur cette piste mais je ne suis pas technicien.
Investisseur-Digital.com : mon blog sur l'investissement digital (MFA, SEO...).
🔴 Hors ligne
Perso cela ressemble plus à une raison technique, qu'à un filtre.
Si c'était une pénalité voulue, pourquoi épargner 4 pages ? Pourquoi aucun pattern commun clair entre ces sites ?Il doit y avoir un bug d'indexation qqs parts entre Google et ces sites... reste à trouver pourquoi. Perso, je travaillerai plutôt sur cette piste mais je ne suis pas technicien.
Tous les sites qu'on a pu faire sortir de ce fameux "filtre" stagnent dans la SERP entre les pages 8 et 10 et ce, peu importe le travail SEO que tu puisses faire en amont. C'est pour cela qu'on est de plus en plus nombreux à valider la thèse du filtre "foireux" plutôt que de l'assimiler aux bugs d'indexation.
Les sites qui sont touchés par des problèmes d'indexation peuvent sans problème revenir en passant via l'api de Google ou tout autre tool de "forcing", par contre il n'y a aucun impact SEO à proprement parler sur leur positionnement.
On est pas sorti de l'auberge moi je dis
@JesuispasSEO
🔴 Hors ligne
wollastoni a écrit :Perso cela ressemble plus à une raison technique, qu'à un filtre.
Si c'était une pénalité voulue, pourquoi épargner 4 pages ? Pourquoi aucun pattern commun clair entre ces sites ?Il doit y avoir un bug d'indexation qqs parts entre Google et ces sites... reste à trouver pourquoi. Perso, je travaillerai plutôt sur cette piste mais je ne suis pas technicien.
Tous les sites qu'on a pu faire sortir de ce fameux "filtre" stagnent dans la SERP entre les pages 8 et 10 et ce, peu importe le travail SEO que tu puisses faire en amont.
et peu importe la méthode de sortie du filtre ?
🔴 Hors ligne
Tous les sites qu'on a pu faire sortir de ce fameux "filtre" stagnent dans la SERP entre les pages 8 et 10 et ce, peu importe le travail SEO que tu puisses faire en amont. C'est pour cela qu'on est de plus en plus nombreux à valider la thèse du filtre "foireux" plutôt que de l'assimiler aux bugs d'indexation.
Les sites qui sont touchés par des problèmes d'indexation peuvent sans problème revenir en passant via l'api de Google ou tout autre tool de "forcing", par contre il n'y a aucun impact SEO à proprement parler sur leur positionnement.
On est pas sorti de l'auberge moi je dis
OK intéressant merci
Investisseur-Digital.com : mon blog sur l'investissement digital (MFA, SEO...).
🔴 Hors ligne
Bon je viens d'avoir une super idée. Je peux sortir une liste d'environ 800 NDD (edit:1600 en fin de compte) depuis quelque part... J'ai testé les 6 1ers et j'ai déjà trouvé 2 sites avec ce filtre.
Donc imaginons que que quelqu'un créé un script pour faire une commande site:ndd.fr (je peux le faire mais j'ai pas de proxies) et vérifie que google donne 4 résultats (et que le site à plus de 4 pages). Imaginons qu'on ait une liste d'une centaines de NDD avec ce probleme, @Descent peux-tu utiliser la liste pour le mettre dans le tool dont tu parlais précédemment ?
Quelqu'un a-t-il des proxies compatibles google à me prêter ? (une 10ene minimum je pense).
Dernière modification par frcc78 (2021-12-08 14:05:51)
Articlum.com - Génération de texte (article et descriptif produit) - Optimisation sémantique
Obtenez des crédits gratuits avec le code ScriptSEO2024
🟢 En ligne
Si c'est pour faire 1600 requêtes, je peux les faire avec dataforseo si besoin, ça va pas coûter grand chose.
🔴 Hors ligne
Oui merci je connaissais pas mais la flemme de regarder la doc et tout... Je vais faire avec zenno sans proxies...
Articlum.com - Génération de texte (article et descriptif produit) - Optimisation sémantique
Obtenez des crédits gratuits avec le code ScriptSEO2024
🟢 En ligne
et peu importe la méthode de sortie du filtre ?
Sur ce que j'ai pu voir (et entendre) oui, c'est un pattern commun aux sites fraichement sortis du filtre.
Donc imaginons que que quelqu'un créé un script pour faire une commande site:ndd.fr (je peux le faire mais j'ai pas de proxies) et vérifie que google donne 4 résultats (et que le site à plus de 4 pages). Imaginons qu'on ait une liste d'une centaines de NDD avec ce probleme,
@Descent peux-tu utiliser la liste pour le mettre dans le tool dont tu parlais précédemment ?
Malheureusement une simple liste de ndd filtrés ne suffit pas. Il faut créer un dataset (grosso merdo un csv) ou chaque ligne représente un domaine et pour chaque domaine, intégrer un max de KPI qui pourraient influencer le filtre. Les KPI ca peut être aussi bien des metrics que tout autre critère onsite / offsite, il ne faut pas avoir peur d'être exhaustif. Chaque ligne doit également comprendre une 'case finale' qui indique le résultat attendu (c.a.d pénalisé ou non) ainsi que des domaines non pénalisés.
Voila un exemple plus parlant d'une ligne du dataset :
Avec toute cette data passée à la moulinette, l'algo pourrait aider trouver une certaine logique (et l'importance de chaque KPI ) impossible à déterminer sans l'aide du ML. Comme tout le monde semble ramer ce serait une bonne approche à envisager amha.
Sinon @Frcc78 , si tu veux scrapper GG en illimité (ou quasiment) > check le proxy dev de Facebook
@JesuispasSEO
🔴 Hors ligne
Merci mais c'est bon mon robot sous zenno marche bien sans proxies. J'ai mis une pause entre 30 et 75 secondes entre chaque request et j'ai pas vu de captcha encore !
Articlum.com - Génération de texte (article et descriptif produit) - Optimisation sémantique
Obtenez des crédits gratuits avec le code ScriptSEO2024
🟢 En ligne
Je ne peux pas vérifier le filtre mais je peux sortir quelques métriques on-site sur une grande liste de domaines si besoin.
Avec un petit script python ça doit pas être trop complexe de vérifier la présence d'images, de liens externes, de termes commerciaux...
Mon nouvel outil d'optimisation sémantique : https://thot-seo.fr/ ★★★
Vous pouvez tester gratuitement depuis la home de Thot SEO
🔴 Hors ligne
Hello, pareil si vous avez besoin pour du test je peux sortir RD / BL / IPS / TF / CF / TTF / Traff / KWs sur des milliers de domaines, format Excel / CSV.
==> Besoin d'une presta netlinking ? DM <==
🔴 Hors ligne
Ok, parfait. Je vous dis quand ma liste est prête et on s'organise. Au sujet de la liste, je l'ai prise sur un site "particulier" (edit) donc, il y aura peut être des caractéristiques similaires qui ne veulent rien dire. J'ai pris les sites avec whois inférieur à 1 an et avec quasiment pas de visites. J'aurai sans doute 5% de faux positifs max car mon robot n'est pas parfait.
Dernière modification par frcc78 (2021-12-09 17:38:19)
Articlum.com - Génération de texte (article et descriptif produit) - Optimisation sémantique
Obtenez des crédits gratuits avec le code ScriptSEO2024
🟢 En ligne
Pareil, score de domaine de semrush, ahrefs, moz, like facebook...
Mon nouvel outil d'optimisation sémantique : https://thot-seo.fr/ ★★★
Vous pouvez tester gratuitement depuis la home de Thot SEO
🔴 Hors ligne
J'ai donc une liste 135 NDD qui donnent 4 résultats. Pour être complètement certain, il faudrait les vérifier une par une car : cela peut être des ndd qui n'ont pas cette pénalité et qui n'ont que 4 urls d'indéxées.
A-t-on besoin de plus d'url ?
Quels KPI vérifier ?
Comment les vérifier ?
Comment interpréter les résultats ?
Qui a des tools et du temps pour participer ? On fait une conversation de groupe Skype ?
Articlum.com - Génération de texte (article et descriptif produit) - Optimisation sémantique
Obtenez des crédits gratuits avec le code ScriptSEO2024
🟢 En ligne
J'ai des tools et un peu de temps mais pas skype
Dernière modification par potache (2021-12-11 20:07:56)
Mon nouvel outil d'optimisation sémantique : https://thot-seo.fr/ ★★★
Vous pouvez tester gratuitement depuis la home de Thot SEO
🔴 Hors ligne
J'ai donc une liste 135 NDD qui donnent 4 résultats. Pour être complètement certain, il faudrait les vérifier une par une car : cela peut être des ndd qui n'ont pas cette pénalité et qui n'ont que 4 urls d'indéxées.
A-t-on besoin de plus d'url ?
Quels KPI vérifier ?
Comment les vérifier ?
Comment interpréter les résultats ?
Qui a des tools et du temps pour participer ? On fait une conversation de groupe Skype ?
Comment tu as trouvé cette liste ?
Pour ce que j'ai vu, cela semble surtout venir du contenu et des expirés.
Mais le contenu historique est un KPI qui est pratiquement impossible à jauger, à part check dans la wayback si le site à de la bouillie, mais il faut le faire manuellement donc.... très très chaud.
🔴 Hors ligne
J'ai été sur une "plateforme" et j'ai sortie une liste selon certains critères (pas de traffic et whois inférieur à 1 an). Et j'ai fait un robot qui a compter le nombre de résultats dans google. La wayback on peut faire un robot avec zenno. Mais bon, il y a des sites neufs touchés apparemment donc l'historique pas sur que ca soit ca.
Dernière modification par frcc78 (2021-12-13 23:06:08)
Articlum.com - Génération de texte (article et descriptif produit) - Optimisation sémantique
Obtenez des crédits gratuits avec le code ScriptSEO2024
🟢 En ligne
Bon, concernant mon site avec ce filtre, suite a l'ajout de www devant le NDD (c'est un expiré et l'ancien avait les www) et des autres choses que j'ai faite (j'ai précisé dans les posts précedents), j'ai désormais 5 pages (Des avec les www et des sans.) qui apparaissent avec le site: + 1 page omise pour nous avons omis quelques entrées qui sont très similaires aux 5 entrées actuelles..
Je pense pas que j'en soit sortie mais bon... on verra
Articlum.com - Génération de texte (article et descriptif produit) - Optimisation sémantique
Obtenez des crédits gratuits avec le code ScriptSEO2024
🟢 En ligne