Vous n'êtes pas identifié(e).
Pages :: 1
Bonjour à tous,
Voici notre site de location de voiture opérant dans les Baléares principalement,
www.okrentacar.es
Ce dernier est donc en cours de refonte et est très bien positionné sur les requêtes "rent a car", "rent a car mallorca" sur Google Espagne, et ce malgré l'archaïsme évident du site,
J'aimerais donc ne pas perdre mon référencement en un coup de crawl suite à la publication de la nouvelle version,
L'architecture du site a un peu changé,
- Création d'une page par agence,
- Le maillage interne est plus dense (plus de liens entre mes pages, notamment entre les pages agence)
- Création d'une catégorie "offres" avec nos campagnes et nos différentes catégories de voiture,
- Plus de texte (notamment en Home et dans les pages "Agence")
- Certaines URLs changeront (les 301 ont été prévues)
Sinon je suis un peu perdu concernant les concepts suivants:
- Le robots.txt est-il indispensable si on a noindex les pages qu'on voulait? Le configurer permet-il d'accélérer l'indexation du site ou le crawl?
- Ou est-ce le rôle du sitemaps qui doit être soumis a la Google Search Console?
- J'ai lu plusieurs articles qui mentionnait le fait de passer ses pages en "noindex, follow", pour profiter du jus de celles-ci?
Mon premier sujet est bien chargé du coup (et sûrement un peu confus!)
Merci d'avance pour vos conseils,
Bien à vous,
Romain,
🔴 Hors ligne
Ay,
Pour "Ou est-ce le rôle du sitemaps qui doit être soumis a la Google Search Console?" j'ai déjà vu des mecs dire que si ta structure de site est bien, le sitemap c'est useless (et je pense dans ce sens). En partant du principe que toutes les pages intéressantes sont crawlables depuis ton site via des liens internes correctes. Souvent j'oublie moi-même de mettre un sitemap et je n'ai jamais eu aucun problème de crawl.
Infrastructure, VPS, serveurs, développement web et scripts, ... https://www.alsahack.com !
🔴 Hors ligne
Bonjour Krusty,
Oui j'avais lu ça aussi, ce qui serait logique, mais le fait de soumettre manuellement le site à Google Search Console n'accélère-t-il pas le crawl?
Romain,
🔴 Hors ligne
- Le robots.txt est-il indispensable si on a noindex les pages qu'on voulait? Le configurer permet-il d'accélérer l'indexation du site ou le crawl?
- Ou est-ce le rôle du sitemaps qui doit être soumis a la Google Search Console?
- J'ai lu plusieurs articles qui mentionnait le fait de passer ses pages en "noindex, follow", pour profiter du jus de celles-ci?
Bonsoir @rretailleau ,
Dans l'ordre:
- Le robots.txt interdit le crawl et non l'indexation. L'on confond souvent les deux car géneralement l'on associe à tort les deux ensembles. Si tu veux interdire l'indexation c'est le noindex qui fait le boulot mais lors de ta refonte profites en pour bien configurer ton robots.txt pour que google evite de crawler des pages inutiles de ton site.
-Lors d'une refonte de site avec changement d'urls c'est toujours bien d'indiquer à GG la nouvelle structure avec un sitemap pour gagner un peu de temps sur l'indexation des nouvelles pages. Après si ton site est correctement architecturé et optimisé GG n'aura aucun mal à crawler toutes les nouvelles urls. Dans ta situation C'est selon moi juste un gain de temps d'envoyer un sitemap mais pour ce que cela te coute en temps ( casi rien) autant le faire.
- Noindex follow veut dire que tu interdit l indexation a GG mais pas de prendre en considération les liens de celle ci. Quelle est ton objectif de l'utilisation du noindex follow pour ton site ?
Dernière modification par Ropo (2016-05-16 21:13:01)
🔴 Hors ligne
Bonjour @ropo,
Merci pour tes réponses complètes,
- C'est plus clair avec ton explication Quel est l'intérêt que Google ne crawle pas des pages inutiles de mon site?
- OK
- J'ai une landing page spéciale pour mes campagnes adwords, celle-ci comporte un moteur de recherche seul sans contenu aucun. C'est pour ça que je voulais la no-index et parce que je veux m'assurer que le traffic vienne seulement de mes annonces adwords. Ensuite vu le traffic qui arrive sur cette page je voulais la configurer en follow pour profiter du pagerank.
🔴 Hors ligne
- Chaque jour google alloue une partie du temps de ses bots a crawler les pages de ton site, le temps alloué a ton site étant limité, le but du jeu est par conséquent que les bots ne gaspillent pas leur temps a crawler des pages qui ne t'interessent pas d'un point de vue SEO mais bien tes pages importantes. Si tu veux aller plus loin tu peux t 'initier a l'analyse de logs avec l'outil http://box.watussi.fr/ qui est gratuit , cela te donnnera déjà un aperçu du comportement des bots sur ton site
- Pour la landing page avec le noindex follow ca me parait interessant mais je n'a jamais testé ce cas de figure. En tout ca cela ne peut pas faire de mal donc vas y test.
Dernière modification par Ropo (2016-05-17 09:54:23)
🔴 Hors ligne
🔴 Hors ligne
Pages :: 1