Vous n'êtes pas identifié(e).
Salut,
Je souhaite aujourd'hui améliorer le ref de mon site qui date de 2012. www.t-aimi.fr
Petit historique : création du site en 2012, 2012-2013 j ai un ref (samosa) qui bosse dessus et le site passe rapidement a 1500 visiteurs uniques par jour. Lui et un autre site font vivre ma societe de plus de 10 salariés et mes prestataires. fin 2013, je pense que je me suis pris pingouin II ou une autre MAJ qui m a eclaté ce site. 2015-2016, je fais refaire le site sous WP par ma femme, suite au conseil de notre SEO qui nous martelait depuis 4 ans de le passer sous WP (il etait sous WIX ), refonte donc sans pouvoir faire des redirection a cause des url de wix.
Le site a connu plusieurs attaques NSEO a base de duplicate content et liens pourris russes entre 2014 et 2017, je me demande bien pourquoi d ailleurs j ai disallow en masse tous ces liens pourris dans la search console.
Le site a 50 visiteurs uniques par jour, une misere quoi. Depuis je ne bosse plus avec le referenceur et je n ai fait que des petits trucs : j ai passe les fiches profils en no-index parce que j estime qu elles sont de basses qualités. Je sais pas s il ne vaurait pas mieux disallow dans le robot.txt ces fiche et si oui comment faire? je pense que je perd du budget de crawl.
les profiles sont du type hxxp://www.t-aimi.fr/profile/blabla/ si je mets
User-agent: *
Disallow: /profile/
C est bon cette syntaxe?
Vous verrez d autres trucs pour optimiser le ref du site? a part du netlinking car je sais qu il va falloir que je m y mette
Thx pour votre aide j aimerais bien redoré le blason de mon bon vieux site
Dernière modification par Charlie (2018-10-01 13:34:37)
🔴 Hors ligne
Salut @Charlie, j'ai regardé ton site en vitesse voila ce que j'ai pu trouver:
1- Tu n'as pas publier d'article de blog depuis 2017, un conseil fait une bonne recherche de mot clé et publie du contenu de bonne qualité et fait du linking dessus.
2- Passer les fiches des membres en no index c'est bien mais elles se font quand même crawler et sont accessibles simplement avec leurs url; Afin d'optimiser au mieux ton site il faut pas qu'elles soient accessibles directement mais seulement aux utilisateurs connectés, elles n'ont aucun intérêt SEO et plombe la qualité du site.
3- Il faut refaire ton maillage interne. J'ai passé ton site au crawler et tu as seulement 12% de tes pages en profondeur 1 et 2 et ta profondeur va jusqu’à 10. Au dela les pages commence a perdre de l’intérêt pour GG. Je sais que le site est gros j'ai trouvé 3500 pages html, donc y a beaucoup de boulot mais refaire le linking interne du site et l'optimiser au mieux ça te permet d'avoir un site vraiment pertinent pour notre amis GG
Mon conseil, trouve une agence SEO bonne pour optimiser la structure des sites et bosse la dessus en priorité. Ton site n'étant pas optimisé tu ne peux pas ranker comme tu le pourrais avec une structure correct.
En espérant t'avoir aidé
"Without Data You're just another person with an opinion" - W. Edwards Deming
🔴 Hors ligne
Salut @Charlie,
Au niveau de la webperf:
- Je regrouperais et minifierais les CSS et les JS pour améliorer la vitesse de chargement du site.
- Tu as des images assez lourdes, tu pourrais réduire le poids de la page en les optimisant.
- Enfin, ajoutes une date d'expiration dans ton htaccess sur tes ressources.
Tu as pleins de plugins wordpress qui font ça automatiquement
Dernière modification par NzT (2018-10-01 16:34:23)
"Un expert est un homme qui a fait toutes les erreurs possibles dans son domaine." Consultant SEO Nice |Twitter | Linkedin
🔴 Hors ligne
@NzT Pour l'optimisation d'image et la minification du CSS JS en wordpress tu as :
- Wp rocket à 39$
- Imagify
Perso ce sont les meilleurs plugins que j'ai trouvé.
Dernière modification par Trashbaby (2018-10-01 16:47:29)
"Without Data You're just another person with an opinion" - W. Edwards Deming
🔴 Hors ligne
Merci pour vos réponses :=)
Tu as clairement raison pour les articles, cela fait longtemps que je n ai rien ecrit sur la rencontre, mais ca reviendra si je me mets des coups de pieds au cul
Si je mets dans le robot txt :
User-agent: *
Disallow: /profile/
ca empeche bien le crawl des profiles qui ont une url du style www.example.com/profile/xxx ? Je suis pas sur d ou ma question mais clairement c etait un pb que j avais identifié. Et encore j ai 20k membres mais que 1k qui apparaissent, sa savoir pourquoi, 1 an que j essaie de savoir pourquoi mais je suis pas un codeur.
Merci pour votre tips pour les images je vais essayer de faire des que j ai le temps ?
Alors franchement pour la profondeur des pages de 10 je sais pas trop quoi dire, ca doit etre encore des pages profil a la con ou des pages que WP cree je ne sais pas comment. Je ne les connais meme pas lol. Je vais voir si j arrive a les trouver.
Sinon normalement ce que je suis censé avoir :
Home
Plusieurs page a N-1 dont la page d accueil du blog
N-2 certins articles du blog, et l acces a la deuxieme page d accueil du blog
N-3 les derniers articles.
Ca c est en théorie du coup les profondeurs de 10 je ne sais pas trop d ou ca vient
J ai fait un :site et j ai que 60 url d indexer donc les 3500 c est bien des profils de membres qui sont en no index Les disallow dans le robots txt va changer quelques choses a mon positionnement?
Dernière modification par Charlie (2018-10-02 16:26:41)
🔴 Hors ligne