Vous n'êtes pas identifié(e).
Salut à tous,
Déjà pour commencer vraiment un énorme merci à vous tous pour toutes les astuces que vous m'avez filé. J'apprécie vraiment, il y a peu de forums aussi réactifs.
C'est moi qui n'assure pas, je vous ai laissé sans nouvelles depuis plusieurs jours et en plus je n'ai même pas eu le temps de me pencher sur mon site, beaucoup trop de taf en ce moment et très peu de temps pour mes projets persos.
Cette semaine ça devrait être mieux, je vais me pencher là dessus. Même si je dois bien avouer que toucher aux CSS et JS d'un site me fait un peu peur
Je vous tiens au courant,
Merci encore
🔴 Hors ligne
@Antho38 salut, commence par le css c'est le plus simple
Petite astuce avant de faire des modifs.
Tu souhaites modifier par exemple monfichier.css
Duplique ton fichier comme ça (dans le même dossier) : monfichier.css.antho38
Pour retrouver les fichiers d'origines et les fichiers qui sont modifiés c'est beaucoup plus simple sur le serveur avec la commande.
grep -lri "antho38" /path
🔴 Hors ligne
Petit retour d'expérience récent (même si pas applicable au cas du présent post), cas d'un Drupal, sur un dédié (site seul dessus), le site ramait vraiment beaucoup depuis plusieurs jours/semaines. Le serveur avait été optimisé correctement (tant au niveau de Apache que MySql).
Problème : Wait Time énorme malgré des optimisations serveur
Solution : Mises à jour du coeur et des modules
On a divisé par 5 le temps de réponse, à voir s'il reprend les positions perdus depuis cette période difficile.
J.
🔴 Hors ligne
🔴 Hors ligne
@Dukofo effectivement si les bots vont plus vite à crawler les pages, le nombre de pages visitées par les bots à la fin de la journée et plus important.
Pour favoriser le passage des bots au bon endroit sur les bonnes pages il faut indiquer dans le robots.txt les pages à ne pas crawler avec la mention :
User-agent: *
Disallow:
Depuis que j'ai fait le ménage, comme par exemple la page "panier", j'ai un crawl des bots beaucoup plus efficace.
🔴 Hors ligne