Est ce que le robots.txt bloque les bons fichiers de mon site ?
Valentin Garcia est l'auteur de l’article Is Robots.txt Blocking the Right Files on My Site? dont la traduction est autorisée par ostraining.com
Par défaut toutes les URLs de votre site peuvent être indexées par Google. Cependant si vous souhaitez que certaines pages spécifiques ne soient pas indexées par Google, vous pouvez utiliser votre fichier robots.txt.
Dans votre robots.txt vous prouvez spécifiez à Google de ne pas indexer certaines de vos pages en utilisant la règle "Disallow":
Disallow: /ne-pas-scanner-cette-url/
Dans ce tutoriel, je vais vous montrer comment utiliser la Google Search Console (ex Google Outils pour les Webmasters) pour vérifier si vous avez réussit à bloquer l'indexation d'une URL spécifique .



Le site cmscritic a annoncé que Joomla a gagné le prix du "meilleur CMS gratuit", pour ce prix il y eut une compétition serrées dans la catégorie des "Meilleur CMS gratuit" entre Joomla! Grav CMS & October CMS. Plusieurs milliers de votes furent enregistrés mais il devint rapidement évident que Joomla fut le gagnant.


Google Outils pour les webmasters vous permet de découvrir une liste des mots clés (ou expressions) de recherche que les internautes utilisent le plus fréquemment pour accéder à votre site.
Nous savons que la vitesse de chargement de votre site est non seulement importante pour les internautes mais aussi pour le