(titre initial de ce post : Suppression URL dans les GWT inefficace. je change de titre car finalement le problème de fond, c'est que les GWT affichent des erreurs serveur code 500 pour des pages qui devraient sortir en code 404 voire même en 410 pages supprimées. Or on ne peut demander la suppression d'URL en erreur 500 aux GWT...)
Bonjour,
D'abord, pardon de poster sur un forum Joomla une question relative aux outils pour webmaster de Google.
Mais ce forum étant infiniment plus actif et réactif que le forum Google (et que quelques autres que je ne citerai pas dans lesquels j'ai tenté de trouver réponse à ma question...), je préfère courir le risque de me faire tirer un peu les oreilles pour avoir une chance d'obtenir une réponse efficace ici.
Mon problème : suite à une énorme refonte de mon site, je me retrouve avec une foule d'URL renvoyant des erreurs 500 dans les GWT. Normal, ces URLs n'existent plus.
Cet été avant les vacances, je me suis donc coltinée une longue liste d'URL à supprimer manuellement et une par une dans les GWT. Puis j'ai indiqué que toutes les erreurs 500 étaient résolues.
Super, la courbe des erreurs d'indexation a spectaculairement chuté, c'était parfait.
Las... tout revient peu à peu comme avant
Quand je vais consulter la liste des URL pour lesquelles j'ai demandé la suppression, ici : https://www.google.com/webmasters/tools/removals?pli=1 ,
je retrouve bien ce que j'avais fait, mais en face de chaque ligne il est écrit
État : Expirée (qu'est-ce que ça veut dire ? qu'il faut renouveler la demande périodiquement ? qu'elle n'a pas été traitée à temps par Google ? ou quoi ?)
Type de suppression : Suppression d'une page obsolète
Alors j'ai 2 questions :
a) existe-t-il un moyen fiable de demander la suppression définitive de ces URL à Google ?
b) sinon, Est-ce que je ne pourrais pas, via le fichier robots.txt, écrire une ligne qui permettrait d'écarter de façon fiable toutes ces URL ? Elles ont en effet un point commun : elles commencent toutes par www.monsite.fr/html/...
(alors que sur mon site actuel, c'est plutôt : www.monsite.fr/index.php/...)
Si la solution b) vous paraît être la plus fiable, comment dois-je écrire la ligne dans robots.txt ?
Les autres commandes sont écrites par exemple /administrator/ ce qui signifie, si j'ai bien compris : www.monsite.fr/index.php/administrator/
Mais vu que pour ces vieilles URL la chaîne index.php n'existe pas, je ne sais pas trop comment faire ... dois-je écrire http://www.monsite.fr/html/ ?
Merci d'avance pour ce nouveau coup de main
Bonjour,
D'abord, pardon de poster sur un forum Joomla une question relative aux outils pour webmaster de Google.
Mais ce forum étant infiniment plus actif et réactif que le forum Google (et que quelques autres que je ne citerai pas dans lesquels j'ai tenté de trouver réponse à ma question...), je préfère courir le risque de me faire tirer un peu les oreilles pour avoir une chance d'obtenir une réponse efficace ici.
Mon problème : suite à une énorme refonte de mon site, je me retrouve avec une foule d'URL renvoyant des erreurs 500 dans les GWT. Normal, ces URLs n'existent plus.
Cet été avant les vacances, je me suis donc coltinée une longue liste d'URL à supprimer manuellement et une par une dans les GWT. Puis j'ai indiqué que toutes les erreurs 500 étaient résolues.
Super, la courbe des erreurs d'indexation a spectaculairement chuté, c'était parfait.
Las... tout revient peu à peu comme avant
Quand je vais consulter la liste des URL pour lesquelles j'ai demandé la suppression, ici : https://www.google.com/webmasters/tools/removals?pli=1 ,
je retrouve bien ce que j'avais fait, mais en face de chaque ligne il est écrit
État : Expirée (qu'est-ce que ça veut dire ? qu'il faut renouveler la demande périodiquement ? qu'elle n'a pas été traitée à temps par Google ? ou quoi ?)
Type de suppression : Suppression d'une page obsolète
Alors j'ai 2 questions :
a) existe-t-il un moyen fiable de demander la suppression définitive de ces URL à Google ?
b) sinon, Est-ce que je ne pourrais pas, via le fichier robots.txt, écrire une ligne qui permettrait d'écarter de façon fiable toutes ces URL ? Elles ont en effet un point commun : elles commencent toutes par www.monsite.fr/html/...
(alors que sur mon site actuel, c'est plutôt : www.monsite.fr/index.php/...)
Si la solution b) vous paraît être la plus fiable, comment dois-je écrire la ligne dans robots.txt ?
Les autres commandes sont écrites par exemple /administrator/ ce qui signifie, si j'ai bien compris : www.monsite.fr/index.php/administrator/
Mais vu que pour ces vieilles URL la chaîne index.php n'existe pas, je ne sais pas trop comment faire ... dois-je écrire http://www.monsite.fr/html/ ?
Merci d'avance pour ce nouveau coup de main
Commentaire