probleme avec robots.txt

Réduire
X
 
  • Filtrer
  • Heure
  • Afficher
Tout effacer
nouveaux messages

  • #16
    Re : probleme avec robots.txt

    Attend, là il y a deux choses différentes :
    * le siteMap, que xMap ne sait pas faire dans le cas d'un site multi-langue et pour lequel il n'y arien d'autre à faire que de gérer manuellement une solution provisoire (ou définitive)
    * d'autre part le fichier robots.txt qui lui autorise ou pas Google et les crawlers respectueux à parcourir ton site

    Il s'agit bien de deux problèmes distincts.Il faut trouver le moyen d'autoriser les crawlers à accéder aux répertoires physiques lorsque l'on veut accéder aux données multi-langues. Je dois admettre que j'ai un peu de mal à comprendre pourquoi ça coince.

    En ce qui concerne xMap, c'est de notoriété publique qu'il a des soucis avec les sites multi-lagues. Peut être faut il regarder du côté de http://extensions.joomla.org/extensi...FwcyI7fQ%3D%3D qui est payant (mais pas cher) et semble t il très efficace

    PS : le problème de xMap (outre le multi langue) est que le développeur ne semble pas décider à faire avancer son produit ...
    Il y a 10 sortes de gens. Ceux qui savent compter en binaire et ceux qui ne savent pas ...

    Commentaire

    Annonce

    Réduire
    Aucune annonce pour le moment.

    Partenaire de l'association

    Réduire

    Hébergeur Web PlanetHoster
    Travaille ...
    X