Robots.txt et sitemap.xml pour un site multilingue

Réduire
X
 
  • Filtrer
  • Heure
  • Afficher
Tout effacer
nouveaux messages

  • [RÉGLÉ] Robots.txt et sitemap.xml pour un site multilingue

    Bonjour à tous,

    à chaque fois que j'ai fais appel aux experts de ce forum, j'y ai reçu une aide précieuse. Je retente donc ma chance ! Merci d'avance pour le temps que vous pourrez consacrer à mon problème.

    Je bosse pour un foyer social à Madagascar, et j'en profite pour refaire leur site web afin d'améliorer leur visibilité pour d'éventuels donateurs en Europe. Le site possède les caractéristiques suivantes :joomla 2,5, multilingue anglais français, www.tanjomoha.com

    Mon problème maintenant consiste à améliorer son référencement. Je galère pour deux raisons :
    - les infos que je récolte sur internet sont très nombreuses et assez éclatées : j'ai du mal à trouver une ligne directrice,
    - le site web est multilingue et cela m'embrouille...

    Voila les différentes questions qu'il me reste :

    - première question. J'ai installé xmap, et récolté donc deux sites map à ces adresses : http://tanjomoha.com/index.php/en/?o...component&id=1, et http://tanjomoha.com/index.php/fr/?o...component&id=1. Un sitemap pour chaque langue. Jusque là, OK. Mais après ? J'ai lu qu'il fallait intégrer ces adresses dans le robots.txt via cette écriture :
    Sitemap : "l'adresse du site map"
    Mais comment faire dans le cas d'un site multilingue où j'ai deux sites map différents ?

    - deuxième question. J'ai lu quelques part qu'il valait mieux activer les deux Paramètres SEO : Réécriture d'URL en clair (SEF) et la Réécriture au 'vol' des URL. C'est fait. Mais j'ai aussi lu qu'il fallait modifier en conséquence le fichiers robots.txt en conséquence afin d'éviter des doublons. Je n'ai pas compris la suite du tuto. Est ce que ce robots.txt est OK ? Si non, que faut-il rajouter ?

    User-agent: *
    Disallow: /administrator/
    Disallow: /cache/
    Disallow: /cli/
    Disallow: /components/
    Disallow: /images/
    Disallow: /includes/
    Disallow: /installation/
    Disallow: /language/
    Disallow: /libraries/
    Disallow: /logs/
    Disallow: /media/
    Disallow: /modules/
    Disallow: /plugins/
    Disallow: /templates/
    Disallow: /tmp/

    - troisième question : je vois parfois des sites sur google dont les principales catégories sont déjà listées dans le moteur de recherche. C'est génial ! Qu'est ce qui fait que certains sites l'ont et d'autres non ?

    Merci à tous, et à très bientôt !

    Théo

  • #2
    Re : Robots.txt et sitemap.xml pour un site multilingue

    le mieux c est de passer par les google webmaster tools et de proposer tes deux sitemaps a google.
    dans l outil des sitemaps, tu lui donnes lurl en francais et l url en anglais. Les robots passeront ensuite et te referenceront directement c est plus simple.
    Par contre cela peut prendre un mois pour que les robots passent lors de la premiere indexation.

    Pur les doublons, quel est le tuto que tu as suivi?

    Pour ta troisieme question, c est le fait de remplir les champs metadonnées de tes catégories.

    Commentaire


    • #3
      Re : Robots.txt et sitemap.xml pour un site multilingue

      Génial, merci pour ta réponse ! J'ai rempli google webmaster.

      Pour les doublons, je crois que je vais éviter de me prendre la tête avec ça, et faire confiance à Joomla. J'imagine que c'est paramétré correctement, ils savent ce qu'ils font !

      Et pour la troisième question, ravi que ce soit aussi simple. Merci encore !

      Commentaire

      Annonce

      Réduire
      Aucune annonce pour le moment.

      Partenaire de l'association

      Réduire

      Hébergeur Web PlanetHoster
      Travaille ...
      X