Se sécuriser contre l'Aspiration de site

Réduire
X
 
  • Filtrer
  • Heure
  • Afficher
Tout effacer
nouveaux messages

  • Se sécuriser contre l'Aspiration de site

    Bonjour,

    Existe t-il un composant, module ou plugin de qualité pouvant empêcher toute "aspiration d'un site Joomla 3.8" ?
    S'ils en existent plusieurs : quel est le meilleur, à votre avis ?
    D'avance merci pour votre aide.

  • #2
    Bonjour,

    Sauf à connaître tes accès FTP ni accès à ta base de données, c'est théoriquement impossible.

    1. Avec un bon robots.txt, tu bloques la visibilité des répertoires sensibles (j'utilise celui proposé par Fred et Daneel : https://www.fred-net.fr/blog/joomla/...fichier-robots)
    2. Avec un bon fichier .htaccess : là, j'utilise AESecure qui, lui aussi, va bloquer l'accès aux répertoires sensibles, entre autres possibilités.

    Après, il est toujours possible de faire des copies écran de ton site et de récupérer le code généré (html, css, js, ...), mais, ce n'est pas "une aspiration d'un site Joomla" car tu n'auras pas la base de données, ni les fichiers php qui ont servi à la génération des pages.

    Pascal
    If anything can go wrong, it will...If I can help, I will ..https://conseilgouz.com

    Commentaire


    • #3
      Bonsoir

      Avec un fichier .htaccess, on peut jouer sur la notion de user-agent et autoriser (whitelister) ou interdire (blacklister) certains logiciels / scripts. Les "bons" aspirateurs auront une signature spécifique comme p.ex. "BonAspirateur". Là, facile, tu blacklistes. Mais un aspirateur peut se faire passer pour Chrome et donc passera. Filtrer sur le user-agent ne permettra donc que de bloquer les "gentils".

      Un aspirateur, c'est un logiciel qui va lancer en série des accès sur ton site pour suivre chaque lien donc, logiquement, il suffirait de détecter de multiples requêtes depuis la même adresse IP. Une même IP qui fait des dizaines d'accès, sur des pages différentes, en quelques secondes est, à priori, un script à bloquer. Ici, bloquer l'IP.

      Donc, je pense, il faudrait plus se diriger vers ce type de script : bloquer l'accès au site si xxx requêtes en moins de yyy secondes depuis la même IP.

      Bonne soirée.
      Christophe (cavo789)
      Mon blog, on y parle Docker, PHP, WSL, Markdown et plein d'autres choses : https://www.avonture.be
      Logiciel gratuit de scan antivirus : https://github.com/cavo789/aesecure_quickscan (plus de 45.000 virus détectés, 700.000 fichiers sur liste blanche)​

      Commentaire


      • #4
        Bonsoir,

        +1 avec Christophe

        Par exemple dans le htaccess :

        Code:
        RewriteEngine On
        RewriteCond %{HTTP_USER_AGENT} ^.*HTTrack.*$ [OR] 
         RewriteCond %{HTTP_USER_AGENT} ^.*FileHound.*$ 
        RewriteRule /* http://www.google.com/ [R,L]
        Passé l'activation de la réécriture, si le user-agent correspond à HTTrack (un aspirateur de site connu), celui-ci sera redirigé vers google.com (ou un autre site de votre choix).
        On trouvera d'autres type de user-agent en cherchant bien...

        Mais on luttera difficilement sur des solutions plus moderne comme https://xdan.ru/copysite/
        L'aspirateur utilise des serveurs proxy et peut changer de signature pour faire croire à un navigateur comme firefox ou chrome.
        J'ai eu l'occasion de tester dans sa phase gratuite et il est capable de convertir la page en ligne en template joomla (plus ou moins réussi mais avec succès sur le portail joomla.fr).
        C'est effrayant !

        La solution, c'est de bloquer l'accès un peu trop rapide de visiter toutes les pages en quelques secondes... Les utilisateurs du cdn cloudflare.com même dans la solution de base gratuite ont une protection anti ddos qui bloquera par un captcha donc de quoi bloquer ces différentes solutions, y compris celui de xdan.

        Bonne soirée !
        Joomla User Group (JUG) Lille : https://www.facebook.com/groups/JUGLille/

        Commentaire


        • #5
          Merci beaucoup à vous 3 : Pascal, Christophe et Daneel.
          Vos explications et conseils sont on ne peut plus clairs et précis.

          Donc, pour résumer, le plus simple et le plus efficace est de surveiller les "ip" qui font un nombre de requêtes important dans un espace de temps très court.
          Question ultime : existe t-il un outil (composant, module ou plugin tiers) prêt à l'emploi pour mémoriser ces requins, voire même paramétrable pour qu'il bloque, bannisse ces ip ? (cf. du type de spambotcheck)
          J'utilise le composant spambotcheck pour bloquer le cas échéant un utilisateur sur son ip, mais je n'y vois pas la fonctionnalité de détection et d'enregistrement d'un utilisateur faisant un nombre important de requêtes dans un laps de temps très court !
          Dernière édition par Visiteur à 23/07/2018, 09h53

          Commentaire

          Annonce

          Réduire
          Aucune annonce pour le moment.

          Partenaire de l'association

          Réduire

          Hébergeur Web PlanetHoster
          Travaille ...
          X