histoire de z-index ?

Réduire
X
 
  • Filtrer
  • Heure
  • Afficher
Tout effacer
nouveaux messages

  • #16
    Re : histoire de z-index ?

    Une piste à explorer : en consultant le code source des pages, on voit que les fichiers .JS sont rejetés à la fin du code (« deferred »). Cela pourrait bien être l'origine des problèmes qui subsistent.

    Une discussion sur ce sujet : http://forum.joomla.fr/showthread.ph...pt-sous-joomla.

    => Essayer de désactiver le « defer » pour voir.
    Créateur de sites internet — Agence web indépendante http://www.e-33.fr | http://www.quali-site.fr (région de Bordeaux)

    Commentaire


    • #17
      Re : histoire de z-index ?

      Envoyé par PhilJ Voir le message

      Windows 8.1, Windows 7 + un bon vieil XP.
      Et tu as le même problème d'affichage des images sous ces 3 OS ?


      Envoyé par PhilJ Voir le message
      Une piste à explorer : en consultant le code source des pages, on voit que les fichiers .JS sont rejetés à la fin du code (« deferred »). Cela pourrait bien être l'origine des problèmes qui subsistent.

      Une discussion sur ce sujet : http://forum.joomla.fr/showthread.ph...pt-sous-joomla.

      => Essayer de désactiver le « defer » pour voir.
      Ce qui revient grosso modo à désactiver tout ce que j'ai mis en place pour améliorer le temps de chargement de la page qui, ça ne t'aura pas échappé, est déjà fort long même avec ces mesures.

      Je vais d'abord scruter mes stats de visite pour voir si si j'ai un infléchissement du taux de rebond au moment où j'ai mis en place l'optimisation sur le site. Ça devrait me dire si le problème que tu rencontres sur ta machine est généralisé, ou bien si c'est suffisamment isolé pour pouvoir être considéré comme perte acceptable.
      Je reviendrai ici te dire ce que j'aurai trouvé.
      Merci encore.

      EDIT : de retour de GA, je ne vois pas de modification significative depuis le 25/11, date à laquelle j'ai mis en place JCH (dont le defer des scripts), ou depuis le 07/12, date à laquelle j'ai mis en place le lazy loading. J'ai une bonne grosse chute pendant la période de Noël (normal dans mon activité), puis un joli redémarrage avec globalement une tendance à la hausse. Su le graphe ci-après, je ne fais pas apparaître, par souci de lisibilité, le taux de rebond, le nombre de pages par sessions ou leur durée, car ce sont des stats relativement stables (même si la durée moyenne a une tendance haussière) qui ne montrent pas non plus d'inflexion particulière et encore moins négative depuis la mise en place de l'optimisation.
      Qu'en penses-tu ? Puis-je m'autoriser à penser que le problème que tu rencontres serait circoncis à quelques cas particuliers, quelques combinaisons particulières de circonstances ?
      Si tu vois une autre façon de m'en faire une idée, je suis preneuse, merci !
      Cliquez sur l'image pour l'afficher en taille normale

Nom : sessions-utilisateurs-pages-sur-1-an-20160305.jpg 
Affichages : 1 
Taille : 50,0 Ko 
ID : 1805404
      Dernière édition par FlodAriege à 05/03/2016, 14h02
      Flo, Ariège

      Il n'y a que celui qui a honte d'apprendre qui a peur de demander

      Commentaire


      • #18
        Re : histoire de z-index ?

        Envoyé par FlodAriege Voir le message
        Et tu as le même problème d'affichage des images sous ces 3 OS ?
        Oui, c'est ce que j'ai écrit et je confirme ce que j'ai écrit.


        Envoyé par PhilJ
        => Essayer de désactiver le « defer » pour voir.
        Ce qui revient grosso modo à désactiver tout ce que j'ai mis en place pour améliorer le temps de chargement de la page qui, ça ne t'aura pas échappé, est déjà fort long même avec ces mesures.
        Une chose est sûre, rejeter ainsi les Javascript en fin de code est une source bien connue de problèmes. As-tu lu la discussion depuis le lien déjà évoqué : http://forum.joomla.fr/showthread.ph...pt-sous-joomla ?

        Plus généralement, JCHoptimize est connu pour être un bon produit... difficile à manipuler.


        Je vais d'abord scruter mes stats de visite pour voir si si j'ai un infléchissement du taux de rebond au moment où j'ai mis en place l'optimisation sur le site. Ça devrait me dire si le problème que tu rencontres sur ta machine est généralisé, ou bien si c'est suffisamment isolé pour pouvoir être considéré comme perte acceptable.
        Euh, depuis chez moi les fenêtres modales ne fonctionnent correctement sur aucune machine (pas seulement sur une) sous Firefox.


        [...] Qu'en penses-tu ? Puis-je m'autoriser à penser que le problème que tu rencontres serait circoncis à quelques cas particuliers, quelques combinaisons particulières de circonstances ?
        Je dirais plutôt circonscrit .

        En fait c'est une question de point de vue : si tu étais chez moi, donc avec des soucis d'accessibilité à ton site, tu raisonnerais certainement autrement, selon d'autres critères.


        Une petite question (à tout hasard) : quel est le débit de ta connexion internet en download ? On trouve facilement des tests en ligne pour le connaître (par exemple celui-ci : http://mire.sfr.fr/mire_test.html).
        Créateur de sites internet — Agence web indépendante http://www.e-33.fr | http://www.quali-site.fr (région de Bordeaux)

        Commentaire


        • #19
          Re : histoire de z-index ?

          Alors :
          mon débit en download est tout pourri : 1,11 Mbits (mais il est vrai que la TV est allumée, sûr que ça fausse le test, mais enfin mon PC ne bénéficie quand même que de ce reste de débit...)

          Je viens d'aller désactiver le defer et asynchrone en passant du réglage Optimum au réglage Premium sous JCH.

          Avant ou après, sous GTMetrix, j'ai toujours la même note pourrie de 11 sur le critère defer javascript... mais qui ne fait référence qu'à des scripts externes genre google etc
          Par contre on passe de 95 requêtes à 108... ;(

          Au 2nd test la note était globalement un peu meilleure, mais ... le temps de chargement bondit de 8,7 s (déjà énorme) à plus de 13 s !!!

          Dis-moi au moins que ça résout le problème chez toi ... J'attends ton retour.
          Flo, Ariège

          Il n'y a que celui qui a honte d'apprendre qui a peur de demander

          Commentaire


          • #20
            Re : histoire de z-index ?

            Envoyé par FlodAriege Voir le message
            mon débit en download est tout pourri : 1,11 Mbits (mais il est vrai que la TV est allumée, sûr que ça fausse le test, mais enfin mon PC ne bénéficie quand même que de ce reste de débit...).
            Donc mon hypothèse ne semble pas pouvoir servir.


            Je viens d'aller désactiver le defer et asynchrone en passant du réglage Optimum au réglage Premium sous JCH.
            ...Et là, tout marche très bien, y compris les fenêtres modales sous Firefox :-)
            Seul problème subsistant, toujours sous Firefox : le chargement des pages n'en finit pas de « mouliner ».

            Avant ou après, sous GTMetrix, j'ai toujours la même note pourrie de 11 sur le critère defer javascript... mais qui ne fait référence qu'à des scripts externes genre google etc
            Par contre on passe de 95 requêtes à 108... ;(

            Au 2nd test la note était globalement un peu meilleure, mais ... le temps de chargement bondit de 8,7 s (déjà énorme) à plus de 13 s !!!
            Attention : GTMetrix te fournit une note reflétant la conformité de ton code avec certains critères d'optimisation vitesse. C'est tout et rien de plus. Et si tu n'as pas créé de compte payant, le test est réalisé par un visiteur situé à l'autre bout du monde (Vancouver, côte Ouest du Canada).

            A lire si ce n'est pas déjà fait : http://blog.wp-rocket.me/fr/attention-notes-performance.

            Ce que dit le test, toujours pour la page dont tu as indiqué l'URL au début de ce fil, entre autres, c'est que (1) le serveur sur lequel se trouve le site est lent, (2) GZIP n'est pas activé pour tout (économie, s'il l'était : 886 Ko), (3) Addthis mange à lui tout seul 747 Ko (avant compression), (4) pas de Expires Headers...

            De plus, à mon avis, la pub à gauche (qui ne te rapporte pas grand chose as-tu dit), et qui ne s'affiche toujours pas, me paraît être un bon candidat comme facteur de ralentissement, voire de blocage.

            Le temps de chargement estimé (<= le vocabulaire est important) pour cette page par GTMetrix est de 7.7 secondes, avec cette précision que le temps de chargement moyen constaté est de 6.9 secondes.

            Dareboost, avec Chrome depuis Paris indique 6.7 secondes.

            Toujours avec Chrome depuis Paris, Webpagetest.org indique 8.6 secondes en première passe, et 4.7 secondes en seconde passe.


            Donc rien de catastrophique, même si c'est vraiment perfectible.
            Créateur de sites internet — Agence web indépendante http://www.e-33.fr | http://www.quali-site.fr (région de Bordeaux)

            Commentaire


            • #21
              Re : histoire de z-index ?

              Bonjour

              Envoyé par FlodAriege Voir le message
              Christophe a bien trouvé un fichier JS manquant, mais à cette heure-ci je ne sais pas encore de quel fichier il s'agit, et s'il le faut ça n'a absolument rien à voir...
              Il s'agissait d'un js utilisé strictement par l'interface d'aeSecure, option 2.2 pour faire de l'auto-complete. Cela n'avait donc aucun lien avec le problème que tu décris ici voir un autre.

              Bonne journée.
              Christophe (cavo789)
              Mon blog, on y parle Docker, PHP, WSL, Markdown et plein d'autres choses : https://www.avonture.be
              Logiciel gratuit de scan antivirus : https://github.com/cavo789/aesecure_quickscan (plus de 45.000 virus détectés, 700.000 fichiers sur liste blanche)​

              Commentaire


              • #22
                Re : histoire de z-index ?

                Envoyé par PhilJ Voir le message
                Donc mon hypothèse ne semble pas pouvoir servir.
                Tu veux dire que tu pensais que je ne voyais pas le problème parce que j'aurais eu une connexion rapide ?


                Envoyé par PhilJ Voir le message
                ...Et là, tout marche très bien, y compris les fenêtres modales sous Firefox :-)
                C'est déjà ça.

                Envoyé par PhilJ Voir le message
                Seul problème subsistant, toujours sous Firefox : le chargement des pages n'en finit pas de « mouliner ».
                Ca alors... Là, je ne sais plus...

                Envoyé par PhilJ Voir le message
                Attention : GTMetrix te fournit une note reflétant la conformité de ton code avec certains critères d'optimisation vitesse. C'est tout et rien de plus. Et si tu n'as pas créé de compte payant, le test est réalisé par un visiteur situé à l'autre bout du monde (Vancouver, côte Ouest du Canada).

                A lire si ce n'est pas déjà fait : http://blog.wp-rocket.me/fr/attention-notes-performance.
                Merci pour ce lien, que je ne connaissais pas. Je vais installer l'extension Chrome pour mesurer le vrai temps de chargement.

                J'ai aussi découvert (hier seulement) : http://www.webpagetest.org/
                C'est intéressant, même si je suis encore loin d'avoir tout compris !

                Envoyé par PhilJ Voir le message
                Ce que dit le test, toujours pour la page dont tu as indiqué l'URL au début de ce fil, entre autres, c'est que (1) le serveur sur lequel se trouve le site est lent,

                (2) GZIP n'est pas activé pour tout (économie, s'il l'était : 886 Ko),
                Même cause commune : suis hébergée chez 1&1, qui n'accepte pas la compression gzip.
                Par un miracle que j'ai renoncé à comprendre, le recours à JCH m'a permis d'améliorer considérablement ma note sur ce critère, malgré tout.
                Je réfléchis à changer d'hébergeur, mais ça me paraît être une grosse, très grosse opération, à laquelle je ne me sens pas encore prête.

                Envoyé par PhilJ Voir le message
                (3) Addthis mange à lui tout seul 747 Ko (avant compression),
                Oui, ça m'avait déjà choquée quand j'ai étudié le poids de mes pages avec Web developer sous Firefox.
                Et c'est même beaucoup plus que cela (environ le double) quand tu totalises tout ce qui est en rapport avec addthis.
                J'ai posé la question à un tech de chez addthis, et celui-ci m'a quelque peu rassurée en me faisant remarquer que la plupart des internautes ont déjà en cache les scripts addthis (je n'emploie peut-être pas les bons termes, mais dans l'idée c'était un truc comme ça).
                Et d'ailleurs, quand je regarde le diagramme waterfall, je vois bien que ce ne sont pas les machins Addthis qui ralentissent ma page (ils se chargent super vite malgré leur poids)


                Envoyé par PhilJ Voir le message
                (4) pas de Expires Headers...
                Là je me heurte à mon incompétence.
                Mon .htaccess prévoit pourtant :

                <IfModule mod_expires.c>
                Header set cache-control: public
                ExpiresActive on
                ExpiresByType font/ttf "access plus 1 year"
                ExpiresByType application/x-font-woff "access plus 1 year"
                ExpiresByType application/vnd.ms-fontobject "access plus 1 year"
                ExpiresByType application/pdf "access plus 1 year"
                ExpiresByType application/x-shockwave-flash "access plus 1 year"
                ExpiresByType image/svg+xml "access plus 1 year"
                ExpiresByType image/png "access plus 1 year"
                ExpiresByType image/jpeg "access plus 1 year"
                ExpiresByType image/JPG "access plus 1 year"
                ExpiresByType image/gif "access plus 1 year"
                ExpiresByType image/x-icon "access plus 1 year"
                </IfModule>

                Envoyé par PhilJ Voir le message
                De plus, à mon avis, la pub à gauche (qui ne te rapporte pas grand chose as-tu dit), et qui ne s'affiche toujours pas, me paraît être un bon candidat comme facteur de ralentissement, voire de blocage.
                Ouais, d'autant qu'elle ne s'affiche (active view) qu'à peine 40% du temps (normal vu son emplacement). M'enfin, au global, elle rapporte plus ou moins 50 cents par jour sur l'1,50 € total, alors... bon, 500 balles, c'est déjà pas terrible (mais toujours bon à prendre), alors la supprimer reviendrait à renoncer à un billet de 150 €.
                Et puis, je suis sans doute naïve, mais j'ai du mal à croire qu'un script signé Google puisse être mal fichu.

                Envoyé par PhilJ Voir le message
                Le temps de chargement estimé (<= le vocabulaire est important) pour cette page par GTMetrix est de 7.7 secondes, avec cette précision que le temps de chargement moyen constaté est de 6.9 secondes.

                Dareboost, avec Chrome depuis Paris indique 6.7 secondes.

                Toujours avec Chrome depuis Paris, Webpagetest.org indique 8.6 secondes en première passe, et 4.7 secondes en seconde passe.

                Donc rien de catastrophique, même si c'est vraiment perfectible.
                T'es gentil, ça me remonte le moral

                Quand tu lis les articles où on te dit qu'une page doit se charger en 2 secondes, faute de quoi elle est vouée aux tréfonds des SERP, t'as juste envie de sauter par la fenêtre. Heu... non, pas vraiment hein, mais ça énerve quoi.
                Et puis un jour où tu es en train de lire un de ces articles plein de conseils sur l'optimisation et la rapidité de chargement sur un grand site bien connu, tu te dis... mais comment parviennent-ils à un tel résultat alors qu'à vue de nez il y a bien au moins autant d'images et de scripts divers sur leur page que sur la mienne ?!
                Alors tu vas voir dans GTmetrix (parce qu'à l'époque tu ne connaissais encore rien d'autre), et là tu réalises que les donneurs de leçons feraient bien de se les appliquer à eux-mêmes avant de démoraliser les petit-es webmasters amateur-es...

                Bon, sur ce je m'en vais essayer de comprendre les tenants et aboutissants de webpagetest, et puis faudra que je réfléchisse sérieusement à passer chez un hébergeur qui gzippe

                Merci pour toute ton aide PhilJ
                Flo, Ariège

                Il n'y a que celui qui a honte d'apprendre qui a peur de demander

                Commentaire


                • #23
                  Re : histoire de z-index ?

                  Envoyé par FlodAriege Voir le message
                  Tu veux dire que tu pensais que je ne voyais pas le problème parce que j'aurais eu une connexion rapide ?
                  ...en désespoir de trouver une raison plus ordinaire.

                  Chargement incomplet (pages moulinant continuellement) :

                  Ca alors... Là, je ne sais plus...
                  Il suffit de regarder l'onglet du navigateur donnant accès à la page : si ça « tournicote » continuellement, c'est que la totalité la page ne parvient pas à se charger.


                  Même cause commune : suis hébergée chez 1&1, qui n'accepte pas la compression gzip.
                  1&1

                  Je réfléchis à changer d'hébergeur, mais ça me paraît être une grosse, très grosse opération, à laquelle je ne me sens pas encore prête.
                  et, concernant l'annonce Google :

                  Ouais, d'autant qu'elle ne s'affiche (active view) qu'à peine 40% du temps (normal vu son emplacement). M'enfin, au global, elle rapporte plus ou moins 50 cents par jour sur l'1,50 € total, alors... bon, 500 balles, c'est déjà pas terrible (mais toujours bon à prendre), alors la supprimer reviendrait à renoncer à un billet de 150 €.
                  Même en faisant appel à un professionnel, un transfert de site devrait te coûter moins de 150 € .

                  Et : je ne voudrais pas être taquin (une fois de plus), mais n'y a-t-il pas quelque contradiction à écrire à la fois qu'il est vrai que l'annonce ne s'affiche pas toujours, et que tu as « du mal à croire qu'un script signé Google puisse être mal fichu » ? Mmmh ?

                  De toute façon — accessoirement — je n'ai jamais affirmé que le script Google était mal fichu. C'est possible, en effet, mais il est tout aussi possible que ce non affichage ou cet affichage aléatoire soit un effet d'un problème présent sur le site ou bien d'un emplacement inadéquat dans la structure de la page (voir par exemple https://support.google.com/adsense/answer/1208336?hl=fr).


                  A propos de parasite, concernant la charge Addthis :

                  Oui, ça m'avait déjà choquée quand j'ai étudié le poids de mes pages avec Web developer sous Firefox.
                  Et c'est même beaucoup plus que cela (environ le double) quand tu totalises tout ce qui est en rapport avec addthis. J'ai posé la question à un tech de chez addthis, et celui-ci m'a quelque peu rassurée en me faisant remarquer que la plupart des internautes ont déjà en cache les scripts addthis (je n'emploie peut-être pas les bons termes, mais dans l'idée c'était un truc comme ça).
                  C'est sûr qu'il ne vont pas te dire qu'ils sont encombrants ou que leurs scripts ralentissent les sites . Les marchands ne critiquent jamais les produits qu'ils vendent. On trouve pourtant des avis moins optimistes sur le web (en cherchant par exemple 'Addthis weight'), sans même parler de ceux qui évoquent Addthis comme un spyware.

                  En outre, il faudrait leur signaler que tout le monde ne voit pas leurs boutons, en particulier moi, sous Firefox (pas de chance pour moi, leur script n'a pas dû avoir le droit de prendre racine dans le cache de mon navigateur favori), au point que ce bidule (vraiment utile / utilisé ?) pourrait bien être un bon coupable pour expliquer les pages qui moulinent continuellement. Et puis, franchement, qui va ajouter telle ou telle page de cette façon ? A mon avis, tu dois pouvoir faire un usage des réseaux sociaux bien moins encombrant avec quelques centaines d'octets (il y a même des plugins et de modules pour ça).


                  Expires Headers :

                  Là je me heurte à mon incompétence.
                  Mon .htaccess prévoit pourtant :

                  <IfModule mod_expires.c>
                  Header set cache-control: public
                  ExpiresActive on
                  ExpiresByType font/ttf "access plus 1 year"
                  ExpiresByType application/x-font-woff "access plus 1 year"
                  ExpiresByType application/vnd.ms-fontobject "access plus 1 year"
                  ExpiresByType application/pdf "access plus 1 year"
                  ExpiresByType application/x-shockwave-flash "access plus 1 year"
                  ExpiresByType image/svg+xml "access plus 1 year"
                  ExpiresByType image/png "access plus 1 year"
                  ExpiresByType image/jpeg "access plus 1 year"
                  ExpiresByType image/JPG "access plus 1 year"
                  ExpiresByType image/gif "access plus 1 year"
                  ExpiresByType image/x-icon "access plus 1 year"
                  </IfModule>
                  Je ne sais plus quel outil de test dit que l'ajout de certains Expires Headers serait un bien (refaire un test avec chacun des 3 outils évoqués).



                  Quand tu lis les articles où on te dit qu'une page doit se charger en 2 secondes, faute de quoi elle est vouée aux tréfonds des SERP, t'as juste envie de sauter par la fenêtre.
                  Ne fais pas cela !!! C'est pour mettre la pression. En réalité, et les tests du genre GTMetrix le montrent bien (la note et / ou le poids et / ou la vitesse est comparé[e] à une moyenne), il vaudrait mieux raisonner dans l'autre sens : les pages trop lourdes sont a priori pénalisantes / pénalisées dans les résultats de recherche. Mais une page riche, de taille proche de la moyenne, c'est généralement bon. => Ne pas faire de fixation sur les diverses appréciations des outils de tests. Par exemple, 'déferrer' les Javascript en fin de code, même sans tenir compte des problèmes collatéraux engendrés, cela fait gagner combien de mlicrosecondes en termes de temps de chargement, en vrai de vrai ? Quel est le vrai bénéfice en terme de vitesse, vu les soucis potentiels de cette méthode — surtout si elle n'est pas bien sous contrôle ?

                  Maintenant, si tu veux absolument te rapprocher des 2 secondes, tu laisses tomber Joomla, tu fais refaire ton site aux petits oignons par un développeur habile qui programmera le strict nécessaire, sur mesure, et pas plus de 25 lignes de textes par page. Mais est-ce que ton site sera mieux positionné pour autant ? Personnellement je n'en prendrais pas le pari.


                  faudra que je réfléchisse sérieusement à passer chez un hébergeur qui gzippe
                  => Outil de test : https://varvy.com/tools/gzip.

                  Cela dit ce n'est évidemment pas le seul critère de choix à considérer. A mon avis, il faut voir aussi si le support est compétent, rapide et courtois, ce qui exclut quasi d'emblée les très gros hébergeurs, et probablement aussi la plupart des plus petits. Il faut aussi que la compression et la décompression (ZIP) soient possibles en ligne, du moins sans mettre en branle les grands moyens, il faut aussi qu'il n'y ait pas de limite ou quasi pas de limite en volume de téléchargement par fichier ( OUH OVH !)... A compléter, sûrement (distance des serveurs par rapport aux visiteurs cibles, j'en oublie sûrement...).
                  Créateur de sites internet — Agence web indépendante http://www.e-33.fr | http://www.quali-site.fr (région de Bordeaux)

                  Commentaire

                  Annonce

                  Réduire
                  Aucune annonce pour le moment.

                  Partenaire de l'association

                  Réduire

                  Hébergeur Web PlanetHoster
                  Travaille ...
                  X