Moins de 5% des sites web conformes aux normes W3C

Posté par  . Modéré par Brice Favre.
Étiquettes :
0
11
sept.
2002
Internet
Vu sur Yahoo : D'après une étude menée par le concepteur de site web finlandais Marko Karppinen, moins de 5% des sites qu'il a visité (21 sur 454) sont conformes au standard W3C (après passage au validateur).



Le plus impressionnant reste l'analyse faite par un représentant de Netscape : "«Nous soutenons complètement le travail et la mission du W3C, mais notre objectif n'est pas de suivre à la lettre les standards. [...] Netscape.com, ainsi que d'autres sites à fort trafic, doit s'assurer que le contenu sera correctement présenté sur une variété de navigateurs, tant les récents que les anciens»."



Y a comme une incohérence dans cette phrase... Non ?



Note du Modérateur : Les sites sont ceux des membres du W3C, et Marko Karpinnen signale une évolution positive du pourcentage.

Aller plus loin

  • # D'ailleurs ....

    Posté par  . Évalué à 10.

  • # Les normes servent à communiquer

    Posté par  (site web personnel) . Évalué à 10.

    Ce sujet a déja été évoqué dans Rendez vos pages Web W3C-compliant. http://www.linuxfr.org/2002/09/07/9540,0,0,0,0.php3(...)

    Les normes sont faites pour limiter les ennuis de chacun, pas pour embêter le monde !
    Il est infiniment plus facile de vérifer la conformité à une seule norme que le rendu sur une douzaine de navigateurs d'origine et de versions différentes. Cela limite la répercussion en cascade des évolutions. Microsoft en ne respectant pas ce principe en tire parti. En modifiant un logiciel, il impose de changer toute la chaine. C'est le principe du «domino toppling» où l'on voit un domino entrainer la chute de milliers, voire de millions d'autres.

    Il est important que la cummunauté du logiciel libre donne l'exemple, car le respect des normes est un atout dans notre lutte contre le monopole.
    • [^] # Re: Les normes servent à communiquer

      Posté par  . Évalué à 10.

      Loin de moi de vouloir dire du mal de microsoft, mais il se trouve que Microsoft est membre du w3c (si j'en crois cette news : http://news.zdnet.fr/story/0,,t119-s2121975,00.html(...)) donc quand les membres eux-mêmes ne respectent pas en partie ces standards et font tout pour imposer leur vue des choses (compatibilité avant tout avec Internet Explorer), il est difficile pour le w3c d'être crédible, connu et reconnu.....

      De là à dire que Microsoft joue un double jeu il n'y a qu'un pas, mais à mon avis la communauté du libre ne pourra pas à elle seule permettre que les standards du w3c s'imposent... mais effectivement jarillon, il est bon qu'elle donne l'exemple, c'est le moins que l'on puisse en attendre d'elle, mais de ce côté là je suis confiant :)
  • # incohérence ?

    Posté par  (site web personnel) . Évalué à 10.

    Y a comme une incohérence dans cette phrase... Non ?

    pas vraiment je trouve.
    Je me rapelle d'ailleurs que mozilla a retenu une implémentation de :active (ou :hover je ne sais plus) non conforme aux spécifications poru l'implémenter de la facon dont les developpeurs voyaient la chose et l'utilisaient (je crois qu'ils s'agissait de différences de traitement en cas d'imbrication).

    Ce qu'ils veulent sur leur site c'est l'interopérabilité. La norme W3C n'est pas un but mais un moyen. Si ils sont obligés de faire des concessions pour visualiser les pages comme les gens s'y attendent ou implementer des choses qui ne sont pas dans les normes mais pour compatibilité avec d'autres navigateurs (anciennes versions des navigateurs, mais aussi une visualisation similaire netscape IE ou opera) alors ils le feront probablement.

    Moi ca ne me semble pas totalement idiot, le seul probleme c'est que à trop faire perdurer des choses contre la norme on risque de ne jamais avoir de choses correcte (et +1 pour le "standard de fait" IE que certains veulent imposer)

    Il me parait moins bien d'utiliser un truc dans la norme mais qu'on sait mal implémenté dans la plupart des navigateurs que d'utiliser un truc contre la norme de facon a être vu par l'essentiel des gens. (attention, la démarche vaut pour les pages, pas pour les navigateurs, sinon on part en boucle à implémenter es trucs idiots)
  • # Pertinence du résultat

    Posté par  . Évalué à 8.

    Le titre de la news annonce en gros "moins de 5% des sites web" alors que Marko Karppinen n'a visité que 454 sites... Il me semble quand même que le web contient largement plus de sites, donc le pourcentage n'a pas réellement de valeur.
    • [^] # Re: Pertinence du résultat

      Posté par  (site web personnel) . Évalué à 10.

      D'ailleurs est ce que quelqu'un aurait des statistiques sur le respect des normes sur le web entier ? A ce niveau la il faut des stats parce que tester 4.000.000.000 de pages (ou plus) ca n'est pas evident.

      Une idee : Est ce que des moteurs de recherche comme google, altavista ou autres ne pouraient pas indiquer si les pages sont conformes ou non ? Selon vous, est ce que ca serait une bonne idee ? Bien sur il faut que les moteurs de recherche mettent le systeme en place.

      Julien
      • [^] # Re: Pertinence du résultat

        Posté par  . Évalué à 2.

        moi je pense que c'est une bonne idee ! Ca ne dois pas etre tres compliquer car le validateur de page est recuperable, et google pourrait le faire tournee chez eux et mettre dans la definition de la page "conforme" ou "non conforme".

        [-1] car c'est juste mon avis!
      • [^] # Re: Pertinence du résultat

        Posté par  . Évalué à 1.

        La taille de l'échantillon n'est pas trop le problème. Que tu essaie 454 sites ou 400000, tu obtiens qualitativement le même résultat. La précision va augmenter (en fait, l'intervalle de confiance va diminuer).
        En fait, à partir de 25 essais AU HASARD, tu auras une forte proba (>95%) de trouver un résultat correct. La proba ne fait qu'augmenter au delà (mais je pense que la précision ne continue pas forcément d'augmenter, à cause du problème du au hasard).
        Le vrai problème est le hasard. Comment a-t-il choisi les sites?
        Tout ça (pour ceux que ça intéresse) peut se trouver dans n'importe quel bouquin de maths de seconde (ça vous épate,hein), suivant le dernier programme (2000).
        D'ailleurs, je me souviens m'être épaté moi-même pendant le dépouillement des présidentielles de ma commune, à prévoir, au bout des 100 premiers bulletins, le nombre de voix à 3 près (bon, c'est vrai, il n'y avait que 470 votants et j'était juste à la limite).
    • [^] # Re: Pertinence du résultat

      Posté par  . Évalué à 10.

      Il s'agit des sites des membres du W3C (qui en théorie devraient montrer l'exemple :-) et non d'un "échantillon représentatif" ou de 454 sites pris au hasard.
  • # A tempérer quand même...

    Posté par  . Évalué à 10.

    Entre faire un site XHTML1.0 Strict 100% W3C Compliant et coder comme un barbare une page qui ne marchera que sur IE5+, il y a des nuances. Il faudrait voir si les erreurs viennent d'une simple omission de DTD ou d'une conception foireuse.

    Quid par exemple des sites sur les hébergeurs gratuits (Lycos par ex...) qui ne peuvent pas se faire valider à cause du script de pub inséré ?

    Quid des navigateurs un peu anciens (mais encore utilisés) qui n'implémentent pas (ou mal) les normes récentes et qui "forcent" à utiliser des balises ou des attributs obsolètes (ok, le Transitional est là pour ça) ? En un sens je comprends que Netscape veuille faire un site qui marche sur ses anciennes versions (4.x).
  • # dites ca a ...

    Posté par  . Évalué à 10.

    en allant bouffer a midi, je discute avec le chef de projet local, (qui bosse sur le futur site de la boite).

    Et que me sort-il : y'a pas de standard pour le web! T'es obliger de jouer avec toutes les specificites des navigateurs, surtout de ceux utilises (devinez sa pensee)! Pas la peine de parler de mozilla, opera, c'est pour les developpeurs, laisse tomber dilo et galeon (bof galeon=gecko).



    Alors c'est vrai que les menus dynamiques font un peu chier entre les layers et les divs, qu'"aucun" navigateur n'implemenete totalement les specifs, ben c le bordel.

    Ce qui me soule, c'est que le developpeur se limite a un navigateur a cause des chiffres, et pas au specifs! Si on continue, ca ne va pas s'arranger ! flute
    • [^] # Re: dites ca a ...

      Posté par  . Évalué à 9.

      Remarque, la W3C-compliance est valable pour le HTML et le CSS.

      Pour ce qui est des sites tunés à coup de Javascript (voire VbScript), je comprends que le chef de projet trouve que c'est un peu l'anarchie. Mais d'un autre côté, l'emploi d'éléments dynamiques dans les pages est-il toujours justifié ? Après tout, les deux principales qualités d'un site sont le contenu et l'ergonomie (point qui n'est pas toujours le fort des sites pros).
      • [^] # Re: dites ca a ...

        Posté par  (site web personnel) . Évalué à 5.

        Mais d'un autre côté, l'emploi d'éléments dynamiques dans les pages est-il toujours justifié ?

        Ben c'est la meme raison qui pousse a utiliser du flash... Les sites qui ne s'utilisent pas dans la duree (site presentant un produit par ex, contrairement a un forum) s'en moquent que ca soit lourd et oriente IE. Faut que ca "pete" sur l'instant.
      • [^] # Re: dites ca a ...

        Posté par  (site web personnel) . Évalué à 3.

        L'ergonomie d'un site, ce n'est pas du pipeau. Ce n'est pas plein la gueule d'images animées, de flash et de javascript.
        L'ergonomie, c'est le confort d'utilisation, c'est complètement différent. Celui qui a un modem 56k et qui arrive sur un site où il doit attendre une minute que la page soit chargée et une autre minute à regarder l'animation sonore avant de voir le menu, eh bien, il ne revient pas !
        Un exemple : Netissimo http://www.linux-adsl.fr.fm/(...)
        Celui qui veut mettre l'ADSL chez lui, n'a en général qu'un modem 56k et pour faire des économies de bande passante, le flash n'est pas actif sur son navigateur. Il aura très peu de chance d'accéder au reste du site, essayez !
        Un autre exemple : http://www.saint-jean-de-luz.com/(...) C'est vraiment très beau, mais même avec l'ADSL, c'est lent, très lent ! Bref, inutilisable...

        A contrario, http://www.linuxgraphic.org/(...) est un site ergonomique et il est presque conforme au W3C, il ne s'en faut que de très peu qu'il y arrive.
        • [^] # Re: dites ca a ...

          Posté par  . Évalué à -1.

          Tu prêches un converti là (<mavie>j'ai essayé de télécharger la page d'acceuil du site de St Jean de Luz avec mon 28K et j'ai laissé tomber au bout de 2 minutes</mavie>).
          Faudrait plutôt expliquer ça aux graphistes, aux marketeux et aux décideurs.

          -1
          • [^] # Re: dites ca a ...

            Posté par  (site web personnel) . Évalué à 0.

            Il parait que l'infographiste qui a fait le site a prévenu que ce ne serait pas bon. Mais c'est ce que voulait le client (ou ce que le marketeux avait vendu) et il n'a pas été possible de changer.
            Comme les présentations sont faites en mode local et que le débit des disques est au moins 20 fois celui de l'ADSL, l'arnaque réussit facilement.
      • [^] # Re: dites ca a ...

        Posté par  . Évalué à 2.

        Remarque, la W3C-compliance est valable pour le HTML et le CSS.

        Pour ce qui est des sites tunés à coup de Javascript (voire VbScript), je comprends que le chef de projet trouve que c'est un peu l'anarchie.

        concernant javascript, y a ecmascript comme standard : http://www.ecma.ch/ecma1/STAND/ECMA-262.HTM(...)
        notons quand même que les CSS sont largement suffisant pour faire des menus hauts en couleurs !
        la preuve : http://www.meyerweb.com/eric/css/edge/index.html(...)
        (il me semble que ces 2 liens ont déjà été donnés récement sur linuxfr mais un petit rappel ne fait pas de mal)
  • # Une campagne pro-standards

    Posté par  . Évalué à 3.

    Un site d'une campagne pour le respect des standards du ouebe: http://www.webstandards.org(...)
  • # Il FAUT suivre les normes W3C

    Posté par  (site web personnel, Mastodon) . Évalué à 10.

    Il y a plus d'avantages à suivre les standards qu'à vouloir rester compatible avec NS4 et autres vieux navigateurs...

    La meilleur façon de faire un TRES BON site (selon moi et selon beaucoup de militant pour le respect des standards ), c'est :

    1) respect à fond des standards : le site sera visible sur une majorité des navigateurs de façon correct voir à l'identique, mais certes, seulement "lisible" (est-ce vraiment dramatique en fin de compte ?) sur les vieux navigateurs qui de toutes façon sont en declin. Il faut se tourner vers le present (HTML4.01 date de 1998 quand meme ! il serait temps de l'utiliser correctement !) et l'avenir !

    2) respecter les standards, c'est aussi utiliser les balises dans le contexte pour lequel elles ont été definie. Le meilleur exemple est l'utilisation de TABLE pour structurer un site. A la base elle n'est pas faite pour ça. Par contre DIV est fait pour ça. Il faut donc abandonner l'utilisation abusive des TABLES (linuxfr est un bel exemple de bordel au niveau des tables (pas la peine de scorer -1 : c'est la verité vraie)) et preferer l'utilisation des DIV, ainsi que le respect HTML/XHTML = structure, CSS=presentation (donc pas d'attribut bgcolor ou de balises FONT etc) : ca permet de faire des sites legers, tres legers même, donc accessible sur un maximum de navigateurs, meme ceux "exotique" (braille, mini browser sur les ordi de poche , browser texte comme links etc...)
    et je ne parle pas l'enorme avantage pour le developpeur : le code est clair, facilement maintenable et grace aux css, aisement modifiable (et puis moins de boulot : il developper 1 seule fois, pour le standard, et pas x fois pour chaque navigateurs).

    bref, il n'y a aucune raison valable de ne pas respecter les standards. Pour vous en convaincre, voici une serie de liens à lire :
    http://www.webstandards.org/learn/faq/faq_fr.html#p1(...)
    http://www.la-grange.net/accessibilite/(...)
    http://www.pompage.net/(...)
    en particulier http://www.pompage.net/pompe/paitre/(...)
    http://www.nitot.com/(...)
    en particulier http://www.nitot.com/standards/blog/(...)


    Le probleme de ce faible pourcentage de site conforme parmis les membres du W3C, c'est que ce ne sont pas forcement eux qui font les sites : ils ont peut etre du faire appel à des societes de services (qui ne se preoccupent pas forcement de repsecter les standards).
    Et vous croyez que dans une boite comme microsoft (membre du W3C), ils brieffent tout leur developpeurs web pour qu'ils respectent les standards ? y compris le petit nouveau qui vient d'etre embauché qui ne connait que des merdes comme dreamweaver ou frontpage ?

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.