Journal L'ARCEP vient de publier les résultats du projet de mesure de la qualité de l'accès Internet

Posté par  (site web personnel, Mastodon) . Licence CC By‑SA.
18
25
nov.
2014

L'ARCEP a publié aujourd'hui la première édition de « Qualité du service fixe d’accès à l’Internet - Mesures de la qualité du service fixe d’accès à l’Internet » Il s'agit de l'aboutissement d'un projet commencé il y a plusieurs années, visant (entre autres) à déterminer la qualité de l'accès à l'Internet selon le FAI. La méthodologie choisie consiste en des mesures actives effectuées depuis huit points de mesure dotés d'un matériel spécialisé.

Ce genre de mesures nécessite des choix et ceux-ci ne feront jamais l'unanimité. Je m'attends donc à des tas de remarques négatives dans les commentaires :-) Merci d'essayer au moins d'argumenter.

Lire le rapport ARCEP

  • # en gros ils ont reinventé la grenouille ?

    Posté par  . Évalué à -5.

    c'est super precis comme mesure, 8 points, du materiel specialisé….
    tout ca financé par qui ?

    ca fait des années que speedtest et grenouille existent, pas besoin de plus pour faire des stats et voir qui deconne.

    • [^] # Re: en gros ils ont reinventé la grenouille ?

      Posté par  (site web personnel, Mastodon) . Évalué à 10.

      Financé par les FAI (qui décident donc, au final).

      Autrement, ce premier commentaire est en effet du niveau de café du commerce que j'attendais…

      Pour faire une mesure, on peut en effet choisir d'avoir peu de points avec du matos perfectionné ou plein de points avec du matériel douteux (machine Windows bourrée de virus qui la ralentissent, WiFi qui rame…)

      • [^] # Re: en gros ils ont reinventé la grenouille ?

        Posté par  . Évalué à -7.

        Pour faire une mesure, on peut en effet choisir d'avoir peu de points avec du matos perfectionné

        et bien positionné, proche du DSLAM voire dans le datacenter du FAI

        ou plein de points avec du matériel douteux (machine Windows bourrée de virus qui la ralentissent, WiFi qui rame…)

        qui feront une moyenne avec les machines Linux bien entretenu, à 200m du DSLAM

        • [^] # Re: en gros ils ont reinventé la grenouille ?

          Posté par  (site web personnel, Mastodon) . Évalué à 10.

          Euh, non les points de mesure ne sont pas proches du DSLAM. C'est bien expliqué dans le rapport mais, évidemment, il faudrait le lire, ce qui est fatiguant.

          • [^] # Re: en gros ils ont reinventé la grenouille ?

            Posté par  . Évalué à -8.

            des points de mesure financés par les FAI, ils vont pas les placer au domicile des gens, ou dans les entreprises utilisatrices.

            • [^] # Re: en gros ils ont reinventé la grenouille ?

              Posté par  (site web personnel, Mastodon) . Évalué à 6.

              Quel serait l'intérêt de les placer chez un particulier plutôt que chez IP Label (la boîte qui fait les mesures) ? Cela aurait par contre un gros inconvénient, la difficulté à contrôler l'environnement (contrôle qui est nécessaire pour faire des comparaisons sur le long terme).

              • [^] # Re: en gros ils ont reinventé la grenouille ?

                Posté par  . Évalué à -5.

                la boite IP label est evidemment desservie par tous les FAI, dans des conditions similaires à Mme Michu, etc

                entre 200m et 5km de DSLAM,
                à paris et en province,
                etc

                • [^] # Re: en gros ils ont reinventé la grenouille ?

                  Posté par  . Évalué à 6. Dernière modification le 25 novembre 2014 à 23:33.

                  En fait, tu devrais lire le rapport. La méthodo est plutôt bien expliquée, et a d'ailleurs l'air très correcte.

                  Par contre, je ne sais pas d'où sortent vos 8 points de mesure à tous les deux.

                  Le dispositif utilisé implique la mise en place d’équipements lourds et coûteux, par
                  conséquent le nombre de points de mesure est limité (maximum 6 lignes par catégorie et par
                  opérateur).

                  Quant aux indicateurs, je n'en vois que 7, dont 4 qui ont des résultats non validés, parce que la méthodo n'a pas encore fait consensus. Un autre rapport devrait être publié à ce sujet.

                  Ce qui est mesuré officiellement dans ce rapport, ce sont les "indicateurs d'usage", à savoir :

                  1. Navigation web : temps de chargement d’une page web, mesuré à partir de 15 sites à forte audience, exprimé en s.
                  2. Lecture de vidéo en streaming : qualité du visionnage de vidéos, mesurée à partir de vidéos hébergées sur 4 plateformes à forte audience, exprimée par une note sur 5.
                  3. Téléchargement P2P : débit de téléchargement d’un fichier en utilisant un protocole pair-à-pair (P2P), exprimé en Mbit/s.

                  Pour un sextumvirat ! Zenitram, Tanguy Ortolo, Maclag, xaccrocheur, arnaudus et alenvers présidents !

                  • [^] # Re: en gros ils ont reinventé la grenouille ?

                    Posté par  . Évalué à 3.

                    Par contre, je ne sais pas d'où sortent vos 8 points de mesure à tous les deux.

                    « Les mesures ont été effectuées sur trois à six lignes par catégorie d’accès, réparties sur huit
                    sites en France métropolitaine [Dijon, La Garenne Colombes, Marseille, Nantes, Paris, Schiltigheim, Toulouse, Villeurbanne]. »

                    Notons que ça semble également vouloir dire qu'il n'y a qu'une seule ligne et donc qu'un opérateur testés par catégorie et par lieu… ce qui serait à mon goût très très léger (déjà que 2 des catégories d'ADSL sont justes simulées par rapport à la première !).

                    Mais comme ce rapport a l'air d'être écrit avec les pieds1, ce n'est peut-être quand même pas le cas.


                    1. on peut voir un tableau des catégories testées par lieu, à la page 17, section III.1.2, et non pas page 9-10 à la section III.4.1 comme c'est indiqué au bas de la page 3. D'ailleurs la section III.4.1 ne se trouve bien entendu pas page 9-10 non plus. On sent la maîtrise de l'outil. 

                    • [^] # Re: en gros ils ont reinventé la grenouille ?

                      Posté par  (site web personnel, Mastodon) . Évalué à 3.

                      Non. Sur chaque site, tous les opérateurs (et tous les types de ligne) sont testés.

                      • [^] # Re: en gros ils ont reinventé la grenouille ?

                        Posté par  . Évalué à -3.

                        8 sites parmi les grandes villes de france => pas representatif de la population

                        3 à 6 lignes par categories d'acces ???
                        ils vont arriver à faire installer 24 lignes ADSL, les Fibres de tous les operateurs dans les 8 centres de mesure ?

                        • [^] # Re: en gros ils ont reinventé la grenouille ?

                          Posté par  . Évalué à 4.

                          8 sites parmi les grandes villes de France => pas représentatif de la population/

                          Va falloir un peu développer la dessus, les POP sont régionaux, de plus je vois pas ce qui diffère fondamentalement une ligne moyenne/longue en large campagne d'une ligne moyenne/longue dans une "grande" ville de France. Ensuite ce qui est testé c'est pas le cœur de réseau des opérateurs mais bien ce qui en sort, donc plutôt le transit et/ou les peerings entre opérateurs et les OTPs. là dessus tout les abonnés d'un même FAI sont logés a la même enseigne.

                          3 à 6 lignes par categories d'acces ???
                          ils vont arriver à faire installer 24 lignes ADSL, les Fibres de tous les operateurs dans les 8 centres de mesure ?

                          Ils vont pas, ils ont fait. As-tu lu le document ?

                          • [^] # Re: en gros ils ont reinventé la grenouille ?

                            Posté par  . Évalué à 2.

                            3 à 6 lignes par categories d'acces ???
                            ils vont arriver à faire installer 24 lignes ADSL, les Fibres de tous les operateurs dans les 8 centres de mesure ?
                            Ils vont pas, ils ont fait. As-tu lu le document ?

                            Ça serait bien que toi et Bortzmeyer le lisiez, avant de reprocher aux autres de ne pas le faire !

                            Pour la fibre, 2 sites (Schiltigheim et Toulouse) ne sont pas du tout équipés. Et il n'y a en tout et pour tout que 3 lignes Orange et 3 lignes SFR, donc il y a au moins 5 sites sur lesquels ces 2 opérateurs ne sont pas testés pour la fibre.

                            Pour l'ADSL, le document n'est pas clair du tout pour ce qui est de savoir si chaque opérateur est testé sur tous les 8 sites : « maximum 6 lignes par catégorie et par opérateur » peut laisser entendre que c'est possible, mais « les mesures ont été effectuées sur trois à six lignes par catégorie d’accès, réparties sur huit sites en France métropolitaine » laisse entendre l'inverse. Le plus bizarre en fait, c'est que ce ne soit pas clairement et simplement indiqué quelque part (en tout cas je n'ai pas trouvé).
                            La seule chose de certaine, c'est que toutes les catégories ADSL ne sont pas testées partout : pas de lignes courtes sur 2 sites (Dijon et Paris).

                      • [^] # Re: en gros ils ont reinventé la grenouille ?

                        Posté par  (site web personnel) . Évalué à 1.

                        Tous les opérateurs ? Les 1661 déclarés à l'ARCEP ?

                        La lumière pense voyager plus vite que quoi que ce soit d'autre, mais c'est faux. Peu importe à quelle vitesse voyage la lumière, l'obscurité arrive toujours la première, et elle l'attend.

      • [^] # Re: en gros ils ont reinventé la grenouille ?

        Posté par  . Évalué à 6.

        Pour faire une mesure, on peut en effet choisir d'avoir peu de points avec du matos perfectionné ou plein de points avec du matériel douteux (machine Windows bourrée de virus qui la ralentissent, WiFi qui rame…)

        Pour faire des mesures du point de vu de l'utilisateur, il faut un équipement chez l'utilisateur, genre l'audimétre de Médiamétrie.

        • [^] # Re: en gros ils ont reinventé la grenouille ?

          Posté par  . Évalué à 1.

          Oui mais après comment tu compares tes résultats ?

          Par exemple est-ce que ça veut dire quelque chose de comparer le temps d'accès à wikipédia sans prendre en compte la page vue ou l'heure de la demande ? Sans ça comment veux tu dire que tel opérateur est plus rapide que l'autre ? J'imagine que les serveurs wikipédia sont moins chargé à 2h du matin qu'à 18h et dans ce cas le FAI n'a rien à voir.

          Donc à moins que ce soit le boîtier en question qui fasse les requêtes au même moment chez chaque utilisateur tu auras toujours des biais énormes. Et dans ce dernier cas tu auras encore les problèmes suivants :

          • Coté ADSL il faudrait que chaque opérateur soit testé sur la même boucle locale (il n'y peut rien si la ligne cuivre est pourrie ou si il y a un perturbateur dans le coin). L'idéal étant de prendre des personnes sur le même PC … soit 7 lignes où il faudrait un échantillon des 4 opérateurs. Et encore dans ce cas, tu ne prends pas en compte l'installation téléphonique de chaque personne (à la limite on peut envoyer un technicien Orange, seul habiliter à travailler sur la boucle locale, vérifier que les installations sont équivalentes niveau bruit/affaiblissement)
          • Si pendant un test de récupération d'une page Wikipédia, notre utilisateur regarde la TV par ADSL en ayant lancer son client bittorent, tes résultats ne voudront rien dire non plus.

          Bref, à moins d'installer ton boîtier derrière des box sur un PC dédié (sans client) à des endroits pris un peu partout en France, tu n'auras rien de fiable pour comparer les FAI. A noter que cette solution coûterait très cher (Orange n'installe pas des lignes pour rien) et en plus aurait encore quelques biais (si on construit exprès un PC isolé il y a des chances qu'il ait moins de soucis que le vieux matériel/câble que possède la grande majorité des utilisateurs ADSL).

          On parle bien ici de mesurer la qualité de service des réseaux des opérateurs pas celui des lignes des clients ADSL. Bref savoir par exemple que Free bride les connexions sur les vidéos YouTube où qu'Orange fait la même chose sur le protocole bittorent (par exemple).

          • [^] # Re: en gros ils ont reinventé la grenouille ?

            Posté par  . Évalué à 3. Dernière modification le 27 novembre 2014 à 13:47.

            On parle bien ici de mesurer la qualité de service des réseaux des opérateurs pas celui des lignes des clients ADSL.

            Dans ce cas pourquoi les atténuateurs pour simuler des longueurs de lignes ?

            il n'y peut rien si la ligne cuivre est pourrie ou si il y a un perturbateur dans le coin

            Cette étude ne concerne que les lignes dégroupés, où donc, c'est au FAI de remonter les problèmes techniques.
            Quel opérateur est le plus prompt à faire entretenir la connexion de ses clients fait donc partie des informations pertinentes définissants la qualité du service.

            • [^] # Re: en gros ils ont reinventé la grenouille ?

              Posté par  . Évalué à 3.

              Dans ce cas pourquoi les atténuateurs pour simuler des longueurs de lignes ?

              Histoire de ne pas faire des tests avec des lignes à 20mb/s qui ne représente pas du tout la majorité des lignes ADSL françaises ? Cela doit aussi permettre de voir comment les opérateurs gèrent des lignes non optimales sur leurs DSLAMS (en enlevant la partie aléatoire du à la boucle locale). Par exemple le système DLM mis en place coté Orange et SFR (http://assistance.orange.fr/vos-questions-sur-le-dlm-4312.php#) ou le choix d'optimisation du "ping" coté Free (Standard, Fastpath, Patate, Sérénité) ?

              Cette étude ne concerne que les lignes dégroupés, où donc, c'est au FAI de remonter les problèmes techniques.
              Quel opérateur est le plus prompt à faire entretenir la connexion de ses clients fait donc partie des informations pertinentes définissants la qualité du service.

              Tu es au courant que tout ce qui est problème sur la boucle locale (http://fr.wikipedia.org/wiki/Boucle_locale_en_France) est exclusivement gérée par Orange (et ses prestataires) ? et que même sur une ligne dégroupée les FAI payent une redevance (http://www.universfreebox.com/article/20526/Abonnement-degroupe-ou-non-degroupe-combien-reverse-Free-a-France-Telecom) à Orange ? Après effectivement on peut imaginer qu'un opérateur n'ouvre pas de ticket GAMOT à Orange sur un problème de ligne d'un de ces client mais je ne vois trop l'intérêt.

              Donc je confirme ma phrase : le but est bien de mesurer la qualité de service des réseaux des opérateurs pas celui des lignes des clients ADSL. En sachant que le réseau de l'opérateur commence au niveau de ses DSLAMS. Il y a même un intérêt dans la méthodologie présentée par l'ARCEP : on doit pouvoir voir la stabilité des box des opérateurs (taux de désynchro avec une ligne très atténuée).

          • [^] # Re: en gros ils ont reinventé la grenouille ?

            Posté par  . Évalué à 3.

            Bref, à moins d'installer ton boîtier derrière des box sur un PC dédié (sans client) à des endroits pris un peu partout en France, tu n'auras rien de fiable pour comparer les FAI.

            Parce que tester 8 lignes sur 1 mois c'est fiable?
            Parce qu'utiliser un atténuateur pour simuler l'éloignement de la ligne c'est fiable?

            Non si tu veux des mesures fiables, sur l'ensemble du réseau c'est pas 8 points, tu fais comme médiamétrie, tu distribue des boitiers chez différents clients, (un grand nombre), avec différente conf (réglage du ping par exemple).

            Il ne faut pas décorner les boeufs avant d'avoir semé le vent

            • [^] # Re: en gros ils ont reinventé la grenouille ?

              Posté par  . Évalué à 0.

              Parce que tester 8 lignes sur 1 mois c'est fiable?

              C'est mieux que rien et que beaucoup d'idées postées dans ce journal car les 8 lignes sont connectées directement sur les DSLAMS des opérateurs. Tu peux donc vérifier la qualité du réseau du FAI sans prendre en compte les défauts des lignes de cuivre. Après 8 ce n'est pas suffisant pour tester tous les cas de config utilisées coté DSLAM (après le réseau est logiquement plus homogène) donc il peut y avoir des biais la dessus.

              Parce qu'utiliser un atténuateur pour simuler l'éloignement de la ligne c'est fiable?

              Voir mon message plus haut : ça permet de tester les paramètres appliqués par les FAI sur les ports des DSLAMS pour gérer les lignes de mauvaises qualités.

              tu fais comme médiamétrie, tu distribue des boitiers chez différents clients, (un grand nombre), avec différente conf (réglage du ping par exemple).

              Et donc tu testeras en grande partie la qualité de la ligne de cuivre de chaque client (et tu auras toujours le soucis de comparaison de flux n'ayant rien à voir les uns avec les autres). Je ne dis pas que ce n'est pas intéressant mais l'idée de l'ARCEP est de vérifier la qualité des réseaux des FAI pas de leurs clients (et t'inquiète pas, ton FAI sait très bien qu'il a des abonnés avec des lignes toutes pourries qui perdent leur synchro toutes les 10 minutes).

              • [^] # Re: en gros ils ont reinventé la grenouille ?

                Posté par  . Évalué à 2.

                Je ne dis pas que ce n'est pas intéressant mais l'idée de l'ARCEP est de vérifier la qualité des réseaux des FAI pas de leurs clients

                Dans ce cas l'atténuateur ne sert a rien. Si c'est effectivement la qualité du réseau qui est testé, la ligne dans le DSLAM suffit; or, il jouent avec un atténuateur pour 'simuler' une ligne loin. Sauf que une ligne qui est loin n'est pas seulement atténué, elle est aussi bruitée, de façon difficilement prévisible, si une box corrige cela mieux que d'autre tu passes a coté. Ce test ne couvre que la théorie.

                (et tu auras toujours le soucis de comparaison de flux n'ayant rien à voir les uns avec les autres).

                D'où l'intérêt de prendre un grand nombre de boitier pour gommer ces différences; tu peux aussi filer un questionnaire en même temps que le boitier pour avoir les usages, la config, et corriger tes résultats selon le questionnaire.

                Il ne faut pas décorner les boeufs avant d'avoir semé le vent

                • [^] # Re: en gros ils ont reinventé la grenouille ?

                  Posté par  . Évalué à 2.

                  Dans ce cas l'atténuateur ne sert a rien. Si c'est effectivement la qualité du réseau qui est testé, la ligne dans le DSLAM suffit; or, il jouent avec un atténuateur pour 'simuler' une ligne loin. Sauf que une ligne qui est loin n'est pas seulement atténué, elle est aussi bruitée, de façon difficilement prévisible, si une box corrige cela mieux que d'autre tu passes a coté. Ce test ne couvre que la théorie.

                  Je ne veux pas paraître condescendant, mais sais-tu comment sont gérés les ports des DSLAMS pour dire que ça ne sert à rien de "simuler" des défauts de ligne ? As-tu lu les liens que j'ai posté au dessus ? Pour résumé, on va prendre le cas du DLM utilisé par SFR et Orange : l'acronyme veut dire Dynamic Line Management soit gestion dynamique de ligne. L'idée est de regarder tous les jours l'état des lignes de chaque client, si la ligne d'un client est constatée instable (désynchro box, taux de correction d'erreurs …) les paramètres de la ligne vont être changés afin de la stabiliser (pour éviter par exemple que la TV par ADSL pixelise). De la même manière les algos sont capable d'optimiser la ligne (lors de ton inscription, on a détecté que ta ligne supporterait du 8mb/s, si l'algo voit que ta ligne pourrait faire du 9mb/s il changera tes paramètres pour à y arriver petit à petit en garantissant la stabilité). Donc dans ce cadre, ce n'est pas idiot de mettre un atténuateur afin de comparer ce que font les FAI pour optimiser/stabiliser les lignes de mauvaise qualité (ça permettrait de dire par exemple qu'il faut mieux être chez SFR ou Orange plutôt que Bouygues quand on est loin de son NRA, ou qu'il faut mieux être chez Free si on veut avoir une latence basse pour pouvoir jouer à des vidéos en ligne style FPS ou MMORPG).

                  Enfin il est parié que le fameux atténuateur génère aussi tous les autres défauts de ligne (marge au bruit, bruit stationnaire, chargement de bits …).

                  D'où l'intérêt de prendre un grand nombre de boitier pour gommer ces différences; tu peux aussi filer un questionnaire en même temps que le boitier pour avoir les usages, la config, et corriger tes résultats selon le questionnaire.

                  Envoyer un questionnaire à faire remplir à tous les usagers derrière chaque (grand) nombre de boîtier ? Tu n'as pas l'impression que c'est un peu compliqué et coûteux à mettre en place et qu'au final ça sera toujours moins fiable que ce que propose l'ARCEP pour vérifier la qualité des réseaux des FAI … à mon avis si on veut tester la qualité des lignes clientes il faudrait plutôt se placer coté collecte de chaque opérateur et sniffer le trafic intéressant et en sortir des stats. C'est techniquement faisable, mais moins évident coté respect de la vie privée.

                  • [^] # Re: en gros ils ont reinventé la grenouille ?

                    Posté par  . Évalué à 3.

                    (et tu auras toujours le soucis de comparaison de flux n'ayant rien à voir les uns avec les autres).

                    Compliqué non (par exemple : https://www.samknows.eu/?lang=fr), couteux oui, mais bon comme la commission européenne veut avoir des mesures…

                    et qu'au final ça sera toujours moins fiable que ce que propose l'ARCEP

                    Non. J'aurais tendance à me limiter à cette réponse, mais je vais être sympa, il est plus facile de truquer 8 lignes que 1000, de plus imagine que le DSLAM a un soucis pour un ou plusieurs FAI, les mesures sont erronée à hauteur de 12.5%, trois fois rien… Bref si tu veux des mesures représentatives tu fais pas 8 points, par une société ayants des FAI référencés comme clients; en fait sur leur site web on y vois pleins de FAI, comme darty, orange, SFR, mais pas free, un oubli sans doute.

                    Il ne faut pas décorner les boeufs avant d'avoir semé le vent

                    • [^] # Re: en gros ils ont reinventé la grenouille ?

                      Posté par  . Évalué à 2.

                      Bref si tu veux des mesures représentatives tu fais pas 8 points, par une société ayants des FAI référencés comme clients; en fait sur leur site web on y vois pleins de FAI, comme darty, orange, SFR, mais pas free, un oubli sans doute.

                      C'est sur que samknow est vachement mieux loti de ce coté, avec comme client des ISPs grands défenseurs de la neutralité comme AT&T , BT , TWC, Verizon, et ….Free.

                      https://www.samknows.com/isp

                      Faut arrêter de se voiler la face, à part quelques ISPs associatifs , ils sont tout contre la neutralité.

                    • [^] # Re: en gros ils ont reinventé la grenouille ?

                      Posté par  . Évalué à 1.

                      Non. J'aurais tendance à me limiter à cette réponse, mais je vais être sympa, il est plus facile de truquer 8 lignes que 1000, de plus imagine que le DSLAM a un soucis pour un ou plusieurs FAI, les mesures sont erronée à hauteur de 12.5%, trois fois rien

                      Le nombre de 8 lignes est effectivement trop bas, il en faudrait beaucoup plus. Mais c'est évident que c'est beaucoup plus facile de rajouter ce type de point de contrôle que de mettre un boîtier chez x millions d'usager.

                      Faisons un parallèle. Besoin : connaître la vitesse des véhicules sur tout les types de routes française :
                      * La solution ARCEP : on installer des radar automatiques à quelques endroits bien précis (autoroute, ville, départementale …).
                      * Ta solution (Samknows) : on installer un boîtier dans X millions de véhicule et on fait des enquêtes supplémentaires pour savoir sur quel type de routes chacun des conducteurs roulait durant les mesures.

                      On aurait beaucoup plus d'informations avec la deuxième solution, sauf que celle que l'on voulait au départ (connaître la vitesse des véhicules sur tout les types de routes française) sera plus dur et beaucoup plus coûteuse à récupérer que la première solution.

                      Cet exemple montre aussi un problème sur les solution type Samknows : Qui garantie l'utilisation des données collectées ?

                      • [^] # Re: en gros ils ont reinventé la grenouille ?

                        Posté par  . Évalué à 2.

                        sauf que celle que l'on voulait au départ

                        Je dirai de même pour les 8 radars posés en France prenant des mesures sur 1 mois, disons Mars par exemple, tu n'auras déjà pas le même vitesse sur les départementales de normandie (entre celles qui serpentes dans les bocages, la grande droite traversant les village-rue, celle qui travers une grande ville avec des feux, ou celle des grandes ville avec embouteillage, ajoutes à cela l'état de la route, de la météo, et de la présence ou non de vacanciers, ajoute encore d'autres départements, comme la savoie, et donne moi avec 8 points de mesures prises sur 1 mois des données pertinentes sur l'ensemble de la France.

                        Bref avec 8 points de contrôles tu n'es pas capable de donner une quelconque statistique.

                        sera plus dur

                        Pas vraiment, le boitier peut très bien identifier sur quel FAI il est; la longueur de la ligne est une donnée secondaire (tu peux avoir une ligne courte moisie par exemple)

                        Quant à 'ma' solution, elle aurait un GPS embarqué dans le boitier.

                        De plus tu parles de X millions d'usager; techniquement si tu veux des stats, 1000 suffisent généralement, disons 1000 / FAI, t'en as 5000 à trouver.

                        Il ne faut pas décorner les boeufs avant d'avoir semé le vent

  • # Augmenter le périmètre de l'étude ?

    Posté par  . Évalué à 7.

    Est il prévu d'augmenter le périmètre de l'étude en baissant les prérequis du nombre d'abonnés de manière à inclure un certain nombre de FAI plus petits comme FDN, Nerim ou OVH par exemple ?
    Il est dommage de n'avoir que 4 opérateurs ADSL, 2 fibres et 2 FTTH, ce qui pour établir des comparaisons est un peu juste.

    Sinon pour les TL;DR Bouygues sort du lot par le haut et Free par le bas.

  • # pas encore lu le dit rapport

    Posté par  . Évalué à 2.

    mais déjà je me demande pourquoi cela à pris des années ? C'est un peu long pour du iplabel ? tout de même.

    Sinon j'arrive pas bien à comprendre ce que toi tu en penses, qui à lu le rapport, puisque tu balances un truc où apparemment les juges ont partis pris puisqu'ils financent la chose.
    De base déjà ça laisse songeur… Alors de quoi voulais tu parler ? Politique ou technique ? Ou ptet que tu voulais qu'on vomisse sur tout cela à la fois ? C'est facile en ce moment.

    • [^] # Re: pas encore lu le dit rapport

      Posté par  . Évalué à 1.

      Je suis tout à fait d'accord avec ce commentaire. En page 3 du rapport :

      Les coûts sont intégralement supportés par les opérateurs.

      Ce n'est pas sans rappeler, à un degré bien moindre, les études scientifiques sur les effets du tabac par les vendeurs de cigarettes.

      Sinon, le rapport semble assez bien avertir sur les limites évidentes de telles mesures et il fait mention que ce dispositif est bel et bien dans une étape de test (bêta). Il est spécifié que de certaines choses ne sont pas encore au point. Pour ce qui est du côté technique, je n'ai pas les connaissances suffisantes pour critiquer (positivement ou négativement) les choix techniques d'un projet qui a fait l'objet de 3 ans de réflexion.

      • [^] # Re: pas encore lu le dit rapport

        Posté par  . Évalué à 5.

        Les coûts sont intégralement supportés par les opérateurs.

        Ce n'est pas sans rappeler, à un degré bien moindre, les études scientifiques sur les effets du tabac par les vendeurs de cigarettes.

        Oui et non. Tu as plusieurs façons de faire supporter les coûts par une entreprise. Tu peux aller quémander pour qu'elle te donne gentiment de l'argent (et là tu t'exposes au conflit d'intérêt, cas d'un certain nombre d'essais cliniques). Ou alors tu peux sortir la massue réglementaire, taxer l'entreprise et utiliser le produit de cette taxe pour financer l'étude, et là tu n'as plus de conflit d'intérêt puisque l'entreprise n'a plus de choix.

        L'industrie du tabac emploie d'autres stratégies : elle ne conteste plus vraiment que le tabac cause des cancers (ce n'est plus contestable), mais elle va financer des études sur les effets bénéfiques de la nicotine pour le cerveau (que peu de gens contestent, vu que la toxicité du tabac vient surtout des goudrons issus de la combustion), ou sur tout un paquet d'autres substances cancérigènes (ce qui permet à l'OMS de classer tout et n'importe quoi dans les cancérigènes possibles ou avérés, contribuant au "tout est cancérigène" ambiant et faisant oublier que certains produits multiplient le risque de cancer par 1,1 et d'autres par 50). Enfin, il y a une dernière stratégie : ne parler que du cancer ! Le tabac cause tout un paquet d'autres pathologies, et les cancers ne représentent que la moitié des pathologies liées au tabac (en nombre de malades).

        Il existe une stratégie humaine, à laquelle je pense que l'ARCEP est particulièrement sensible : passer non pas par l'argent mais par les personnes. Pour un domaine technique donné, les experts sont finalement peu nombreux. Ceci fait qu'il est difficile de recruter quelqu'un qui ne soit pas passé dans une entreprise du secteur. Cet expert aura gardé des relations humaines avec ses anciens collaborateurs qui sont toujours dans la boîte. Il fera ce qu'il peut pour rester objectif, mais il est difficile de prétendre ne plus les connaître sous prétexte qu'il est de l'autre côté de la barrière.

        Enfin, une dernière stratégie est utilisable : proposer de soi-même un protocole de test ou critiquer le protocole de test existant en pointant les spécificités qui vous désavantagent (en expliquant la raison). Si on arrive à convaincre que c'est le meilleur moyen d'être objectif, c'est gagné ! Ça paraît grossier, mais ça tire parti du petit nombre de mesures : elles sont alors beaucoup plus sensibles aux fluctuations statistiques. Une seule mesure aberrante (en positif comme en négatif) met en péril la qualité de l'étude et il est donc crucial, pour l'entreprise comme pour l'autorité de tutelle, de s'assurer de la qualité de chaque mesure.

        Ça, ce sont les sources. Le mouton que tu veux est dedans.

    • [^] # Re: pas encore lu le dit rapport

      Posté par  (site web personnel, Mastodon) . Évalué à 7.

      Le temps passé a surtout été pris par des discussions au sein du comité technique… Le problème est très complexe (même si, sur LinuxFr, Jean-Kevin explique volontiers que c'est trivial).

      • [^] # Re: pas encore lu le dit rapport

        Posté par  (site web personnel) . Évalué à 4. Dernière modification le 26 novembre 2014 à 11:15.

        Je veux bien comprendre que pour avoir du chiffrer précis, c'est compliqué.

        Mais si tu veux une mesure de qualité perçu par le client, tu mesures ce que fait concrètement et précisément le client : surfer sur internet (latence), lire une vidéo (débit minimum soutenu), téléchargement p2p, … Cela peut se faire sur les 100 ou 1000 sites les plus visités, avec des machines de course pour éviter le biais de la machine lente.

        C'est plus facile que d'interpréter la vitesse d'un ping, l'accès au dns, etc…

        Ensuite pour digérer les chiffres, c'est plus compliqué : les données peuvent être fournis en open data pour que chacun fasse les meilleurs courbes. Mais j'imagine que le plus utile est les courbes avec moyenne, min et max, par critère, sur des échelles linéaires.

        "La première sécurité est la liberté"

        • [^] # Re: pas encore lu le dit rapport

          Posté par  (site web personnel) . Évalué à 2.

          Mais si tu veux une mesure de qualité perçu par le client, tu mesures ce que fait concrètement et précisément le client : surfer sur internet (latence), lire une vidéo (débit minimum soutenu), téléchargement p2p, … Cela peut se faire sur les 100 ou 1000 sites les plus visités, avec des machines de course pour éviter le biais de la machine lente.

          Je te conseille vivement de lire la partie IV.3, tu serais peut-être surpris de retrouver tes idées dans… leur travail. Dommage ils font ce que tu critiques comme quoi ils ne feraient pas, c'est balot.
          Si X fait A, on va le critiquer "il ne fait pas A", hum…

          Mais j'imagine que le plus utile est les courbes avec moyenne, min et max, par critère, sur des échelles linéaires.

          Je te conseille (refrain…)


          J'en conclu que tu as écrit avant de lire la méthodologie, juste pour le plaisir de critiquer gratuitement.
          Il y a de choses à redire dessus (par exemple que les opérateurs connaissent les adresses donc vont les traiter en VIP plutôt qu'en utilisateur lambda), mais la c'est ridicule comme "critique" que de se plaindre qu'ils ne font pas alors qu'ils font.

          • [^] # Re: pas encore lu le dit rapport

            Posté par  (site web personnel) . Évalué à 2.

            Je répondais à un message qui disait que "c'était difficile". Je répondais que pas "tant que ça". Quelle que soit le benchmark, c'est toujours les mêmes soucis.

            "La première sécurité est la liberté"

            • [^] # Re: pas encore lu le dit rapport

              Posté par  (site web personnel) . Évalué à -1.

              Je répondais que pas "tant que ça".

              Admettons : reprise du document donc, sans explications sur la facilité comparé a ce que le posteur dit, c'est clair que ça va convaincre en disant rien de nouveau!.

              Quelle que soit le benchmark, c'est toujours les mêmes soucis.

              Et c'est compliqué (quel que soit le benchmark), ne t'en déplaise (combien de personnes font des benchmarks qui mesurent tout sauf ce qu'ils disent mesurer… pour repomper : sur LinuxFr, Jean-Kevin explique volontiers que c'est trivial. Mais bon, ça c'est pas le prie, ça lui arrive aussi de donner de résultats et la tu pleures car les lecteurs apprécient et trouvent ça informatif).

      • [^] # Re: pas encore lu le dit rapport

        Posté par  . Évalué à 4.

        tu parles du comité technique qui a retiré l'indicateur de pertes de paquets de son rapport final au sujet de la qualité de service de l'internet français ?
        C'est une blague rassures moi, car ce n'est que la page 4….

        Dans la même page, utiliser 15 sites de références pour faire des tests de mesures, suis je le seul à me dire que cela n'à pas de sens ? A la prochaine page on va me sortir qu'ils font 1 test de mesure à 5h du mat en heure creuse car cela donne de meilleurs résultats.
        Aller, pour l’honnêteté de ma connerie je vais tenter d'aller au bout..

    • [^] # Re: pas encore lu le dit rapport

      Posté par  (site web personnel) . Évalué à 5.

      Alors de quoi voulais tu parler ?

      Il voulait peut-être seulement informer.
      :-)

      "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

  • # coquille ?

    Posté par  (site web personnel) . Évalué à 2. Dernière modification le 26 novembre 2014 à 11:26.

    p 20, ils semblent dire dans un tableau que le p2p n'est pas influencé par le débit montant. J'ai pu le voir sur des lignes 5 mbits symétriques, bien plus rapide que du 20/1 Mbits ADSL classique.

    "La première sécurité est la liberté"

  • # J'ai pas tout lu

    Posté par  . Évalué à 5.

    J'ai parcouru, à un moment donné, j'étais fatigué de lire que rien n'était fiable la dedans.

    Tout ce que j'en dis au final c'est que ce rapport tente de joindre la chèvre et le chou pour arriver à un résultat qui soit mangeable par le premier lambda venu.
    Franchement mettre dans le même jeu de lot le site de google (15 queries, 347kb) Vs la fnac (191 queries, 1.9mo), et venir nous parler de biais technique par la suite, c'est juste risible.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.