karteum59 a écrit 863 commentaires

  • # Petit commentaire hors-sujet :)

    Posté par  . En réponse au journal Nom de Zeus, une autre board.... Évalué à 10.

    OK elle a l'air pas mal, mais je fais juste remarquer que tu trouves des Lenovo x200/t400 d'occasion pour moins de 100€ sur leboncoin (parfois moins de 70€. J'ai acheté le mien pour 40€ (avec écran et batterie HS, mais parfait pour un serveur ou un desktop fixe)), et en dehors de l'USB3 il me semble que ce type de machine remplit ton cahier des charges (de plus, j'ignore ce que donnent les ATOM récent sur le plan du bios/ME, mais le x200 a le mérite de supporter Libreboot).

    OK, c'est sûrement moins "basse conso" que ta carte ATOM, mais

    • pour la planète : réutiliser un vieil ordi restera toujours plus écolo qu'acheter une machine neuve !
    • honnêtement, 20-30W en moyenne (et sensiblement moins en idle) ça reste "acceptable" à mon sens
  • [^] # Re: Quoi d’intéressant?

    Posté par  . En réponse au journal [Bookrmark] How to troll systemd in one blog post. Évalué à 5.

    La résolution de noms est devenue quelque chose de chaotique sous Linux. Si tu fais un gethostbyname("foo"), il faut regarder dans /etc/hosts, demander éventuellement à mDNS (avahi?), demander au serveur DNS local, etc… Le resolveur de la glibc tente d'avoir une architecture "ouverte" pour rajouter d'autres méthodes plus ou moins dinosauresques (telles que NIS ou WINS) et c'est en partie à cause de lui qu'il est peu recommandé / impossible de faire des binaires statiques sous Linux.

    Donc c'est un souci sur l'implémentation glibc de gethostbyname()/getaddrinfo() et non sur l'API, si je comprends bien ? Pas grave, suffit de changer de crêmerie.

    Ah oui, sauf que…

  • [^] # Re: LC_LANG ?

    Posté par  . En réponse à la dépêche CatchChallenger version 2. Évalué à 7.

    je n'est pas eu le temps de faire les traductions

    ça valait peut-être mieux, en fait… ;o)

  • [^] # Re: Planète ?

    Posté par  . En réponse au sondage Les serveurs des geeks : écolos ?. Évalué à 2. Dernière modification le 22 septembre 2016 à 19:33.

    Avec mon XU4 (mais avec un RPi, ou un BBB, ou autre c'est grosso modo pareil) c'est à la planète ET à mon portefeuille que j'ai pensé.

    A ce sujet : ton Odroid-XU4 est basée sur du ARM (donc nécessite un kernel/une distro spécifique) => sera t-il encore maintenu et utilisable dans 10/15 ans ? (je ne parle même pas de 30 ans… sachant que l'OS supporté aujourd'hui est a priori déjà obsolète vu que Hardkernel annonce "the board can run various flavors of Linux, including the latest Ubuntu 15.04 and Android 4.4 KitKat and 5.0 Lollipop"…)

  • [^] # Re: Le site web de Lumina est vraiment top !

    Posté par  . En réponse au journal Crépuscule de PC-BSD, aube de TrueOS. Évalué à 1. Dernière modification le 22 septembre 2016 à 18:26.

    Par contre, LXQT n'a pas complètement retiré sa dépendance au framework KDE

    Euh, de quelle dépendance parle t-on ?
    LXDE était basé sur GTK (un peu comme XFCE). Razor-QT est basé sur QT.
    La "fusion" des deux (basée sur QT) n'a aucune dépendance à KDE à ma connaissance !

    (pour la construction seulement, de mémoire)

    Lapin compris

  • [^] # Re: Le site web de Lumina est vraiment top !

    Posté par  . En réponse au journal Crépuscule de PC-BSD, aube de TrueOS. Évalué à 2.

    Je ne connaissais pas Lumina, mais on dirait qu'il est un peu sur le même "créneau" que LXQT. Mais effectivement, dans la catégorie traductions de merde, on dirait bien qu'ils ont utilisé un traducteur automatique… Exemple :

    Le arbre source pour le bureau Lumina vient d'être doux congelés en prévision de la sortie prochaine de la version 1.0.0 à la mi-Août (ciblant provisoirement 8ème Août pour finales critiques / contrôles).

  • [^] # Re: Planète ?

    Posté par  . En réponse au sondage Les serveurs des geeks : écolos ?. Évalué à 10.

    Oui bon, là tu prends un exemple extrême (j'ai aussi un 486 qui prend la poussière), et les besoins d'aujourd'hui en RAM/stockage ne sont pas ceux d'hier (je doute que NodeJS tourne sur un 386/16Mo :). Mais mon propos visait surtout les montagnes de machines bien plus récentes qui malgré tout finissent à la benne (franchement, un P4 ou un Athlon avec 1 Go de RAM et l'ethernet 10/100 intégré peut encore aujourd'hui faire plein de choses). Si on arrivait à faire que chacun fasse durer ses machines au moins 15 ans ce serait déjà un progrès immense (on s'attaquera au problème des machines qui ont 30 ans dans un second temps :)

  • [^] # Re: Planète ?

    Posté par  . En réponse au sondage Les serveurs des geeks : écolos ?. Évalué à 10.

    Hum, j'avais pourtant bien dit "Si c'est vraiment à la planète que tu penses"… Sur un plan purement financier (lié à la facture edf de l'ordinosaure), la reponse est parfois différente, mais ça n'était pas le propos. Et je maintiens qu'il n'existe pas de "recyclage propre". Tout au plus des moins mauvais que d'autres (dans lesquels on récupère un peu plus de métaux que d'autres). Et quand bien même il existerait un recyclage 100% propre dans lequel 100% des atomes sont réutilisés, ça ne change pas le fait que l'énergie (considérable) que nécessite la fabrication d'une machine n'est - elle - pas récupérable ! (Donc dans un monde fini on ferait mieux de faire durer autant que possible nos machines). Évidemment l'électricité (au charbon) chinoise est probablement moins chère que celle d'edf (et plus généralement, l'énergie ne vaut rien aujourd'hui, même si je doute que ce soit encore le cas demain) donc cette energie utilisée pour la fabrication est un peu invisible dans ton calcul pour le porte-monnaie, mais ça n'interdit pas de s'y intéresser "Si c'est vraiment à la planète que tu penses" (et/ou aux générations futures).

    P.S pour tes machines "en veille" (au sens strict i.e. inutilisées, pas avec un serveur qui doit être capable de répondre à tout moment), il existe ça ;)

  • # Planète ?

    Posté par  . En réponse au sondage Les serveurs des geeks : écolos ?. Évalué à 10. Dernière modification le 21 septembre 2016 à 02:41.

    ça peut vite finir par compter, autant pour la planète que le porte-monnaie

    Si c'est vraiment à la planète que tu penses, le plus important est d'utiliser les machines les plus vieilles possibles et de les faire durer le plus longtemps possible même si ce sont de vieilles tours qui consomment (ça fait autant de machines de moins fabriquées), car l'énergie nécessaire à la fabrication d'une machine domine souvent d'assez loin celle qu'elle consommera durant toute sa durée de vie ! (Sans parler de la pollution, de la consommation de métaux rares, etc.)

    N.b. je pense aussi que le recours à un hébergement mutualisé/virtualisé en data-center a souvent des chances d'être plus efficace que l'auto-hebergement (taux d'utilisation des machines plus élevé => moins de machines toute chose égale par ailleurs)

  • [^] # Re: 2 questions bêtes

    Posté par  . En réponse au journal jus - Just Upload Stuff. Évalué à 3. Dernière modification le 19 septembre 2016 à 23:27.

    Mais en fait, le manque de responsabilité d'une autorité ne change pas grand chose pour les utilisateurs de ses services en particulier, ça rend "juste" tout le système SSL moins fiable. Du coup, utiliser leurs certificats, en soi, ne pose pas vraiment de problème pour celui qui les utilise.

    Sauf quand ta CA se fait virer des navigateurs ;)

  • # ssss

    Posté par  . En réponse au journal Gfsecret, le secret réparti en pratique. Évalué à 7. Dernière modification le 05 septembre 2016 à 00:26.

    FYI une autre implémentation (GPLv2) de l'algorithme de Shamir est ssss
    (je manque de temps pour comparer. Si quelqu'un a un avis…)

  • [^] # Re: Comment ils font ?

    Posté par  . En réponse à la dépêche Haiku a 15 ans. Évalué à 3.

    sous Linux

    En fait, ça n'est pas lié à Linux (au sens du kernel) stricto-sensu : il existe d'ailleurs des distros qui ne respectent pas le FHS :)

  • [^] # Re: Comment bookmark de gens optimistes

    Posté par  . En réponse à la dépêche Le logiciel libre au-delà de x86. Évalué à 5. Dernière modification le 29 août 2016 à 18:07.

    Concevoir un CPU RISC-V capable d'atteindre les performances et l'efficacité énergétique d'un CPU Intel actuel nécessiterait un tel travail que la moitié des lecteurs de linuxfr sera à la retraite et l'autre moitié mangera les pissenlits par la racine avant de pouvoir en profiter.

    Du coup, peut-être qu'un effort de sobriété devra venir des usagers (accepter une machine moins puissante et des clients lourds / des logiciels moins "jolis") et des développeurs (accepter de passer plus de temps dans de l'optimisation et d'utiliser des langages compilés plus contraignants) pour rendre à nouveau utilisable une machine peu performante (<mode="vieux_con">dans mon jeune temps, j'ai tapé un rapport de stage complet sur un Amiga 1200 de base (68020 avec 2 Mo de RAM), et un autre sur un Psion série 5</mode> :)

  • [^] # Re: 2-3 remarques

    Posté par  . En réponse à la dépêche Le logiciel libre au-delà de x86. Évalué à 6. Dernière modification le 29 août 2016 à 17:32.

    mais apparemment beaucoup des ISA en dehors de x86 sont des descendants de RISC : ARM, MIPS, POWER (Performance Optimization With Enhanced RISC), SPARC…

    Je ne suis même pas sûr que "descendants" soit le terme approprié : RISC est un terme générique désignant une approche (avoir un jeu d'instruction simple) et pas le nom d'un jeu d'instruction précis. Donc il y a plein d'ISA RISC qui ne sont pour autant pas descendants d'un ancètre commun initial et qui sont bien sûr incompatibles !

  • [^] # Re: 2-3 remarques

    Posté par  . En réponse à la dépêche Le logiciel libre au-delà de x86. Évalué à 6.

    Actuellement plus d'une quinzaine de fabricants disposeraient d'une licence ARM, ce qui témoigne d'un marché relativement ouvert

    Dans le cas des Cortex-A, c'est 249 ! :)
    (Je me disais bien aussi qu'une quinzaine ça faisait peu… Par exemple, au delà des plus connus comme NVidia/NXP/TI/Qualcomm/Mediatek/Broaadcom/Samsung/Allwinner/Rockchip, il y a aussi HiSilicon (Huawei), Realtek, ST, Marvell, Apple, Toshiba, et plein d'autres moins "connus" comme Leadcore (Datang), ActionSemi, Spreadtrum, Ambarella, ZTE, AmLogic, Cavium, etc.)

  • # 2-3 remarques

    Posté par  . En réponse à la dépêche Le logiciel libre au-delà de x86. Évalué à 10. Dernière modification le 29 août 2016 à 03:32.

    Super journal ! Peu de personnes ont conscience du souci posé par le Management Engine :-/

    Bon, j'ai quand même 3-4 remarques (sans grande importance, juste pour pinailler :)
    Premier truc : je suis surpris par la phrase suivante dans le journal

    dont le sous-projet le plus avancé semble être OpenRISC, un microprocesseur basé sur l'architecture libre RISC-V

    Je pense (je peux me tromper) que OpenRISC est antérieur et n'utilise pas l'ISA RISC-V. "RISC" est un terme générique (même "ARM" signifiait "Acorn RISC Machine" !)

    Tant que j'y suis, on lit aussi

    MIPS Technologies appartient depuis 2013 à Imagination Technologies (qui n'est pas vraiment l'ami du logiciel libre), mais quelques compagnies continuent à produire des processeurs MIPS. La plus connue est sûrement le chinois Lemote.

    Rappelons quand même que des coeurs comme MIPS24k sont utilisés dans un nombre considérables de SoCs pour routeurs chez Atheros/Mediatek/Realtek (par exemple l'AR9331, mais c'est juste un exemple)
    Bon OK, on parlait d'un usage Desktop… On pourrait dans ce cas parler des SoC Ingenic, et justement comme le journal parle de EOMA68, Rhombus-Tech a justement envisagé de recourir à un processeur MIPS32 Ingenic JZ4775, qui était d'ailleurs apparemment le "meilleur" candidat d'un point de vue théorique/ouverture (là où Allwinner n'a pas spécialement bonne réputation…) mais malheureusement s'est finalement avéré irréaliste dans leur contexte (Initially, two EOMA68 Computer Cards were developed: one using an Ingenic jz4775, the other with an Allwinner A20. We planned to apply for RYF Certification on the jz4775 card because not only is there no GPU (there’s a Vector FPU similar to AltiVec), but the video processor’s source code is entirely GPL compliant, making it a seemingly perfect candidate for RYF Certification. However, upon close investigation, the only FSF-endorsed operating systems available for MIPS32 were so horribly-out-of-date that the resulting device would be pretty much unsaleable even to FSF supporters. Reluctantly we had to drop the jz4775 from immediate consideration), donc ça veut dire que "MIPS" ne signifie pas nécessairement "pas sympa avec le libre" :)
    (N.B. je pense que cette réputation "pas cool avec le libre" vient surtout des GPU PowerVR et pas de la partie "MIPS", et j'avais discuté avec des personnes de Imagination Technologies il y a qq temps. J'ai retenu que des ingénieurs souhaitent faire bouger les choses en interne, mais c'est apparemment pas simple et ça prend du temps - notamment quand ils ont eux-même sous-traité / acheté du code à d'autres fournisseurs sous licence…)

    Dernière chose - un peu hors-sujet : en ce qui me concerne sur le non-x86, mon premier souci est que beaucoup de fabricants de SoC et/ou OEMs se contrefichent généralement de la GPL (suffit de chercher "GPL violation" ou de demander les sources du kernel à à peu près n'importe quel OEM asiatique à base de Allwinner/Rockchip/ActionSemi/Mediatek/…), ceci alors même que ARM ne permet pas "one kernel to rule them all", et que le côté monolithique (+ l'idéologie "stable API nonsense") de Linux ne permet pas de découpler les parties dépendantes du HW du reste (pour recompiler facilement les parties génériques du kernel et combler une faille de sécurité par exemple). Bref, aujourd'hui le x86 reste encore la seule manière d'avoir une machine qui ne soit pas "jetable" au bout de 3 ans… (OK, j'exagère peut-être un peu : des fabricants de SoC comme NXP/TI s'engagent sur du support à long terme, ainsi que sur le support du device-tree, donc peut-être que j'accuse injustement ARM dans son ensemble. Mais c'est un fait que aujourd'hui tu peux booter une clé USB Linux générique sur n'importe quel PC du monde, alors qu'il faut une distro spécifique pour chaque machine ARM, réduisant sa durée de vie à celle du support)

    On l'a bien vu et les contributeurs du projet Purism s'en sont mordus les doigts : dans l'état actuel des choses, il n'est pas possible de faire un ordinateur dépourvu de logiciels non-libres basé sur x86.

    Purism s'y est cassé les dents, mais ce ne sont pas les seuls (et ça fait peur) : Google engineers have tried for many years to get source code from Intel, and to reverse engineer the blobs that Intel provides. So far, they have been unsuccessful. Google is also one of the companies that funds the coreboot project, and they hire a lot of the core developers, so it's not like they don't have vast resources at their disposal. Smaller companies have no chance.

    Parmi les acteurs développant des plateformes ARM haut de gamme, on trouve NXP Semiconductors, surtout connu sous son ancien nom : Freescale. Leur LS2085A NPU (Network Processing Unit) est probablement ce qui se rapproche le plus d'une station de travail moderne dans le monde ARM haut de gamme.

    En dehors de Freescale, il me semble que nvidia a plutôt bien progressé en matière d'ouverture (d'après ce que je comprends, je n'ai pas été vérifier dans le détail), et ils n'utilisent évidemment pas de GPU Mali. M'enfin bon, y'a toujours plein de blobs et c'est sûrement un peu moins ouvert que NXP/Vivante, n'empêche que:

    • je n'ai pas connaissance d'un truc analogue au Management Engine (par contre, nvidia garde jalousement la SBK, qui permet théoriquement de débricker n'importe quelle shield-tablet avec nvflash. Mais j'imagine que rien n'empêcherait un OEM de concevoir une carte-mère à base de K1 tout en étant plus sympathique sur le bootloader/SBK)
    • ça permet des machines raisonnablement performantes et peu énergivores et pas chères (bref "modernes")
    • ça fait tourner Ubuntu 14.04 aujourd'hui (avec accélération graphique/vidéo. J'ignore si l'état de ce qui est libre vs blobs permet de recompiler et faire fonctionner facilement 16.04. En tout cas le kernel est basé sur un Device-Tree à ma connaissance, ce qui est moins merdique que beaucoup de concurrents)
  • [^] # Re: risc V

    Posté par  . En réponse à la dépêche Le logiciel libre au-delà de x86. Évalué à 3.

    Yep, le journal suivant de vejmarie sur RISC-V en parlait justement. A suivre :)

  • [^] # Re: Toutes ces années de dev

    Posté par  . En réponse à la dépêche Haiku a 15 ans. Évalué à 7. Dernière modification le 24 août 2016 à 21:22.

    est-ce que tout cela suffit à justifier le fait que l’on passe d’un OS + userland qui tourne sur 32-64 Mo de RAM (et je suis gentil, je remonte à l’époque de Amiga OS 3, pas 1.x) à l’obligation de posséder 4+ Go de RAM ?

    Linux fonctionne avec 16Mo de RAM sans souci (et probablement moins) avec un environnement uclibc/musl/busybox, etc. Je l'ai fait marcher sur des dongle routeurs à 5€ et j'ai quelques milliers d'OpenWRT en prod sur des machines avec 64Mo de RAM et 8 Mo de flash ! Par contre, si ta référence est une Ubuntu avec Unity (ou Gnome), des icônes en SVG, une résolution 4k, des drivers qui supportent OpenGL, la capacité de lire ou manipuler des photos/vidéos, plein de services qui tournent sur D-bus et plein de choses écrites en langage interprêté (Python/Perl/Bash), etc. effectivement les besoins hardware/RAM doivent être au dessus (mais on ne parle plus vraiment de la même chose dans ce cas :)

  • [^] # Re: Matériel "high end" compatible ?

    Posté par  . En réponse à la dépêche OpenWRT et LEDE (Linux Embedded Development Environment) : à fourchettes tirés…. Évalué à 4. Dernière modification le 23 août 2016 à 03:08.

    Pour 60 € on a un téléphone avec processeur plus puissant, plus de mémoire vive, plus de stockage, WiFi, BlueTooth, un écran tactile (mais pas de port réseau). Pourquoi les routeurs sont si chers par rapport à un téléphone ?

    C'est en train de venir : MIPS est en train de disparaitre des WiSoC haut de gamme, et des SoCs comme le BCM63138 ou Marvell Armada 38x prennent le relai (capables d'adresser 1GB RAM, dual-core cortex A9 ou mieux, etc.). Mais c'est vrai: les SoCs pour routeur ont pour l'instant un train de retard. Bon du reste, si tu as un peu de volume (quelques milliers d'unités) tu peux quand même faire des routeurs assez sophistiqués et pas trop chers sur la base de system-on-module relativement cools (enfin, cool a priori mais non testé :)

    (Au passage, j'aimerais tellement que des cartes comme ceci exposent les pins RF/SIM permettant de faire de la 4G puisque le SoC supporte un modem avec plein de bandes…)

  • [^] # Re: Matériel "high end" compatible ?

    Posté par  . En réponse à la dépêche OpenWRT et LEDE (Linux Embedded Development Environment) : à fourchettes tirés…. Évalué à 5. Dernière modification le 21 août 2016 à 18:21.

    les débits qui ne dépasseraient pas les 350Mb/s sur le gigabit

    Rappelons au passage que OpenWRT (j'imagine qu'il en est de même pour LEDE) ne supporte pas l'accélération hardware NAT/QoS présente dans un certain nombre de chipsets (e.g. Mediatek/Atheros/Broadcom…).

  • [^] # Re: Comment ils font ?

    Posté par  . En réponse à la dépêche Haiku a 15 ans. Évalué à 4.

    Demi-succès ? Moi je trouve au contraire que c'est plutôt cool et valorisant d'aboutir à qqch qui marche aussi bien avec aussi peu de moyens :)
    Et ce n'est pas le seul projet d'OS alternatif, il y en a des centaines, dont certains sont quand même pas mal aboutis ! Regarde par exemple Syllable ou AROS.

    N.B. qqun sait-il ce que sont devenus Zeta et BlueEyedOS ? C'est mort ?

  • [^] # Re: Comment ils font ?

    Posté par  . En réponse à la dépêche Haiku a 15 ans. Évalué à 8.

    Est-ce qu'ils n'ont pas l'impression de """"perdre leur temps"""" sur un OS qui n'aura probablement jamais de part de marché

    Je t'invite à méditer cette citation qui a presque 25 ans :)

    Hello everybody out there using minix -

    I'm doing a (free) operating system (just a hobby, won't be big and professional like gnu) for 386(486) AT clones. This has been brewing since april, and is starting to get ready. I'd like any feedback on things people like/dislike in minix, as my OS resembles it somewhat (same physical layout of the file-system (due to practical reasons) among other things).

    I've currently ported bash(1.08) and gcc(1.40), and things seem to work. This implies that I'll get something practical within a few months, and I'd like to know what features most people would want. Any suggestions are welcome, but I won't promise I'll implement them :-)

  • [^] # Re: kmail

    Posté par  . En réponse au journal À la recherche des clients mail sous Linux. Évalué à 3. Dernière modification le 16 août 2016 à 16:30.

    La dernière fois que j'ai essayé KMail (ça date d'il y a de nombreuses années), le support du "disconnected IMAP" était complètement pété, et apparemment c'était un problème connu (ça m'avait flingué toute ma boite mail) => est-ce que ça s'est amélioré ?

    (du reste, je me suis posé la question de mettre en place une sorte de proxy IMAP local avec KMail comme client lourd et offlineimap comme interface fiable avec le vrai service IMAP de mon ISP, mais j'ai toujours eu la flemme de le mettre en oeuvre…)

  • [^] # Re: 5G vs EDGE ?

    Posté par  . En réponse au journal Internet, 5G et chantage. Évalué à 7.

    Je pense quand même que l'ouverture des bandes 700/800 MHz va aider pas mal (mais pour aller sur une autre contradiction : la France / la CEPT a été de ceux qui ont bloqué l'ouverture de plus de spectre… Pas mal de pays africains souhaitaient par exemple allouer tout le spectre TV à la 4G i.e. descendre jusqu'à 470 MHz et pas seulement 694 MHz. Personnellement, je trouve que la radiodiffusion - qui ne nécessite pas de voie retour - fonctionne très bien avec du satellite et que les fréquences basses seraient plus utiles en 4G. Mais bon, en France on sanctuarise la TV, il y a de la politique derrière…)

    certaines sociétés ont aussi une mission d'utilité publique.

    ça c'est de l'idéologie. L'Europe a voulu que les télécoms soient un marché privatisé, il faut assumer les conséquences, car une société de droit privé a pour seul but de faire du profit, que ça plaise ou non. Si on veut qu'elle assure une mission d'utilité publique, il faut le cadre règlementaire qui-va-bien. Si les sociétés en question ne l'assurent pas, il ne faut pas les blamer (elles n'ont pas d'état d'âme) mais blamer les carences de la régulation. Note qu'une régulation trop dure n'est pas non plus gage de résultats (si le régulateur demande l'impossible / quelque chose de non rentable, il y aura peu de candidats pour les licences, ou bien des candidats qui ne tiendront pas leurs promesses).

    En l'occurence, le régulateur doit arbitrer entre des objectifs contradictoires

    • l'argent qui revient à l'état (point sur lequel l'état ne voulait pas faire de concession)
    • l'aménagement du territoire (ton point, sur lequel l'Arcep ne voulait pas faire de concession. Les engagements de couverture 4G @800/700 MHz sont très élevés, donc ne t'inquiète pas ça va arriver chez toi, faut juste un peu de patience car un réseau ne se déploie pas en un jour ;)
    • la concurrence / le pouvoir d'achat du consommateur (qui fonctionne pas mal actuellement mais je crains que ça ne dure pas après la fin de l'itinérance Free/Orange. Et les MVNO sont tous morts)
    • l'emploi dans le secteur des télécoms

    Il est impossible d'optimiser tout à la fois. En l'occurence, sur la 4G, l'arbitrage a été de sacrifier les deux dernier point (MVNO+WiMAX et emploi).

  • # 5G vs EDGE ?

    Posté par  . En réponse au journal Internet, 5G et chantage. Évalué à 10.

    avant de parler de 5G, il serait déjà super de dépasser l'EDGE

    Même si personne n'est d'accord sur ce que recouvre le vocable "5G", le débit n'est qu'un critère parmi d'autres, et ce qui se semble se dégager concerne souvent des points autres que le débit pur, notamment

    • la latence (~1ms)
    • la QoS / fiabilité (usages de type public-safety, opérations chirurgicales, etc.)
    • la versatilité/flexibilité (usages faibles débit / faible complexité / IoT…)
    • le nombre d'objets simultanément connectés (IoT encore une fois…)

    Bref, cette fois-ci, on ne parle pas uniquement de "enlarge your bandwidth".

    que se passera-t-il, une fois la neutralité du net dégagée

    Pour rappel, dans toute techno radio, le débit est partagé entre tous les usagers de la cellule (donc oui, il y a une pertinence technique à faire de la QoS lorsque le réseau sature. ça ne veut pas dire que ton VPN ne doit plus fonctionner. Par contre ton VPN n'a peut-être pas les mêmes contraintes de latence/synchronicité qu'un flux vidéo ? De toute façon, si la capacité/spectre est limitée et que trop de monde consomme, il faut bien faire des choix donc de la QoS…). Après, si tu as des besoins spécifiques/entreprise et pas simplement un besoin grand-public/best-effort, je pense que tu pourras toujours souscrire à une offre (un peu plus chère, logique) qui t'apporte un bearer/VPN avec QoS en priorité supérieure qui répond à ton besoin. (cela dit, tout ça est dans un contexte où il y a de la congestion. Si on déploie de la 4G/5G et que beaucoup de spectre se révèle disponible, il y a peut-être moins de raisons de faire de la QoS aggressive. L'argumentaire logique des opérateurs aurait dû être "filez nous des fréquences ou bien on fait de la QoS" plutôt que "on va déployer de la 5G si vous nous permettez de faire de la QoS")

    N.B. les zones rurales sont intrinsèquement non rentable. Pour rappel le CAPEX pour installer un site macrocell c'est rapidement autour de 150000€ - et encore je suis gentil, ça peut être pire s'il faut construire le pylône - alors si c'est pour couvrir 10 agriculteurs, tu comprendras que les opérateurs soient un peu réticents, d'autant que je n'ai pas parlé de l'OPEX). Donc si tu veux que les opérateurs déploient en zone rurale

    • soit il faut les y obliger (c'est ce qui est fait sur la 4G sur les bandes 700/800 MHz, est c'est possible puisque concrètement les villes rentables payent pour les campagnes non rentables - par contre c'était impossible pour le WiMAX pour les raisons que j'avais expliquées ici).
    • soit il faut un subventionnement public (puisque concrètement, on ne peut pas demander aux seuls usagers de ces zones de payer un abonnement démesurément cher)

    Bref il faut bien que quelqu'un paye à un moment. Au Canada, les abonnements sont nettement plus chers qu'en France pq la densité de population est bien moindre. En France, on veut le beurre et l'argent du beurre (une couverture 4G universelle en continuant de payer 16€/mois/abonnement, des licences qui rapportent beaucoup d'argent à l'état, des antennes petites/discrètes et un niveau de champ < 0.6V/m mais quand même du signal partout…).