Il est dit que le web est une source d'obsolescence.
En vrai s'ils installent un Linux sur leur matériel ils pourraient toujours continuer à l'utiliser.
C'est donc plutôt l'OS non-libre qui est source d'obsolescence. Grâce à une navigateur OSS ils ont put pousser les limites mais à un moment l'OS te limite.
Je sais que à un moment le matériel te limite aussi. Mais là ça semble pas le cas. Une machine haut de gamme d'il y a 15 ans devrait être capable d'aller sur internet aujourd'hui.
En vrai s'ils installent un Linux sur leur matériel ils pourraient toujours continuer à l'utiliser.
C'est donc plutôt l'OS non-libre qui est source d'obsolescence. Grâce à une navigateur OSS ils ont put pousser les limites mais à un moment l'OS te limite.
J'ai lu sans trop m'attarder sur les détails, j'ai sauté de larges portions de texte qui ne traitaient pas du "why", vu que c'est la seule section qui m'intéressait (toujours intéressant de savoir pourquoi quelqu'un lâche l'affaire je trouve), mais à moins que je n'aie raté un gros truc, le problème n'est pas l'OS, il n'en parle d'ailleurs jamais.
Quelques morceaux choisis:
and keeping up with new web features
Now that Firefox is on a four-week release schedule, it's just more than I feel I can continue
Besides various layout and DOM features we don't support well like CSS grid, there are large JavaScript updates we'll increasingly need which are formidably complex tasks.
Writing and maintaining a browser engine is fricking hard and everything moves far too quickly for a single developer now
You can make workarounds to gracefully degrade where we have missing HTML or DOM features, but JavaScript is pretty much run or don't,
the liberties taken by JavaScript minifiers are demonstrably not portable
Clairement, ces points me semble conforter la thèse que le web est source d'obsolescence.
D'ailleurs, il ne reste que 2 et demi (1) moteurs de rendu développés, dont un seul est toujours dans les mains du développeur initial (mozilla). Les autres sont des jouets. Tous, sans exception.
Et en réalité, ceux qui se basent sur blink sont "juste" des forks de chromium, il n'y a pas, à ma connaissance, d'application embarquant blink sans être un fork de chromium.
Le rythme de mises à jour frénétique des clients est probablement la 2nde grosse preuve du côté obsolescence-friendly du web, sans parler de la consommation de ressources croissante, le tout pour faire des choses que bien souvent on pourrait faire en natif plus efficacement (mais temps et coûts de développement initiaux largement supérieurs. Pour la maintenance, je n'en suis pas sûr, je ne serais pas surpris que le moyen ou long terme soit nettement moins cher avec du natif, mais je n'ai aucune preuve).
1: le demi, c'est webkit, parce que blink est un fork, et que webkit me semble à bout de souffle, je ne serai pas surpris d'apprendre sa mort dans peu de temps, disons 2 ans, max?
Je n'ai pas bien compris cette partie. Porter un logiciel ne signifie pas réécrire et maintenir le moteur du navigateur. J'imagine par là que certains bugs apparaissent sur d'autres architectures processeur que firefox ne supporte pas et que l'auteur devait corriger ? Que font des projets multiarchitectures comme debian, netbsd et openbsd vis à vis de firefox ? Il est tout le temps cassé sur autre chose que du amd64 où le patchent t-ils constemment ?
Sur OpenBSD firefox n'est disponible que pour 4 architectures, dont trois 64-bit et une seule 32-bits (i386). Ça a visiblement demandé du travail aux développeurs noyau pour réussir à compiler rust :
remove BROKEN marker for i386, there's kernel work in progress to get this building more easily
Deux mois avant ce message de commit, le porteur avait plus ou moins abandonné l'espoir d'avoir firefox sur i386 (la compilation utilisait trop de mémoire).
Le port de chromium gère par contre 11 architectures.
Après, d'un point de vu du nombre de patchs nécessaires (à coups de #ifdef qui visiblement ne peuvent pas être remontés upstream), il me semble que chromium pose par contre plus de difficultés que firefox.
Clairement, ces points me semble conforter la thèse que le web est source d'obsolescence.
En tout cas, tu peux facilement interroger tous les DNS d'aujourd'hui avec un client d'il y a 20 ans. Je pense que tu peux relativement facilement te connecter avec la plupart des serveurs SMTP/IMAP/POP3 d'aujourd'hui avec un client d'il y a 20 ans (à voir niveau TLS c'est pas dit que ça ne nécessite pas un peu de bidouille). Je suppose qu'on peut tirer des conclusions similaires avec les protocoles majeurs de l'internet : IRC, SSH, XMPP…
Pour le web ça semble mission impossible. Parce que l'obsolescence est l'avers de l'innovation : le web introduit en permanence des technologies que les clients anciens ignorent ; et c'est difficile de maintenir partout et tout le temps le grand écart de la rétrocompatibilité.
Pour SSH il y a souvent des key exchange algorithms qui sont dépréciés de la config par défaut des clients et des serveurs. Donc il peut y avoir des échecs entre un très vieux client sur un serveur récent et un client très récent sur un serveur très vieux (typique de vieilles appliances non supportées). Upgrader un client ssh est relativement facile et dans le second cas un simple coup de config permet de passer outre généralement même si c'est dirty.
Posté par blobmaster .
Évalué à 3.
Dernière modification le 31 mars 2021 à 21:36.
Quand on veut tuer son chien on l'accuse de la rage.
C'est ce que tu fais en accusant le web qui est un standard ouvert.
C'est ce que je fais en accusant l'OS privateur.
Et tout est dans les détails. Il n'arrivent plus à compiler leur navigateur sur leur OS. Plutôt que de se dire que l'OS n'évolue plus et que c'est ça le problème ils accusent le navigateur, au travers du web, de trop évoluer.
Le choix du coupable se fait donc entre un navigateur libre et des standards ouvert qui évoluent d'un côté et un OS proprio dépassé de l'autre. Je trouve qu'il n'ont pas choisi le bon coupable.
Peut-être que le web évolue trop vite, je ne le crois pas, mais même si c'était le cas, le problème se serait pas un web ouvert et un navigateur libre le problème serait un OS proprio qu'on ne peut plus faire évoluer.
Un peu comme si tu avais une imprimante et qu'elle avait des soucis de bourrage et que au lieu de vouloir changer le drivers, tu accuses tous ces super papiers A4 avec des chatons en filligrammes pour faire du scrap booking.
Un peu comme si tu avais une imprimante et qu'elle avait des soucis de bourrage et que au lieu de vouloir changer le drivers, tu accuses tous ces super papiers A4 avec des chatons en filligrammes pour faire du scrap booking.
Disons qu'avec une imprimante, il y a de grandes chance qu'une poignée d'individus puissent écrire un nouveau driver, alors qu'avec le web, plus d'un projet amateur s'y est essayé (et certains persistent, et jusqu'à présent, outre mozilla et google, personne ne parviens à supporter le web moderne complètement.
D'ailleurs, selon le navigateur que j'utilise, certains sites marchent, ou pas, donc j'imagine que c'est aussi valide pour les grands.
Cameron Kaiser, le papa de TenFourFox, , est décidément un personnage comme on en rencontre peu dans sa vie.
Je ne l'ai jamais vu physiquement mais j'ai été en contact contact épistolaire car ayant envoyé un exemplaire de Linux Magazine où j'avais écrit un article sur le protocole Gopher il y a tout juste 10 ans. En effet, avec John Goerzen, il est un des piliers de la communauté Gopher.
En matière d'informatique, il est très versé dans le rétro-computing au point d'abriter à domicile une petite salle des machines. Il maintient aussi l'ancêtre de tous les moteurs de recherche : Veronica. Et, par là- même, Cameron Kaiser indexe tous les sites Gopher (en constante augmentation). Voir aussi la liste de diffusion Gopher-Projectoù l'on débat aussi de Gemini.
Mais il s'intéresse également à l'informatique de pointe avec les machines Raptor dont il en possède une. Voir ici une autre de ses nombreuses pages perso (dont je renonce à faire l'inventaire exhaustif !).
Sa page perso révèle aussi que son intense activité en informatique n'est pas son gagne pain. En effet, dans le civil, il est médecin hospitalier spécialisé dans la tuberculose.
Sauf homonymie, Il semblerait qu'il ait exercé un rôle public durant la pandémie d'après cet article.
# Le billet original
Posté par bunam . Évalué à 2.
http://tenfourfox.blogspot.com/2020/04/the-end-of-tenfourfox-and-what-ive.html
[^] # Re: Le billet original
Posté par blobmaster . Évalué à 3.
Il est dit que le web est une source d'obsolescence.
En vrai s'ils installent un Linux sur leur matériel ils pourraient toujours continuer à l'utiliser.
C'est donc plutôt l'OS non-libre qui est source d'obsolescence. Grâce à une navigateur OSS ils ont put pousser les limites mais à un moment l'OS te limite.
Je sais que à un moment le matériel te limite aussi. Mais là ça semble pas le cas. Une machine haut de gamme d'il y a 15 ans devrait être capable d'aller sur internet aujourd'hui.
Par exemple j'y arrive toujours avec un ordi moins haut de gamme : https://fr.wikipedia.org/wiki/Asus_Eee_PC
Même si je reconnais que c'est pas fou, ça marche.
[^] # Re: Le billet original
Posté par ff9097 . Évalué à 2.
Le problème ici est que Rust devient nécessaire mais n'est pas supporté sur PPC
[^] # Re: Le billet original
Posté par Psychofox (Mastodon) . Évalué à 2. Dernière modification le 31 mars 2021 à 11:26.
Apparemment rust et cargo peuvent être compilés pour powerpc linux :
https://doc.rust-lang.org/nightly/rustc/platform-support.html
Aucune idée si les quelques ditros supportant powerpc fournissent des packages par contre…
[^] # Re: Le billet original
Posté par freem . Évalué à 4.
J'ai lu sans trop m'attarder sur les détails, j'ai sauté de larges portions de texte qui ne traitaient pas du "why", vu que c'est la seule section qui m'intéressait (toujours intéressant de savoir pourquoi quelqu'un lâche l'affaire je trouve), mais à moins que je n'aie raté un gros truc, le problème n'est pas l'OS, il n'en parle d'ailleurs jamais.
Quelques morceaux choisis:
Clairement, ces points me semble conforter la thèse que le web est source d'obsolescence.
D'ailleurs, il ne reste que 2 et demi (1) moteurs de rendu développés, dont un seul est toujours dans les mains du développeur initial (mozilla). Les autres sont des jouets. Tous, sans exception.
Et en réalité, ceux qui se basent sur blink sont "juste" des forks de chromium, il n'y a pas, à ma connaissance, d'application embarquant blink sans être un fork de chromium.
Le rythme de mises à jour frénétique des clients est probablement la 2nde grosse preuve du côté obsolescence-friendly du web, sans parler de la consommation de ressources croissante, le tout pour faire des choses que bien souvent on pourrait faire en natif plus efficacement (mais temps et coûts de développement initiaux largement supérieurs. Pour la maintenance, je n'en suis pas sûr, je ne serais pas surpris que le moyen ou long terme soit nettement moins cher avec du natif, mais je n'ai aucune preuve).
1: le demi, c'est webkit, parce que blink est un fork, et que webkit me semble à bout de souffle, je ne serai pas surpris d'apprendre sa mort dans peu de temps, disons 2 ans, max?
[^] # Re: Le billet original
Posté par Psychofox (Mastodon) . Évalué à 2.
Je n'ai pas bien compris cette partie. Porter un logiciel ne signifie pas réécrire et maintenir le moteur du navigateur. J'imagine par là que certains bugs apparaissent sur d'autres architectures processeur que firefox ne supporte pas et que l'auteur devait corriger ? Que font des projets multiarchitectures comme debian, netbsd et openbsd vis à vis de firefox ? Il est tout le temps cassé sur autre chose que du amd64 où le patchent t-ils constemment ?
[^] # Re: Le billet original
Posté par anaseto . Évalué à 4.
Sur OpenBSD firefox n'est disponible que pour 4 architectures, dont trois 64-bit et une seule 32-bits (i386). Ça a visiblement demandé du travail aux développeurs noyau pour réussir à compiler rust :
Deux mois avant ce message de commit, le porteur avait plus ou moins abandonné l'espoir d'avoir firefox sur i386 (la compilation utilisait trop de mémoire).
Le port de chromium gère par contre 11 architectures.
Après, d'un point de vu du nombre de patchs nécessaires (à coups de #ifdef qui visiblement ne peuvent pas être remontés upstream), il me semble que chromium pose par contre plus de difficultés que firefox.
[^] # Re: Le billet original
Posté par Pol' uX (site web personnel) . Évalué à 4.
En tout cas, tu peux facilement interroger tous les DNS d'aujourd'hui avec un client d'il y a 20 ans. Je pense que tu peux relativement facilement te connecter avec la plupart des serveurs SMTP/IMAP/POP3 d'aujourd'hui avec un client d'il y a 20 ans (à voir niveau TLS c'est pas dit que ça ne nécessite pas un peu de bidouille). Je suppose qu'on peut tirer des conclusions similaires avec les protocoles majeurs de l'internet : IRC, SSH, XMPP…
Pour le web ça semble mission impossible. Parce que l'obsolescence est l'avers de l'innovation : le web introduit en permanence des technologies que les clients anciens ignorent ; et c'est difficile de maintenir partout et tout le temps le grand écart de la rétrocompatibilité.
Adhérer à l'April, ça vous tente ?
[^] # Re: Le billet original
Posté par Benoît Sibaud (site web personnel) . Évalué à 4. Dernière modification le 31 mars 2021 à 13:22.
SSH je dirais non (pour 20 ans). SSH protocole v1 1995, protocole v2 2006. Et la v1 n'est plus dans les derniers OpenSSH.
[^] # Re: Le billet original
Posté par Psychofox (Mastodon) . Évalué à 2.
Pour SSH il y a souvent des key exchange algorithms qui sont dépréciés de la config par défaut des clients et des serveurs. Donc il peut y avoir des échecs entre un très vieux client sur un serveur récent et un client très récent sur un serveur très vieux (typique de vieilles appliances non supportées). Upgrader un client ssh est relativement facile et dans le second cas un simple coup de config permet de passer outre généralement même si c'est dirty.
[^] # Re: Le billet original
Posté par blobmaster . Évalué à 3. Dernière modification le 31 mars 2021 à 21:36.
Quand on veut tuer son chien on l'accuse de la rage.
C'est ce que tu fais en accusant le web qui est un standard ouvert.
C'est ce que je fais en accusant l'OS privateur.
Et tout est dans les détails. Il n'arrivent plus à compiler leur navigateur sur leur OS. Plutôt que de se dire que l'OS n'évolue plus et que c'est ça le problème ils accusent le navigateur, au travers du web, de trop évoluer.
Le choix du coupable se fait donc entre un navigateur libre et des standards ouvert qui évoluent d'un côté et un OS proprio dépassé de l'autre. Je trouve qu'il n'ont pas choisi le bon coupable.
Peut-être que le web évolue trop vite, je ne le crois pas, mais même si c'était le cas, le problème se serait pas un web ouvert et un navigateur libre le problème serait un OS proprio qu'on ne peut plus faire évoluer.
Un peu comme si tu avais une imprimante et qu'elle avait des soucis de bourrage et que au lieu de vouloir changer le drivers, tu accuses tous ces super papiers A4 avec des chatons en filligrammes pour faire du scrap booking.
[^] # Re: Le billet original
Posté par freem . Évalué à 2.
Disons qu'avec une imprimante, il y a de grandes chance qu'une poignée d'individus puissent écrire un nouveau driver, alors qu'avec le web, plus d'un projet amateur s'y est essayé (et certains persistent, et jusqu'à présent, outre mozilla et google, personne ne parviens à supporter le web moderne complètement.
D'ailleurs, selon le navigateur que j'utilise, certains sites marchent, ou pas, donc j'imagine que c'est aussi valide pour les grands.
# Cameron Kaiser
Posté par Denis Bernard (site web personnel) . Évalué à 3.
Tout d'abord, le lien de la page de TenFourFor.
Cameron Kaiser, le papa de TenFourFox, , est décidément un personnage comme on en rencontre peu dans sa vie.
Je ne l'ai jamais vu physiquement mais j'ai été en contact contact épistolaire car ayant envoyé un exemplaire de Linux Magazine où j'avais écrit un article sur le protocole Gopher il y a tout juste 10 ans. En effet, avec John Goerzen, il est un des piliers de la communauté Gopher.
En matière d'informatique, il est très versé dans le rétro-computing au point d'abriter à domicile une petite salle des machines. Il maintient aussi l'ancêtre de tous les moteurs de recherche : Veronica. Et, par là- même, Cameron Kaiser indexe tous les sites Gopher (en constante augmentation). Voir aussi la liste de diffusion Gopher-Projectoù l'on débat aussi de Gemini.
Mais il s'intéresse également à l'informatique de pointe avec les machines Raptor dont il en possède une. Voir ici une autre de ses nombreuses pages perso (dont je renonce à faire l'inventaire exhaustif !).
Sa page perso révèle aussi que son intense activité en informatique n'est pas son gagne pain. En effet, dans le civil, il est médecin hospitalier spécialisé dans la tuberculose.
Sauf homonymie, Il semblerait qu'il ait exercé un rôle public durant la pandémie d'après cet article.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.