Quand à être convaincu par l'OS, c'est sûr que le CEO l'était. En tout cas il a été convaincu par le deal, ce qui est plutôt normal quand on a je ne sais combien de millions en action MS dans son portefeuille perso, ça serait vraiment complètement débile de jouer contre son camp.
C'est donc un comportement DU MAL et il n'y a effectivement pas à se réjouir de la politique du moins pire, surtout quand c'est aussi immoral par dessin à la base.
et alors ? une alim de bonne qualité ne va pas s'amuser à dissiper elle-même la puissance dont l'ordi qui ne consomme presque plus rien n'a plus besoin...
Il est heureux que l'accélération des processeurs et l'augmentation de la quantité de RAM permette de faire plus de chose qu'avant. Cela ne contredit pas mon propos, qui est qu'à fonctionnalités égales effectivement utilisées (quand je ne regarde pas la TV ni ne lit des listes de 4000 mails il n'y a aucune raison pour que la machine soit ralentie à cause de la possibilité de le faire sur une machine plus puissante...) les logiciels les plus récents ralentissent. Il y a 8 ans je pouvais utiliser KDE en toute quiétude sur mon fameux laptop dépassé. Aujourd'hui il n'y a malheureusement plus aucun logiciel capable de me fournir au moins le même service et tournant à peu près convenablement sur le laptop en question (enfin je dis ça d'un point de vue théorique, je n'utilise en fait plus trop des interfaces de ce style), et nombre de logiciels "vendus" comme léger ne le sont en fait que marginalement plus au niveau consommation de ressource, et beaucoup trop au niveau fonctionnalités.
Ce n'est pas une situation nouvelle, le bloat fait parti de l'histoire de l'informatique depuis aussi longtemps que j'y ai touché, au prétexte qui n'a jamais changé qu'il est plus facile de racheter du matériel neuf tous les deux ans que de programmer correctement.
Le noyau perso est "préoccuppant" mais pas tant que ça. La base même du logiciel libre c'est qu'on peut l'adapter donc s'ils ont pu améliorer leur produit grâce à cette caractéristique tant mieux. Ils ont sûrement été soumis à des contraintes qui ont fait que l'intégration en amont de leur plateforme dans l'upstream Linux puis Debian était difficile, mais le fait que tu t'occupes maintenant de ça est rassurant et finalement est-ce que quoique ce soit a été déconnant dans cette histoire ?
Les gens sont rassurés par les souris et les curseurs qui bougent à l'écran selon le mouvement de leur main. Ça leur donne un sentiment de contrôle. (Et les interfaces d'écran tactile c'est encore mieux pour ça.)
Sauf que MS fait bien (principalement) des produits, que ça n'est pas un gros mot (et que d'ailleurs l'industrie du logiciel libre devrait bien utiliser de temps en temps PLUS d'approche produit -- gniarf gniarf gniard oui j'ai fait exprès d'utiliser le mot "industrie", pour t'embêter :p ), et qu'en montrant que tu considères que ce mot n'est pas approprié ou est détourné de son sens pour désigner les produits de Microsoft alors que le fait que ce sont bien des produits dans tous les sens du terme de ce mot n'est rien d'autre qu'un fait avéré, c'est toi qui fait de la propagande (au message sous-jacent pas clair voire douteux, en plus).
tendance plus grande à laisser ouvertes une multitude d’applications
Chacune des applications étant de plus en plus lourde, à machine constante j'ai plutôt tendance à en ouvrir de moins en moins...
apparition des onglets, il faut bien de la mémoire vive pour tout stocker
Là encore, mon propos est général et par exemple la lenteur de l'avant dernier ubuntu rien que pour démarrer et ouvrir une session sur une machine avec 256 Mo de RAM n'est pas due à la présence d'onglets... Et de quoi je dispose d'extraordinaire après toute cette attente ? De rien.
surveillance des périphériques branchées et enclenchement immédiat de l’action adéquate
Waouh, cette fonctionnalité doit bien justifier la consommation de 100 Mo de RAM. Et en plus c'est une feature de ouf jamais vue depuis au moins 15 ans, non ? Ah bah en fait si.
utilisation massive de multimédia, ça a l’air de rien comme ça, mais je ne me rappelle pas qu’il y a 10 ans je pouvais regarder des vidéos qui ne ressemble pas à de gros blocs pixellisés
La lecture de vidéos est un des domaines paradoxalement le moins problématique, les logiciels de décodage étant systématique assez voir très optimisés, et en tous cas on le bon goût de ne pas ralentir la machine lorsqu'on ne lit pas de vidéo. Le tout venant par contre, ne semble pas mériter, selon moi à tord, le même niveau d'attention que celui qui est apportée à la lecture de vidéo, et les logiciels prennent un embonpoint inqualifiable, pour un service rendu supplémentaire faible, et faisant même payer ce que les gens n'utilisent pas.
indexation et recherche rapide de fichiers, sélection dans des listes longue comme le bras
Là aussi cette fonctionnalité ne devrait pas avoir d'impact sur le reste du système.
D'une manière générale, les environnements bureautiques traditionnels mainstream souffrent et ont toujours souffert énormément de bloat, et gnome / kde ne sont pas épargnés. Les IHM graphiques (hors effets kikoo lols, qui de toutes façons ne devraient en aucun cas devenir la source de consommation principale sur un ordinateur) n'ont pas fondamentalement changé depuis mac os classic ou windows 95 (et même windows 3), et bien que les ordinateurs soient à la louche 1000x plus puissants aujourd'hui tout ce bloat fait qu'ils ne sont pas spécialement plus rapides. Il y a même un courant de pensée très répandu qui énonce qu'il est judicieux de se foutre complètement de la consommation des ressources des programmes, car le matériel est bon marché et que si un système / programme est trop lent il est plus "économique" d'acheter un supercalculateur que de corriger le programme. Certaines attitudes puériles de certains développeurs de logiciels libres n'aideront pas non plus à inverser la vapeur (ex : les réponses du type "CHUT C'EST LIBRE ET GRATUIT ENVOIE MOI UN PATCH" à toute critique technique, même et surtout les plus justifiées). Conjugué à la tendance d'à peu près toutes les distributions de TOUT packager, même les logiciels mal conçus, le mélange est détonnant. Dans les deux cas, comme si le choix d'une licence et d'un mode de distribution pouvait les exonérer de toute responsabilité (je parle de responsabilité au sens général, pas uniquement légal) et les ranger systématiquement quelque soit l'impact dans le camp des gentils qui font le bien.
Petit joueur. J'utilise toujours un laptop contenant un athlon mobile @1.2GHz (ou je sais plus trop quoi, ça fait bien trop longtemps que j'ai oublié son nom officiel) datant de 2002, avec 256 MB de ram dont 32 réservés pour la vidéo. J'ai juste changé le disque (initialement 20Go, maintenant 60 Go) et la batterie il y a environ 4 ans. Je compte bien m'en servir jusqu'à 2012 (j'ai décidé que 10 ans était dorénavant ma durée mini pour un ordinateur).
Même en oubliant les couches supérieures, la possibilité de pertes par collisions n'est qu'une possibilité de perte parmi d'autres, et une perte rare de paquet n'est pas impossible même sur un lien full-duplex sur lequel il ne peut y avoir de collisions. Ce que je voulais faire passer dans mon commentaire précédent est que toutes les piles de protocoles sérieuses traitent les possibilités de perte de paquet, y compris des protocoles qui ne sont employés que sur des liens sur lesquels il ne peut intrinsèquement y avoir de collision (et pour lesquels cela a historiquement toujours été le cas) -- et que une source tierce de perte de paquet sur de l'ethernet, eut-elle été évitable moyennant une conception plus coûteuse, n'a pas à chercher de bénédiction du côté des collisions qui sont d'ailleurs de moins à moins à l'ordre du jour (du fait de l'utilisation massive de switches). Certes les collisions étaient à une époque une source peut être plus important que d'autres de perte de paquets dans certains contextes, mais les collisions ne sont sûrement pas ce qui a "autorisé" au sens causal le choix volontaire de conceptions plus simples ne garantissant pas une réception et un traitement complet des paquets (une telle garantie serait de toute manière ridiculement difficile et coûteuse à atteindre -- notamment seuls les systèmes temps réels durs pourraient utiliser de l'ethernet...) Les collisions font partie intégrante du standard ethernet (d'ailleurs nommé Carrier Sense Multiple Access with Collision Detection) et impactent même les interfaces MII. Il n'y a pas plus de lien entre la possibilité d'une collision (avec d'ailleurs le signal correspondant sur le MII) et une source de perte de paquet inhérent à la conception du MAC ou à une latence malheureuse à la récupération des paquets par le CPU qu'avec un mauvais CRC (en fait il y a même *plus* de lien entre un mauvais CRC et une source arbitraire de perte de paquet interne au MAC qu'avec une détection de collision, ce dernier cas étant retranscrit sur le lien et dans les MII, alors que les deux autres non)
c'est précisément la possibilité de collisions qui autorise ce comportement
Non, même si historiquement le traitement des collisions dans les vieux ethernet a été un thème important, la fiabilité de certains protocoles de couches supérieures n'est clairement pas due à la nécessité de traiter uniquement ces collisions lors de la conception initiale, suivi d'une utilité plus large par effet de bord par la suite. La logique a été au contraire dès le départ de traiter tout type de perturbation ; collisions certes, mais aussi corruption provenant de la couche physique, puissance trop faible du récepteur pour suivre le rythme, débits dispos différents sur un routeur (ou un switch), et justement aussi des pertes internes rares dans les équippements pour simplifier leur conception, à tous les niveaux, que ça soit l'interface PHY / MAC, puis dans le MAC, puis l'interface MAC / CPU, puis enfin dans le logiciel. Les aspects fiabilités du TCP restent utiles même si par exemple tu passes sur un lien synchrone de très haute qualité au lieu de passer sur de l'ethernet.
Donc il n'y a aucune raison de désigner une perte de paquet quelconque n'étant pas due à une collision par ce ; ce n'est même plus de l'abus de langage compréhensible, c'est juste une fausse désignation de la cause de la perte de paquet.
Ça dépend des opérateurs. Il peut y avoir des paiements au traffic, des fois dans un sens des fois dans l'autre, c'est surtout selon la taille des opérateurs en question. Si à peu près la même taille des fois il y a du peering gratos.
[^] # Re: prévisible
Posté par Guillaume Knispel . En réponse au journal Nokia choisit Windows Phone 7. Évalué à 6.
Des milliards ? http://www.computerworld.com/s/article/9209259/Microsoft_to_(...) http://www.washingtonpost.com/wp-dyn/content/article/2011/02(...)
(et pour faire encore mieux passer la pilule auprès des actionnaires, il est prévu si je ne m'abuse de virer 20000 personnes prétendument devenues redondantes grâce à la magie de l'OS de Redmond.)
Quand à être convaincu par l'OS, c'est sûr que le CEO l'était. En tout cas il a été convaincu par le deal, ce qui est plutôt normal quand on a je ne sais combien de millions en action MS dans son portefeuille perso, ça serait vraiment complètement débile de jouer contre son camp.
[^] # Re: prévisible
Posté par Guillaume Knispel . En réponse au journal Nokia choisit Windows Phone 7. Évalué à 1.
[^] # Re: Mon cas
Posté par Guillaume Knispel . En réponse au journal Linux en veille (suspend). Évalué à 7.
[^] # Re: et les softs alors ?
Posté par Guillaume Knispel . En réponse au journal décroissance informatique. Évalué à 2.
Ce n'est pas une situation nouvelle, le bloat fait parti de l'histoire de l'informatique depuis aussi longtemps que j'y ai touché, au prétexte qui n'a jamais changé qu'il est plus facile de racheter du matériel neuf tous les deux ans que de programmer correctement.
[^] # Re: Qobuz
Posté par Guillaume Knispel . En réponse au journal Première expérience d'achat de MP3 en ligne. Évalué à 3.
???
[^] # Re: Vous devez entrer un sujet et un commentaire
Posté par Guillaume Knispel . En réponse au journal Linux ou POSIX ?. Évalué à 7.
[^] # Re: Mini-PC
Posté par Guillaume Knispel . En réponse au journal Excito B3: un serveur basse conso sous debian très joli et très ouvert !. Évalué à 3.
[^] # Re: Tiens tiens...
Posté par Guillaume Knispel . En réponse au journal LibreOffice 3.3 is out \o/. Évalué à 2.
[^] # Re: guillemets
Posté par Guillaume Knispel . En réponse au journal Microsoft et la Chine. Évalué à 2.
[^] # Re: et les softs alors ?
Posté par Guillaume Knispel . En réponse au journal décroissance informatique. Évalué à 2.
Chacune des applications étant de plus en plus lourde, à machine constante j'ai plutôt tendance à en ouvrir de moins en moins...
apparition des onglets, il faut bien de la mémoire vive pour tout stocker
Là encore, mon propos est général et par exemple la lenteur de l'avant dernier ubuntu rien que pour démarrer et ouvrir une session sur une machine avec 256 Mo de RAM n'est pas due à la présence d'onglets... Et de quoi je dispose d'extraordinaire après toute cette attente ? De rien.
surveillance des périphériques branchées et enclenchement immédiat de l’action adéquate
Waouh, cette fonctionnalité doit bien justifier la consommation de 100 Mo de RAM. Et en plus c'est une feature de ouf jamais vue depuis au moins 15 ans, non ? Ah bah en fait si.
utilisation massive de multimédia, ça a l’air de rien comme ça, mais je ne me rappelle pas qu’il y a 10 ans je pouvais regarder des vidéos qui ne ressemble pas à de gros blocs pixellisés
La lecture de vidéos est un des domaines paradoxalement le moins problématique, les logiciels de décodage étant systématique assez voir très optimisés, et en tous cas on le bon goût de ne pas ralentir la machine lorsqu'on ne lit pas de vidéo. Le tout venant par contre, ne semble pas mériter, selon moi à tord, le même niveau d'attention que celui qui est apportée à la lecture de vidéo, et les logiciels prennent un embonpoint inqualifiable, pour un service rendu supplémentaire faible, et faisant même payer ce que les gens n'utilisent pas.
indexation et recherche rapide de fichiers, sélection dans des listes longue comme le bras
Là aussi cette fonctionnalité ne devrait pas avoir d'impact sur le reste du système.
[^] # Re: et les softs alors ?
Posté par Guillaume Knispel . En réponse au journal décroissance informatique. Évalué à 3.
[^] # Re: Limité à 800MHz
Posté par Guillaume Knispel . En réponse au journal décroissance informatique. Évalué à 4.
[^] # Re: Consommation des microprocesseurs
Posté par Guillaume Knispel . En réponse au journal décroissance informatique. Évalué à 4.
[^] # Re: SSD et décroissance
Posté par Guillaume Knispel . En réponse au journal décroissance informatique. Évalué à 5.
[^] # Re: Petites recherches
Posté par Guillaume Knispel . En réponse au journal Intel lance une puce anti-piratage. Évalué à 1.
[^] # Re: Collisions
Posté par Guillaume Knispel . En réponse au journal De la capacité d'un lien Ethernet. Évalué à 2.
[^] # Re: Collisions
Posté par Guillaume Knispel . En réponse au journal De la capacité d'un lien Ethernet. Évalué à 3.
Non, même si historiquement le traitement des collisions dans les vieux ethernet a été un thème important, la fiabilité de certains protocoles de couches supérieures n'est clairement pas due à la nécessité de traiter uniquement ces collisions lors de la conception initiale, suivi d'une utilité plus large par effet de bord par la suite. La logique a été au contraire dès le départ de traiter tout type de perturbation ; collisions certes, mais aussi corruption provenant de la couche physique, puissance trop faible du récepteur pour suivre le rythme, débits dispos différents sur un routeur (ou un switch), et justement aussi des pertes internes rares dans les équippements pour simplifier leur conception, à tous les niveaux, que ça soit l'interface PHY / MAC, puis dans le MAC, puis l'interface MAC / CPU, puis enfin dans le logiciel. Les aspects fiabilités du TCP restent utiles même si par exemple tu passes sur un lien synchrone de très haute qualité au lieu de passer sur de l'ethernet.
Donc il n'y a aucune raison de désigner une perte de paquet quelconque n'étant pas due à une collision par ce ; ce n'est même plus de l'abus de langage compréhensible, c'est juste une fausse désignation de la cause de la perte de paquet.
[^] # Re: corrections
Posté par Guillaume Knispel . En réponse au journal Il a Orange et il est Vert. Évalué à 5.
[^] # Re: Quelques heures…
Posté par Guillaume Knispel . En réponse au journal Skype HS hier soir. Évalué à 3.
[^] # Re: Portée de la taxe ?
Posté par Guillaume Knispel . En réponse au journal La taxe sur la copie privée et ses interprétations. Évalué à 1.
[^] # Re: Le problème ce sont les mots
Posté par Guillaume Knispel . En réponse au journal La taxe sur la copie privée et ses interprétations. Évalué à 3.
[^] # Re: question
Posté par Guillaume Knispel . En réponse au journal free + nouveaux frais +gpl. Évalué à 4.
[^] # Re: Il est où le problème ?
Posté par Guillaume Knispel . En réponse au journal TVA sur les offres triple play: nouvel épisode. Évalué à 2.
[^] # Re: Il est où le problème ?
Posté par Guillaume Knispel . En réponse au journal TVA sur les offres triple play: nouvel épisode. Évalué à 3.
[^] # Re: ab
Posté par Guillaume Knispel . En réponse au journal La vengeance c'est pas bien. Évalué à 2.