Kaane a écrit 843 commentaires

  • [^] # Re: goto return cave

    Posté par  . En réponse au journal Is return the new goto ?. Évalué à 4 (+2/-0).

    On peut donc en déduire que dans les cas où il rend le code plus facile à lire/comprendre/maintenir, on peut (devrait ?) l'utiliser. Toute règle a ses exceptions.

    Enfin encore faut-il que les règles aient du sens, ce qui n'est pas forcément le cas en ce qui concerne les goto :

    https://koblents.com/Ches/Links/Month-Mar-2013/20-Using-Goto-in-Linux-Kernel-Code/

  • [^] # Re: Le mieux...

    Posté par  . En réponse au journal Le web, c'était mieux avant. Évalué à 3.

    Ben entre une entreprise UK avec des fonds américains (KKR), et une entreprise américaine (Expédia), j'ai personnellement tendance à favoriser celle qui n'a pas été condamnée à maintes reprises par l'autorité de la concurrence.

    Mais bon de façon générale si tu ne veux pas que tes données persos aillent chez les sociétés américaines (ce que je comprends), je ne suis pas sur que Expedia soit le bon choix non plus. Surtout avec l'arrivée de Safe Harbor v2.

  • [^] # Re: Le mieux...

    Posté par  . En réponse au journal Le web, c'était mieux avant. Évalué à 10.

    Personnellement j'ai complètement stoppé l'usage des site SNCF "officiels" - je ne passe pour ainsi dire plus que par trainline - https://www.thetrainline.com/fr

    Déjà parce que ce sont les seuls qui permettent de prendre des billets internationaux quand on a plusieurs cartes de réduction sur plusieurs pays. Et ensuite parce que le site est vraiment beaucoup plus léger. Il n'est pas parfait (il y a encore des pubs et des cookies traceurs) mais on est très loin de la concurrence (pour ce qui m'importe, vous pouvez avoir des impératifs différents).

    Je recommande vivement, à essayer au moins.

    (N.B: je n'ai pas d'actions, d’intérêts ou de connaissances dans cette boite, ceci est une pub gratuite par un usager content)

  • [^] # Re: Casser le marché

    Posté par  . En réponse au journal L'indice de réparabilité. Évalué à 5.

    Il y a 20 ans on a eu une entité privée (fallait pas trop en demander au public, et la c'était bankable, les gens pouvant calculer le gain financier avec la conso gagnée) qui a créé 80Plus et du coup on a eu des benchs d'alim et on pouvait faire le choix.

    Alors vu de loin et dans le brouillard on peut considérer que le 80+ a été une bonne chose, mais dans les faits il y a pas mal d'alim de très mauvaise qualité qui sont 80+ - et qui vont avoir des super score aux benchmarks. Certaines ont même pignon sur rue.

    Le truc c'est que la qualité principale que l'on demande d'une alim est justement la capacité à pouvoir dissiper sous forme de chaleur l'excès de puissance en cas de changement brutal de la demande énergétique. Donc typiquement le genre de truc qui va te faire louper la certif 80+. Plus il y a d'étage à ta transformation, plus tu vas pouvoir encaisser les changements de puissance élégamment, mais aussi plus tu vas dissiper en régime continu.

    Comme en plus les machines modernes cherchent à repasser le plus vite possible en mode "économique" pour satisfaire d'autres certifications - on se retrouve avec des machines de bureau qui passent de 500w d'appels à 40w plusieurs fois par minute.

    Et comme toutes les alims ne veulent pas mettre 1Kg de condensateurs solide pour encaisser les flips flaps (la solution quand on a pas beaucoup d'étages de transformation) - surtout pour les "SFF" qui promettent 800w quand même - on se retrouve à gérer le problème côté carte mère.
    Vous vous demandiez pourquoi les régulateurs de tension sur votre carte mère étaient aussi énormes ? Et bien c'est parce qu'en plus de devoir réguler super finement l'alim CPU et GPU, ils doivent aussi composer avec la stabilité toute relative d'une alim 1000w en transition.

    Et à l'autre bout de la chaine les GPUs s'y mettent aussi : https://www.youtube.com/watch?v=wnRyyCsuHFQ

    Bref la certif 80+ met en avant la qualité la moins importante d'une alim.
    Pour moi dans l'ordre une alim doit
    * ne pas prendre feu (généralement pris en charge par les normes CE depuis bien avant le 80+)
    * faire des transitions aussi rapide que possible (antagoniste avec la norme 80+)
    * avoir des tensions stables en régime transitoire (antagoniste avec la norme 80+)
    * pouvoir encaisser des surcharges aussi bien côté arrivée que côté demande (et c'est là ou certaines marques ultra plébiscitées font vraiment peur)
    * être ultra stable et fiable en régime continu (Mais bon un ordi de nos jours est presque toujours en demande énergétique variable)
    * avoir un bon rendement dans les régime stables les plus courant (là on est dans la norme 80+ - encore que c'est rare qu'un ordi en iddle bouffe 20% ou plus de la puissance nominale de l'alim)

    La norme 80+ a permis a de nouvelles marques d'arriver sur le marché, avant (on parle d'il y a plus de 20 ans) il y avait peu de marques crédibles (Ennermax, Antec et pas grand chose d'autres). Certains ont fait les choses bien. D'autres pas vraiment.
    Elle a quand même permis d'évincer les guignols, même si lesdits guignols étaient souvent en infraction des lois européennes.

  • [^] # Re: Utile?

    Posté par  . En réponse au journal L'indice de réparabilité. Évalué à 10.

    Tu n'es pas le seul a avoir des doutes sur le sujet. Le truc a été complétement dénaturé. Un peu comme le fameux indice de qualité sur la nourriture, il ne veut plus rien dire aujourd'hui.

    Il est supposé être basé sur 5 critères déterminants :

    • La documentation
    • La démontabilité du produit
    • La disponibilité des pièces détachées
    • Le prix de vente des pièces détachées
    • Des critères spécifiques

    Prenons par exemple un grand classique de la réparabilité : l'Iphone 14 Pro Max.
    Vous pouvez télécharger le doc officiel ici : https://support.apple.com/fr-fr/circular-economy-repairability-indices pour suivre le processus avec moi :

    Niveau documentation : La documentation technique et les schémas de l'iphone Pro ne sont pas disponibles. La plupart pas du tout en dehors de chez Apple (comprenez il n'existe aucun moyen légal de se les procurer si vous n'êtes pas employé Apple) et ce qu'il reste est très incomplet (comprenez on documente des blocs entiers - par exemple camera frontale + carte support + puce cypher comme une boite noire )

    Note : 15,4/10

    Niveau démontage : Les Iphones utilisent un joyeux mélange de format de vis propio et souvent brevetés, de glu et d'adhésif qu'il faut chauffer détacher et couper, de câbles tendus à l’extrême complexes à démonter, de longueurs de vis similaires mais hautement destructrices si vous les revissez dans le mauvais trou etc. Bref probablement l'appareil grand public le plus complexe à démonter du marché.
    Jetez un coup d'oeuil sur l'horreur d'un simple changement d'écran : https://fr.ifixit.com/Tutoriel/Changement+%C3%A9cran+iPhone+14+Pro+Max/153003

    Note : 10,3/20

    Niveau disponibilité des pièces : Les Iphones contiennent de très nombreuses puces qui sont fabriquées spécifiquement pour Apple - et qui par contrat des fondeurs ne peuvent être vendues qu'à Apple. Apple ne rend pas ses pièces disponibles dans la majorité des cas, mais force le réparateur à acheter des blocs de remplacement entier. Le module de régulation de tension est HS ? Il faut changer toute le bloc carte mère. La réparation passe de 5€ de pièces à plus de 300€.
    Petit bonus si la réparation n'est pas effectuée par Apple eux même avec reprogrammation des puces de sécurité, vous perdrez de nombreuses fonctionnalités. Le changement d'écran mentionné plus tôt ? Si vous l'effectuez vous perdrez des fonctionnalité : citation IFixit :

    Les fonctionnalités True Tone et luminosité automatique sont désactivées après un remplacement d'écran, même si vous utilisez un écran Apple d'origine. La fonction Face ID est également désactivée, sauf si l'iPhone fonctionne sous iOS 15.2 ou une version plus récente.

    Note 14,2/20

    Niveau prix des pièces détachées : Comme mentionné on ne peut généralement acheter que des blocs entiers, pas moyen de juste changer la puce ou le connecteur qui déconne. Il faut prendre un bloc qui vaut entre dix en cent fois le prix de la pièce défectueuse.

    Note 10/20

    Critère spécifique : Il s'agit pour les smartphones des informations sur la nature des mises à jour, de l'assistance à distance sans frais et de la possibilité de réinitialisation logicielle.
    Nature des mises à jour - les change-logs Apple "oublient" très souvent de mentionner des petites choses, comme l'activation de nouvelles "sécurités" en cas de démontage (ios 15.1) ou la mise en place de profils pour "préserver" les anciens appareil en ralentissant grandement toutes les opérations CPU un peu couteuses (quasiment tous les ios de 9 à 14)
    Assistance à distance sans frais - quelqu'un répondra au tel, mais il a interdiction contractuelle de vous aider en cas de panne avérée. Sa seule réponse doit être "amenez votre téléphone chez un réparateur agréé". Suivant la panne le réparateur agréé n'aura même pas le droit d'essayer de réparer la machine mais devra à son tout l'envoyer chez un centre certifié Apple (en Asie ou en Europe de l'Est le plus souvent)
    Possibilité de réinitialisation logicielle - possible sous beaucoup de conditions (par exemple avoir encore la capacité de s'identifier sur son téléphone) Mais on va dire que ça marche dans la plupart des cas raisonnables.

    Note 20/20

    Note Globale : 7/10

    Bref le produit le plus volontairement blindé contre les réparations et les mises à jour matérielles mérite 14/20.

    Une fois de plus un indice en mode foutage de gueule qui n'a aucun intérêt pratique pour le consommateur moyen. Un petit label marketing de plus pour les boites tout au plus.

  • # Du coup je suis allé voir

    Posté par  . En réponse au journal Un livre d'histoire de sixième. Évalué à 10.

    Malgré mon désamour des GAFAM, j'ai utilisé Google Map pour aller voir et me balader un peu dans cette ville que je ne connais pas.

    Je vous invite grandement à faire de même. Il y a bien quelques quartiers (pour ne pas dire pâté de maison) qui sortent du lot (Grande Mosquée notamment) mais tout le sud et est de Dakar semble correspondre à ce que je suppose être la photo.

    Il y a un effort d'urbanisme local (Je ne parle pas des hôtels et plages à touriste) à l'ouest (autour de la Touba Mosquée). Les quartiers au nord qui s'appellent littéralement "zones assainies" sont en meilleur état, mais principalement parce que le sud est aux limites du bidon ville.

    Bref on a bien a faire à une ville ou la croissance démographique oblitère complètement toute notion d'urbanisme dans une bonne partie de la ville.

    Même le quartier des Almadies est en transformation qui semble non maitrisée. On est certes pas dans le parpaing nu assemblés à la main - mais il y a construction sur construction, rangées de grues et d’hôtels en constructions.

    Le quartier de Fann-Hok/Fann-Point avec ses campus universitaire est l'exception.

    Difficile en se plaçant sur un point au hasard de ne pas voir bâtiment en construction, décrépitude et bricolage. Le tout noyé sous une toile de fils électriques tendus d'une façon qu'on aurait du mal à qualifier de concertée quand même.

    En bref la légende, toute corrosive qu'elle soit, pourrait s'appliquer à un bon 70% de ce que j'ai pu entrevoir en me baladant virtuellement - et le caractère quasi bidon ville à 40%. La photo, et sa légende à la forme douteuse, sont malheureusement très représentative de la réalité urbanistique de Dakar.

    On pourrait dire que Paris et Francfort ont eu des problèmes similaires dans les années 50-60, mais je ne suis pas sur que ça serait moins colonio-paternaliste. Loin de là.

  • [^] # Re: ha...

    Posté par  . En réponse au journal Manutan, cyberattaque et Windows/Linux . Évalué à 6.

    Faut penser à passer au 21ème siècle, la méthode manuelle avec 3 semaines de test pour un serveur c'est has been

    La méthode automatique ou il faut 6 jours de calculs pour valider la simulation par éléments finis sur un cluster de 200 serveurs - pour peu qu'un truc se passe mal une fois, elle prend 3 semaines.

    Et ça sert pas à grand chose de mettre plus de serveurs pour gagner du temps, le logiciel scale pas vraiment bien au delà de 800/900 cœurs CPU. On est plutôt limité par les I/O à ce niveau.

    Après tu peux toujours améliorer le système, rajouter des serveurs, des environnements, des tests, des automates. Mais ça a un coût. Bloquer 1000 serveurs et appliances pour faire tous les tests possibles et imaginables tous les trois jours c'est facile quand on a 100 000 serveurs à disposition. Quand on en a 800 (ou même 1200), c'est nettement plus dur.

    Et puis quand tu as un environnement dans lequel tous les process sont utilisés tous les jours plusieurs fois par jour c'est vachement facile de tester. Quand tu es dans un cas ou certains process ne sont même pas utilisé tous les ans (certification finale d'un avion ou accréditation d'un moniteur chirurgical ça se fait pas tous les jours)

    Bref l'administration système d'un grand groupe - par exemple Facebook - c'est facile. Même si tu pêtes le BGP et que tu fous tout le réseau dans le noir pendant 12h : ben tu perds 0.1% de ton chiffre d'affaire annuel et après quelques quolibets tu repars sans problèmes autre que quelques ado en mal d'endorphine. Et puis tu as des moyens quasi illimités pour les tests et les achats.

    Pour les autres boîtes, des fois c'est plus compliqué.

  • [^] # Re: ha...

    Posté par  . En réponse au journal Manutan, cyberattaque et Windows/Linux . Évalué à 10.

    qui peut dire honnêtement qu'il fait ça sur des MAJ de sécurité (y compris sur les failles majeures sous Linux, pour troller sur le sujet du site; et on parle de MAJ de sécurité, pas d'update de version de distro), quelque soit l'OS?

    Pour ne parler que de ce que je connais :
    - Les gens qui font des logiciels et des machines pour l'assistance lors de chirurgies hépatiques ou cardiaques
    - Les gens qui fabriquent des avions et des hélicoptères
    - Une partie des gens qui travaillent avec des gens qui fabriquent des avions et des hélicoptères
    - Les personnes qui ont foutu 2000 clients dans le noir pendant 48h suite à un crash d'un routeur telecom suite à une mise à jour de sécurité qui a juste pété le multicast IPv6

    Mais ceci étant la procédure que je décris n'est pas la procédure exceptionnelle à appliquer sur les systèmes critiques de centrales nucléaires ukrainienne dont le bouclier se fissure, c'est la bonne pratique recommandée, entre autre, par Microsoft.

    De la même façon quand on fait des sauvegardes il faut s'assurer qu'elle soit intègres, cohérentes, reproductibles et restaurables. Ce qui demande de faire des tests, d'avoir des serveurs dispo pour faire des restauration ex-nihilo et de pouvoir monter une infra complète juste pour tester.

    Ou encore de valider qu'il n'y a pas de point de défaut commun entre les différents serveurs critiques qui sont redondés. Ce qui veut dire pas le même datacenter, pas la même alimentation électrique, pas le même fournisseur pour les liens inter/intranet

    Et une fois de plus tout ce que j'évoque ce ne sont pas des procédures extraordinaires pour sociétés en mal de travail à donner à ses admins sys, ce sont les procédures minimales pour garantir que le travail de prévention effectué sert à quelque chose.

    Il n'y a rien de plus frustrant que d'avoir des sauvegarde fonctionnelles mais non cohérentes les unes avec les autres - en d'autres termes on peut restaurer la base et le filer, mais les deux ne sont pas au même moment dans le temps et du coup il y a soit des manques soit des erreurs.

    Mais je te l'accorde, personne ne fait tout comme il faut, du moins pas avant d'avoir perdu plusieurs millions suite à un problème ou une attaque et d'avoir les moyens de pouvoir survivre à cette perte de plusieurs millions.

    En avionique ou en médical c'est différent, il y a des organismes de contrôle qui vérifient en permanence que tu fais tout comme il faut - du coup tout le monde est obligé d'investir des dizaines de milliers d'Euros pour protéger et sécuriser l'environnement. Mais dans les domaines ou ce n'est pas strictement obligatoire, les gens font un peu n'importe quoi, parce que ça coute quand même nettement moins cher (tant qu'il n'y a pas de soucis) et que c'est tout ce qui permet de rester concurrentiel.

    Pour finir je dirais que c'est quand même un peu bizarre de reprocher à une société de ne pas avoir fait ce qu'il fallait en ce qui concerne l'application des mises à jour tout en déclarant le post d'après "qui peut se prévaloir de faire ce qu'il faut ce qui concerne l'application des mises à jour ?"

  • [^] # Re: ha...

    Posté par  . En réponse au journal Manutan, cyberattaque et Windows/Linux . Évalué à 10.

    heu, non, ce n'est pas incohérent, on appelle ça l'automatisation. On fait pareil sous Linux d'ailleurs. Et plein de monde fait les MAJ à temps (quelque soit l'OS).

    Je ne connais personne qui arrive à mettre à jour des parcs de plusieurs centaines de serveurs d'une semaine sur l'autre systématiquement. Et ce quelque que soit le niveau d'automatisation que l'on mette en place, les OS concernés ou le niveau de support chez les meilleurs techniciens du marché.

    Il y a pas mal d'infrastructure ou en une semaine tu ne peux même pas vraiment valider que les mises à jour ne cassent rien. Et je ne parle même pas des environnements ou il faut re-certifier les machines quand il y a des modifications.

    Généralement tu vas tester les mises à jour sur un environnement dédié, valider que tout se passe bien, demander aux utilisateurs/clients/services de vérifier que tout va bien, passer les mises à jour sur les autres serveurs, re-valider que tout s'est bien passé. Rester sur le qui-vive jusqu'à ce que la clôture mensuelle/annuelle et le processus important qui n'est lancé que lorsque que strictement nécessaire se passent bien.

    Même si tout est automatisé ET que tout se passe bien faire tout ça en une semaine et être prêt à recommencer la semaine suivante est extrêmement complexe.

    Mais tout ne va pas bien se passer. Certaines mises à jour vont arriver avec leur lot de bugs, certains comportement de l'OS ou de la base de données ou des libs sur lesquelles tu t'appuyais vont changer (même subtilement). Un programme que tu compiles pour tes tests d'intégrité va avoir un hash différent. Un calcul va avoir une différence de résultat sur la cinquième décimale. Et du coup la question de "est-ce qu'on passe les mises à jour en prod ?" va se poser très sérieusement.

    Et des fois ça va même franchement mal se passer. Tu vas tomber dans le cas à la con que ni MS ni IBM n'ont jamais testé de leur vie et qui va littéralement casser ton système ou effacer/rendre inaccessible une partie de tes données.

    Et pendant que tu répares, que tu fais le tri entre les mises à jour que tu peux prendre et celles que tu veux éviter. Que tu escalades ton cas chez MS ou chez Red Hat - d'autres mises à jour hebdomadaires continuent de tomber. Avec bien sur des alertes CVE qui continuent d'arriver pour tes logiciels et de nouvelles menaces/problèmes à prendre en compte sur tes appliances et ton réseau.

    Automatiser la mise à jour d'un parc de 800 serveurs, des applis qui tournent dessus et de l'infra qui va autour - ça n'est pas juste une ligne dans le chron que tu dupliques sur toutes tes machines et qui tourne le jeudi entre 2h et 3h du mat après les backups et avant les tests d'intégrité.

  • [^] # Re: it iz not bicose you are

    Posté par  . En réponse au journal Make your Pass (sanitaire) Fun Again. Évalué à 4.

    Euh, le mot "nazi" ne prête pas du tout à sourire justement.

    Ah bon ? Personnellement le mot "nazi" je le trouve hilarant.
    Il est drôle quand il est utilisé par un homme qui se croit important pour qualifier un serveur qui vient de lui refuser une table réservée.
    Il est franchement fendard quand une moitié de pays insulte ainsi une autre moitié de pays pour leur conviction politique.
    Il est délicieusement ironique quand les convaincus politiques sus-mentionnée l'utilisent à leur tout pour dénigrer qui voudrait les forcer à porter un masque de tissu sur la bouche.
    Il est juste à se tordre de rire quand des slaves ou des magyars s'autoproclament membre de ce groupe.

    Je ris parce que tant qu'un mouvement n'a pas d'autre nom que "Nazis", avec ou sans le très oxymorique "neo" devant (comme si il y avait quoi que ce soit de neuf dans l'idée de se considérer supérieur par le sang, la naissance ou l'histoire), tant qu'un mouvement donc n'a pas d'autre appellation c'est qu'il est risible, et qu'il a besoin de toute la force que le rejet des idées maintenant centenaires peut lui prêter.

    Combien de ces clowns grandiloquents et bruyants ont seulement ouvert "Mein Kampf", ou "The International Jew" le livre d'Henri Ford à l'origine de tout ?

    Mais là ou je ris le plus fort c'est quand comme une personne en intime une autre, sous des menaces à peine voilée, de ne pas utiliser le terme à tort et à travers, ordonne presque de ne pas dire "Nazi du protocole", "Grammar nazi" ou autre "c'est un truc de nazis". De peur qu'une personne fasse une mauvais interprétation du mot et que cela serve la cause des "vrais nazis".

    Ils oublient simultanément la réalité historique de ce qu'est un "vrai nazi", toutes les subtilités du langage tel qu'il est compris d'à peu près tout le monde, et l'intelligence de leur interlocuteur.

    Il se drapent dans une légitimité évidente à leurs yeux, font preuve d'une condescendance rare - normalement réservée à une personne âgée quand elle explique la vie à un gamin, et surtout d'un élan de supériorité élitiste que certains chroniqueurs philosophes ne désavoueraient point. Bref ils se placent plus près de l'idéologie qu'ils invitent à rejeter qu'aucun de leurs interlocuteurs ne l'a jamais été.

    Et oui je trouve ça drôle.

  • [^] # Re: Plus d'infos

    Posté par  . En réponse au journal Améli et la Souveraineté Numérique. Évalué à 6.

    Ton commentaire précédent ne parlait que d'infrastructure.

    Ben oui, le but du jeu était de dire que l'on avait tout ce qu'il fallait pour avoir un cloud ultra performant en France (et probablement en Europe en général) - mais que la volonté politique était bloquante, et non potentiellement facilitante.

    J'ai bien conscience que le Cloud aujourd'hui en Europe n'est pas du tout à la hauteur. Mais pas parce qu'on ne sait pas faire, mais parce que la classe politique est contre les acteurs qui peuvent faire un cloud correct en France.

    Orange et SFR ont prouvés qu'ils n'ont pas la capacité à fournir même avec des moyens conséquents.

    Donc voilà mon commentaire précédent réagissait aux mots "retard" et "volonté politique".

    la seule façon de les aider c'est de les utiliser

    C'est bien pour ça que si OVH et Scaleway gagnaient les gros contrats et choppaient les millions de clients et l'argent qui va avec on aurait un cloud de qualité très rapidement. Pour ma part je peux pas faire plus que ce je fais pour eux en ce moment.

  • [^] # Re: Plus d'infos

    Posté par  . En réponse au journal Améli et la Souveraineté Numérique. Évalué à 6.

    Tu confond cloud et hébergement et infrastructure. Une offre de cloud ce n'est pas une offre d'hébergement.

    Je ne pense pas, On a de très belles offres cloud en France chez les opérateurs que j'ai cité. On a des offres GPU à l'heure, des infrastructures pour l'IA, de la gestion de contenu, de la haute dispo etc.

    Ce que l'on a pas c'est des gros contrats qui permettraient de faire tous les investissements qui seraient nécessaire pour que la quantité d'offres disponibles et la qualité des formations/interfaces utilisateurs soient augmenté.

    Tant qu'on ne comprends pas la différence entre Azure et Gandi

    Je comprend très bien la différence entre Azure et Gandi. Mais ce qui à mon sens n'est pas compris est le "pourquoi" de cet différence.

    • Ça n'est pas un problème de compétences. On a très largement les compétences pour faire de l'aussi bon boulot, si ce n'est du meilleur en France et en Europe.

    • Ça n'est pas un problème d'infrastructure globale. La qualité globale de nos Infras est largement devant ce qu'on peut trouver aux US ou aux Canada. En fait à part 4 points chauds en Californie on est assez largement en avance sur tout ce qui se fait aux US.

    • Ça n'est pas un problème d'hébergement. On a largement de quoi héberger les systèmes cloud les plus complexes et les plus solides.

    C'est pour ça que je dit qu'il va falloir définir "retard" avec beaucoup d'attention. On est en retard sur un seul point : les investissements. Effectivement il n'y a pas moyen de créer un système aussi intégré et aussi testé que GCP ou Amazon sans avoir des millions de clients.

    Aujourd'hui les fournisseurs existant, même les plus gros (Scaleway et OVH) ne vendent que de l'offre discount et ne font que copier les API des Clouds américains en mode suiveur. Non pas parce qu'ils ne sont pas capable de faire mieux, mais parce que le marché, et principalement les marchés publiques leur sont fermés. Ce qui les met en ultra désavantage par rapport à leurs concurrents d'outre Atlantique.

    La volonté politique existante fait que le cloud, qui a tout pour décoller en Europe, ne décolle pas.

    Un exemple tout simple : le dossier patient. Pour l'assurance maladie il était impensable que les données des malades et les dossiers médicaux partent dans le cloud américain. Il y a eu de nombreux acteurs qui ont énormément investis pour avoir toute la chaine de certification nécessaire pour pouvoir être reconnu comme capable d'héberger de telles données. Ce qui impliquait entre d'être ISO 27000 et de faire certifier tous ses fournisseurs ISO 27000.

    Au final tous les contrats juteux sont partis dans des clouds extra européens quand même. Ou dans des projets assez acrobatiques par les gros opérateurs en place (Orange et SFR) dont je suis très curieux de savoir ce qu'il restera dans 5 ou 10 ans.

    Beaucoup de gens ont retenus la leçon : ne pas investir dans les grandes opérations cloud des états.

    TLDR : Le seul retard réel existant en Europe est un retard d'investissement, et la volonté politique actuelle est une ennemie, pas une potentielle alliée.

  • [^] # Re: Plus d'infos

    Posté par  . En réponse au journal Améli et la Souveraineté Numérique. Évalué à 8.

    On est en retard en Europe

    Il va falloir définir "retard" lentement.
    Niveau gros site qui tachent, à la Google, Facebook et autre - oui on est en retard.

    Pour toute la partie hébergement-datacenter/bande passante/résilience des réseaux on est carrément loin devant les US à part deux trois endroits en Californie qui hébergent les mastodontes sus-cités.

    OVH et Scaleway sont dans le top monde des hébergeurs.

    Les plateformes bancaires sont nettement en avance sur leurs homologues transatlantiques excepté pour les connexions très courte distance.

    Il y a des fibres de très haute qualité à peu près partout et toutes les infrastructures nécessaires pour déployer celles qui manquent.

    Ça n'est pas irrécupérable, mais ça demande une volonté politique

    Pour ce que je connais, à savoir la France, la volonté politique est contre Internet assez fermement. Pas forcément volontairement, pas forcément exprès mais :

    • On va quand même pas filer des gros contrats qui ne sont pas des "amis" - donc exit Xavier Niel (l'homme du peep-show), Octave Klaba (la tête de lard) ou autres Gandi (dont on était persuadé de l'avoir tué à grand coups de Marie-Françoise Marais). Et on va pas parler d'Ikoula.

    • L'opposition va pas laisser quoi que ce soit que le gouvernement pourrait revendiquer comme une victoire "digitale" - Mais on peut faire un cloud souverain européano-américain sans soucis. Parce que plus personne n'y croit.

    • On va pas donner à l'ARCEP les moyens de faire son boulot (non mais la fibre 25ko/s passé en aérien et soudée à la superglue, c'est pas si grave. On va pas ouvrir la section a la concurrence pour si peu)

    • Et puis internet c'est le mal, il faut des IA qui détectent les pédo-terroristes révolutionnaires. dans tous les appareils connectés

    Bref l'absence totale de volonté politique serait un gros plus en France. Mais il y a une volonté politique - elle est juste très antagoniste.

  • [^] # Re: Obsolète

    Posté par  . En réponse à la dépêche FreeBSD 13.0. Évalué à -1.

    Pour commencer, la licence ne s’applique pas au code en soit, mais à la distribution du code. C’est un contrat entre 2 parties privées, ca contraint les actions desdites parties, pas le code.

    Non, relis l'article 0 de la GPL. La GPL s'applique immédiatement, les obligations de la GPL s'appliquent quand tu redistribue, mais le code, le binaire la traduction etc. passent en GPL dès que tu inclues du code GPL dans ton projet.

    un binaire n’est pas légal ou illégal, il est, c’est tout.

    Un binaire, ou un code source si ils violent la licence qui t'a été donné deviennent illégaux. C'est à dire que tu ne peux pas t'en servir, tu ne peux pas le distribuer etc. Du coup tu ne peux que l'effacer.

    le code ne devient pas instantanément sous gpl, t’inverses la cause et la conséquence. La distribution est en conformité avec la gpl parce qu’elle a été faite sous gpl. Pas le contraire.

    Une fois de plus relis l'article 0 de la GPL. Le code est d'abord GPL et ensuite parce que la licence est en place elle t'impose des conditions d'utilisation. Et ce sont ces conditions qui font que si il y a distribution tu dois accepter de fournir le code, de le laisser être modifié, de le laisser être utilisé…

    Ensuite, ca ne tient pas de bout comme raisonnement. Je prends Windows, je link un bout de code gpl au kernel, et paf, j’ai maintenant une licence gpl de Windows? Évidemment que non.

    Tu as un code sur lequel deux licence s'appliquent, la licence GPL ET la licence windows. La licence GPL t'interdit de rajouter des limitations d'usage et de modification de code, la licence Microsoft t'interdit pleins d'usages et de modifications.
    Les deux licences s'appliquent dès l'instant ou "le travail dérivé" est entamé. Mais comme il est bien entendu impossible de les respecter toutes les deux en même temps, le travail dérivé en question viole les deux licences. Du coup tu perds tous les droits sur le travail en question. Il devient "illégal" tu bosse sur la propriété de quelqu'un d'autre sur laquelle tu n'as ni droit ni titre.

    Ben OuAis,mais ce genre de raccourcis, ca mène à des bêtises du genre “la gpl est un cancer”

    Niveaux bêtises, de façon générale, et dans ce thread en particulier, je me sens plutôt du bon côté de la barrière.

  • [^] # Re: Obsolète

    Posté par  . En réponse à la dépêche FreeBSD 13.0. Évalué à 3.

    Enfin faut préciser qu’il faut interpréter ton + comme un « faut respecter les termes d’à la fois les deux licences » et pas « je choisis ce que je veux »

    En fait c'est impossible de respecter la GPL sans respecter aussi la BSD 2 clause ou la MIT. Si tu veux être ultra propre tu peux mettre la formulation des deux disclaimers en entête de ton code, mais de l'avis général (de juristes experts en la question) ça ne sert pas à grand chose.

    Mais le code initial, si tu enlèves le travail dérivé, il n’a pas changé pas de licence.

    Là c'est vrai et faux à la fois. Certes le code initial n'a pas changé de licence - mais une licence se "déclenche" différemment suivant les pays et le contenu de la licence. Si le code en question a été publié sous sa licence initiale, alors oui le licencié peut choisir d'utiliser celle des licences qu'il a reçu qui lui convient le mieux. Mais encore faut-il qu'il ait reçu la licence.

    Par exemple si tu bosses en freelance aux US sur tes propres specs pour une société et que tu vends du code source sous licence BSD à un client avec un contrat d'exclusivité (donc tu t'engages à ne pas distribuer et à ne pas partager ce code de ton côté) - la société en question peut décider de distribuer les programmes issus de ce code sous la licence qu'ils veulent à leur clients, du moment qu'ils respectent les deux clauses de la BSD.
    Les clients en question, même si ils savent que le code sous-jacent est en BSD, n'ont jamais reçu ce code avec cette licence et ne peuvent pas exploiter le programme sous licence BSD.

    Donc même si c'est un programme verbatim (0 modification, 0 travail dérivé) tant qu'on n'a pas reçu au moins une fois la licence BSD - on ne peut pas utiliser les droits liés à cette licence.

    Ceci dit le code initial, bien au chaud dans les serveurs de la société est toujours techniquement en BSD - ce qui fait une belle jambe au reste du monde.

    Il n’y a pas de moyen juridique de vraiment le re-licencier, si tu n’en est pas l’auteur.

    En droit US du copyright, si la licence n'interdit pas les modifications, alors tu peux rajouter des clauses. Alors bien sur tu ne peux pas supprimer la licence précédente, mais ça te permet quand même pas de choses. Ça se fait d'ailleurs couramment, beaucoup de boites US demandent à leurs consultants de fournir leur code sous licence MIT justement parce qu'après ils peuvent en faire ce qu'ils veulent. (sous limite d'un disclaimer qu'ils auraient probablement mis de toute façon).

    En Europe, ce n'est même pas sur que tu ais légalement le droit de mettre du code en BSD 2 clause ou en MIT. Même en GPL c'est tendu et ça n'a jamais été testé en cour de justice.

  • [^] # Re: Obsolète

    Posté par  . En réponse à la dépêche FreeBSD 13.0. Évalué à 3. Dernière modification le 27 mai 2021 à 11:11.

    0 . This License applies to any program or other work which contains a notice placed by the copyright holder saying it may be distributed under the terms of this General Public License. The "Program", below, refers to any such program or work, and a "work based on the Program" means either the Program or any derivative work under copyright law: that is to say, a work containing the Program or a portion of it, either verbatim or with modifications and/or translated into another language. (Hereinafter, translation is included without limitation in the term "modification".) Each licensee is addressed as "you".

    La GPL s'applique sur tous les programmes et tous les autres travaux qui contiennent l'entête GPL placée par le détenteur du copyright … Le Programme ci dessous se réfère à tous les programmes et travaux ainsi décrits, et "travail basé sur un Programme" se réfère soit au Programme soit tout travail dérivé dans le sens de la loi sur le copyright…

    Bref dans l'article 0 de la GPL, on te dit bien

    • Que tout ce qui a une entête GPL est concerné
    • Que la notion de programme s'applique à ce qui a une entête GPL et à tous les travaux dérivés

    Donc ça s'applique sur les sources, les binaires, les traductions etc. Et ça te dit bien que si il y a un travail dérivé, la GPL s'applique (dans la limite des lois sur le copyright, avec possiblement des violations à la clef discutées dans les articles suivants).

    Alors j'avoue que le terme "code mélangé" est de moi, et qu'il n'apparait pas verbatim dans le texte de la GPL, mais je ne voyais pas l’intérêt de partir dans des termes juridiques pédants et en plus enclins à apporter de la confusion.

    Le code initialement BSD reste BSD, le code WTFPL reste WTFPL

    Non le code initialement BSD devient BSD + GPL et le travail dérivé dans son ensemble est strictement GPL (ce que la licence BSD permet). Idem pour la WTFPL.

  • [^] # Re: Obsolète

    Posté par  . En réponse à la dépêche FreeBSD 13.0. Évalué à 3. Dernière modification le 27 mai 2021 à 10:28.

    Non le code reste sous sa licence initiale, personne n’a les droit de le re-licencier que l’auteur/détenteur des droits

    Nous sommes d'accord. Mais la GPL dit que le code mélangé avec du code GPL est en GPL. Du coup tu as trois options :

    1°) Tu mélanges du code GPL avec du code libre compatible vers GPL => L'ensemble du code passe en GPL

    2°) Tu mélanges du code GPL avec du code non compatible vers GPL mais qui t'appartient => L'ensemble du code passe en GPL, et tu viens implicitement de passer le code qui t'appartient sous licence GPL selon la loi américaine là ou elle s'applique (cela n'a jamais été testé en cour de justice européenne à ma connaissance, mais les licences CeCILL et EUPL ont été créées parce que certains pensaient que ça ne passerait pas vraiment.)

    3°) Tu mélanges du code GPL avec du code non compatible GPL qui ne t'appartient pas => La licence GPL est violée, et tu n'as plus les droits pour utiliser le code ou les binaires obtenus de cette façon pour faire quoi que ce soit.

    Mais tu peux toujours reprendre les parties initialement sous licence moins contraignante de ce projet sous la licence moins restrictive.

    Bien entendu, le fait que le code passe sous GPL n'est pas exclusif, un code peut parfaitement avoir plusieurs licences.
    Si tu préfères on peut dire le code passe aussi sous GPL en plus des ses licences précédentes. C'est ce que je voulais dire tout au long de mes différents textes, le code et les binaires si ils sont légaux sont instantanément sous licence GPL en plus des licences précédentes.

    Mais bon "Sous licence GPL en plus des licences précédentes si l'intégration de code et/ou la production de binaire ne viole aucune des licences existantes" c'est un peu long à écrire à chaque fois.

  • [^] # Re: Obsolète

    Posté par  . En réponse à la dépêche FreeBSD 13.0. Évalué à 5.

    Oula, non. Rien ne devient gpl automatiquement.
    Si le binaire ou les sources ne sont pas distribués (utilisation interne), absolument rien ne se passe.

    Ah si. Comme la condition de distribution du binaire n'est pas déclenchée, tu peux garder ton code secret. Mais à l'instant ou tu fusionne du code GPL avec du code non GPL, que ce soit sous forme d'un fichier source unifié ou d'un binaire compilé, l'ensemble du code devient GPL.

    Après effectivement les quatre liberté ne se déclenchent pas si tu ne distribues ni un source unifié ni un binaire compilé à un utilisateur extérieur. Et du coup tu n'as pas à divulguer le code à tes utilisateurs qui en font la demande. Ni à autoriser tes utilisateurs à utiliser, à adapter, à modifier ou à redistribuer le code. Mais seulement parce que tu n'as pas d'utilisateurs.

    Une autre façon de voir les choses et de dire que tous tes utilisateurs ont les droits accordés par la GPL, mais comme ils sont exactement 0…

    Mais le code GPL que tu as utilisé ne perds pas magiquement sa licence, et cette licence GPL fait que le reste du code est en GPL aussi.

  • [^] # Re: Obsolète

    Posté par  . En réponse à la dépêche FreeBSD 13.0. Évalué à 4.

    En mettant sur des programmes en BSD 2 clauses, en MIT ou en WTFPL tu bosses pour tout le monde.

    Apple est une très petite partie de "Tout le monde". En mettant des logiciels sous licence BSD tu bosses très très peu pour Apple.

  • [^] # Re: Obsolète

    Posté par  . En réponse à la dépêche FreeBSD 13.0. Évalué à 9.

    En parlant de binaire, je pensais à programme… Je le prenais comme synonyme. Donc les bibliothèques et les programmes, ce sont deux choses différentes au sens de la GPL

    Non la GPL ne fait aucune distinction entre la notion de programme et la notion de bibliothèque. Et c'est d'ailleurs une très bonne chose parce que ça prend trente seconde d'exposer une fonction d'un programme sous forme d'export linkable. La GPLv2 avait bien anticipé ce soucis et avait une définition assez large de la notion de dépendance à un logiciel GPL.

    Mais tout programme est potentiellement une bibliothèque, et c'est bien là le soucis principal contre lequel la GPLv3 essaye de lutter, parce que un des déclencheurs de l'obligation de distribution de code est la notion de distribution du programme.

    En GPLv2 si un programme est distribué, il faut que le source le soit aussi. Certaines boites se sont infiltrées dans la brèche pour dire qu'ils ne distribuaient pas le binaire.
    Par exemple à la sauce Tivo qui disait que le boitier restait leur propriété - y compris le logiciel inclus dedans.
    Ou encore Free qui ont utilisé la sauce Tivo au début - mais qui se sont rabattu sur une méthode "on donne le code des modifs qui permet de charger des contenus binaires qu'on ne donne pas, et de toute façon si vous modifiez votre box on vous résilie votre accès"

    Bref les libertés fondamentales ne sont pas respectées.

    La GPLv3 a été crée en réaction épidermique a ces éléments. Et malgré une adoption massive a complètement échoué à rendre les libertés fondamentales aux utilisateurs.

    Pas mal d'opérateurs, fournisseurs de contenus et opérateurs cloud ont adoptés une méthode en trois temps :

    1- Faire des modifs sur le binaire GPL pour qu'il puisse recevoir et envoyer des commandes via un bus entreprise. On garde ce binaire non seulement logiquement, mais également physiquement dans les locaux de la société.
    2- Faire un logiciel de bus société proprio, qui ne se lie pas vraiment à un programme GPL spécifique et qui tient debout tout seul même si il n'y a pas de logiciels GPL dans la boucle.
    3- Faire une box, un service, une infra etc. qui passe par le bus société pour faire quoi que ce soit.

    La GPLv3 est respectée, rien n'est distribué à l'utilisateur, le code source modifié reste fermé, 0 liberté utilisateur au final.

    Et quand je dis bus entreprise, ca peut juste être un proxy qui reçoit des commandes REST et qui les retranscrit en mode 1 pour 1 dans un PTY. Ca marche très bien.

    Donc les vraiment grosses boites, assez grosse pour avoir les moyens de bien compartimenter leurs devs, peuvent abuser de la GPLv3 sans soucis. La méthode est connue et largement publicisée (pas en ces termes là bien sur) pas de grande marques de cloud pas encore souverain.

    Par contre les petites et moyennes boites vivent dans la crainte d'un dev qui fait un import (via npm, cargo, pip etc.) d'un truc en GPL et qui les oblige dans 6 mois, 8 mois un an à se prendre une volée de bois vert si ils ne libèrent pas le code. Code qu'ils ne peuvent absolument pas libérer pour des raisons contractuelles le plus souvent (il a été écrit avec les specs et les études d'un client, donc techniquement il ne leur appartient pas).

    Bref tout programme est potentiellement une bibliothèque et c'est de plus en plus simple de faire la transformation. La GPLv3 a échoué à bloquer ce qu'elle voulait bloquer et les grosses boites rigolent presque autant devant les protections de GPLv3 que les pirates du dimanche devant la HADOPI.

  • [^] # Re: Obsolète

    Posté par  . En réponse à la dépêche FreeBSD 13.0. Évalué à 8.

    Il y a le code noyau et le code utilisateur

    On peut éventuellement dire qu'il y a l'espace noyau et l'espace utilisateur. Mais pas vraiment de "code utilisateur" en tant que tel. Le code du noyau est "relativement" bien défini, mais si on ajoute tous les pilotes et tous les modules ça devient beaucoup plus flou.

    La GPL concerne tous les codes, sinon je pourrais prendre le code du noyau et le passer dans la licence que je veux.

    Un binaire GPL n'a aucune influence sur un autre binaire GPL

    Un binaire GPL peut parfaitement avoir une influence sur la licence d'un autre binaire. Par exemple quand NVidia a voulu sortir des modules propriétaire qui utilisait certaines fonctionnalités de DMA exposées par le kernel, ils ont été invité à corriger leur code au plus vite ou à le rendre public sous la licence GPL. Ils ont corrigé.

    Et une bibliothèque GPL userland peut parfaitement avoir une influence sur tous les logiciels qui l'utilisent, sinon on ne ce serait pas amusé à créer la LGPL.

    La GPL est une licence héréditaire dont l'idée géniale est que si tu te link dessus (.so), alors ton code doit être libre

    Et bien déjà dans l'immense majorité des cas il doit non seulement être libre, mais encore en GPL et de la même version que celle utilisé par la bibliothèque. Cependant :

    1 - Tu contredis toi même en disant qu'un binaire GPL (un .so) a un impact sur la licence d'un autre binaire. C'est d'ailleurs parfaitement exact, dans la majorité des cas le fait de linker, même dynamiquement, une bibliothèque GPL oblige mon code à être GPL

    2 - Il y a une exception pour les bibliothèques systèmes. Par exemple : personne ne s'attend à devoir recoder l'ensemble des libs qui vont bien à chaque programme qui tente de lire ou d'écrire un fichier. Pourtant le code sous-jacent qui est linké est bien (en finalité) un module noyau. Très probablement sous licence GPLv2 du coup.

    En bref quand tu utilises du code GPL (celui du noyau) via un binaire GPL (le noyau compilé de ta distribution) pour faire une opération de base (lire un fichier sur un device formatté en EXT4 par exemple) ça ne t'oblige pas à changer la licence de ton code. Et heureusement d'ailleurs, sinon on ne pourrait faire tourner que du code GPL sous Linux.

    Donc cela me fait rire ces peurs sur la GPL ;-)

    Et bien ça ne fait rire ni Linus Torvalds, ni l'ensemble des projets BSD. Et cette absence de rigolade, venant de gens dont on peut légitimement estimer qu'ils s'y connaissent un peu en licences, dure depuis 14 ans.

    Peut-être qu'il y a réellement un soucis non ?

  • [^] # Re: Obsolète

    Posté par  . En réponse à la dépêche FreeBSD 13.0. Évalué à 8.

    Tout dépend de comment on défini compatible.

    La GPLv3 est "compatible" avec BSD 2 clauses dans le sens ou on peut prendre tout le code écrit en BSD 2 clauses et le re-licencier en GPL (v2 ou V3)
    Pareil pour la MIT, la WTFPL, et la plupart cas pour la Apache v2 si il n'y a pas de brevets ou de terminaison de licence impliqués.

    Par contre le contraire n'est absolument pas vrai. Si on s'amuse à prendre du code GPL et à le mettre dans un autre source sous une autre licence reconnue comme compatible, ce source devient GPL immédiatement.

    En Bref GPL + Compatible GPL => GPL

    Et de gros soucis se posent sur des outils systèmes, car la licence GPL considère les bibliothèques systèmes comme différentes des bibliothèques non systèmes. Le check rapide que l'on est encouragé à faire est de se demander si le programme que l'on a créé aurait du sens si il n'était lié à la bibliothèque GPL.

    Je fais un jeu vidéos qui utilise des bibliothèques de rendu GPL => je pourrais utiliser d'autre bibliothèques de modifier sans trop modifier mon code. Mon jeu n'est probablement pas nécessairement en GPL

    Je fais un jeu vidéo qui utilise tout un framework GPL, moteur, rendu IA etc. => si je veux que mon jeu fonctionne avec un autre framework il faut probablement que je recode toute la logique. Mon jeu ne tient pas debout sans GPL, je suis obligé de le mettre en licence GPL.

    Pour tout ce qui n'est pas système ça suffit généralement (même si mon exemple est caricatural et que c'est beaucoup plus complexe que ça en vérité). Pour ce qui est système par contre c'est plus compliqué: Le kernel, les pilotes et même certains outils bas niveau sont nécessaires à tous les programmes, et aucun programme ne peut tenir debout si il ne peut pas allouer de mémoire par exemple. Du coup il y a une exception dans la GPL qui dit que si on utilise que des bibliothèques système et/ou bas niveau on est quand même pas obligé de mettre son programme en licence GPL.

    Mais rien ne dit que si on crée une bibliothèque système ou bas niveau qui utilise du code GPL, on peut lui donner une autre licence que GPL.

    Et la GPLv3 a pas vraiment aidé, au contraire dans sa lutte contre la tivoisation qui se transforme lentement en lutte contre les logiciels dans le cloud non redistribués elle a tendance à générer pas mal de craintes, même chez des acteurs établis du libre.

    Pour ces raisons, Linus Torvalds n'a pas fait la transition (si tant est qu'elle soit même raisonnablement faisable).

    Et c'est aussi pour ces raisons que les systèmes BSD s'éloignent autant que possible de la GPL. Mais ils n'ont pas envie que l'on vienne leur expliquer que comme une lib quelconque sous GPL a été chain-linkée dans le kernel, les pilotes, les mécanismes de virtualisation ou de jail du coup un pan entier de leur système passe en GPL. Et surtout ils veulent rassurer leur clients institutionnels sur ce point.

    TLDR : la GPLv3 n'est pas compatible avec BSD, c'est BSD qui est compatible vers GPLv3 et il existe un risque faible mais non nul que l'utilisation des outils et des bibliothèques GNU forcent mécaniquement la licence GPL sur le système BSD. Du coup par prudence les projets BSD s'éloignent de l'écosystème GNU.

  • [^] # Re: Sacrée naiveté

    Posté par  . En réponse au journal GitHub remplace la branche master par main. Évalué à 10.

    J’ai du mal à voire comment on peut justifier ce vocabulaire, quand on a primary/replica ou leader/follower a disposition.

    Ben c'est pas la même chose. Du tout. En informatique les assomptions sont les suivantes :

    Master - Slave évoque bien une relation de dépendance : le slave ne peut rien faire si le master n'est pas up. On a une notion commandant omnipotent ou presque et commandé sans aucune capacité indépendante.

    Primary - Replica évoque au contraire une notion de fonction. On sent que si le Primary se casse la gueule, le replica va pouvoir reprendre le boulot à l'identique et agir en totale indépendance.

    Primary - Secondary : pareil que plus haut, mais on se dit que le secondary ne va pas pouvoir faire tout ce que faisait le master

    Leader - Follower : Là on est dans le cas d'un système qui suggère (éventuellement fortement) une direction ou un protocole à appliquer, mais le follower a une plus grande latitude, il peut en fonction des circonstances décider de passer outre les recommandations.

    Father - Son : On est sur une notion d'héritage. Le son va hériter d'informations, de contexte ou de droits du père, et suivant les cas se détacher ou non pour vivre sa vie dans son coin.

    Mother - Daughter : Même notion que précédemment sauf que la daughter ne peut pas se détacher (ou du moins perd toute capacité si elle se détache ex: motherboard - daughterboard, motherbay - daughterbay, là aussi il y a des choses à dire dans les implications socio-culturelles mises en œuvre)

    Controller - Target (ou device) : Là le controller passe les commandes une à une, on est dans un mode pilotage ou la target ne comprend pas ce qu'elle fait, et d'ailleurs le plus souvent ne dispose pas de capacité à effectuer des actions composites par elle même.

    Client - Server : Les rôles sont inversés, c'est la partie du système avec les informations et les capacités qui obéit aux demandes dans la limite des droits du client.

    Toutes ces variantes (et il y en a surement d'autres) ont un sens précis en informatique. Si on me parle de cluster Primary/Replica je vais assumer que je peux éteindre ou faire la maintenance du Primary sans impact. Alors que si mon interlocuteur visait principalement à être principalement politiquement correct, ça n'est pas forcément le cas.

    Bref si on vise à faire le ménage dans les termes offensants (pas convaincu du truc, mais pourquoi pas) il est essentiel de préserver les notions et les subtilités que les termes actuels apportent, et de ne surtout pas les supplanter par des termes qui sont déjà utilisés en informatiques pour désigner un système différent.

    Le problème c'est que les alternatives qui restent pour Master-Slave (genre Alpha-Beta et Lord-Subject) ne sont ni répandues ni franchement 100% politiquement correctes non plus. Bref en les utilisant on est pas mieux compris, bien au contraire (mais au moins les gens posent la question, ça permet d'éclaircir).

  • [^] # Re: Méthodologie à améliorer

    Posté par  . En réponse au journal Coronavirus : vers une sortie de crise ?. Évalué à 3.

    A quelques détails prêt je suis d'accord avec toi sur toute la ligne. L'argument d'autorité, surtout en matière sanitaire, est généralement un mauvais argument. Et la nécessité ne doit pas nous faire oublier la prudence.

    On est cependant ici dans un cas un peu différent du cas usuel, et il ne faut pas confondre l'objectif d'une étude et l'objectif d'un traitement.

    • Éloigné du cas usuel : le traitement est déjà utilisé avec succès en Chine, et donnait au moment du début de l'étude de l'IHU des résultats prometteurs en Corée du Sud. C'était donc déjà une solution pour deux pays distincts avant la publication. Si le degré de confiance envers les publications chinoises avait été comparable avec celui que l'on a pour des publications nord-américaine ou européenne on aurait pu gagner deux semaines et amorcer directement les tests étendus.

    Si on ne considère que les résultats de l'IHU Marseille, on peut en effet considérer que c'est un poil léger pour agir. Mais si on met en perspective et que l'on se rend compte que le Professeur Raoult ne fait qu'améliorer un protocole qui est déjà déployé avec succès et documenté dans d'autres pays. Il retrouve les mêmes résultats sur la partie sans Azithromycine et des résultats améliorés sur la partie avec.
    Bref la crédibilité accordée au études chinoises change complètement la vision et la portée des résultats de l'IHU.

    • Ne pas confondre : Quand tu dis > Cela signifie que le traitement n'a pour but en somme que de réduire la durée où un patient peut en contaminer d'autres.

    Là je ne suis pas d'accord du tout. L'étude restreinte porte sur des cas idéaux, en limitant au maximum les artefacts extérieurs. Ça ne veut absolument pas dire que le traitement n'a pas d'effet sur les formes sévères ou pleinement exprimées du virus. Cet étude est en effet orientée à démontrer la capacité d'enrayement de l'épidémie par le traitement. Si on veut connaitre les effets et les inconvénients du traitement sur des personnes plus gravement atteintes, la seule solution est de faire une autre étude.

  • [^] # Re: Méthodologie à améliorer

    Posté par  . En réponse au journal Coronavirus : vers une sortie de crise ?. Évalué à 4.

    Et est-ce si important et injustifié ?

    Ce n'est ni important ni injustifié. Je ne voudrais surtout pas que l'on pense que le sens de ma remarque était de dire que le gouvernement aurait du le prendre comme référent principal et obéir aveuglément à toutes ses directives.

    A postériori il aurait été profitable de l'écouter plus. Avec les amorces PCR distribuées dans les hôpitaux et plus de confiance vis à vis des études de la Chine on aurait pu gagner une ou deux semaines dans la lutte contre le virus ce qui aurait fait une énorme différence au niveau de la France et probablement du monde occidental en général.

    Mais c'est facile de juger à postériori.

    Par contre le Professeur est assez mal vu par ses pairs en France; peut être à raison, peut être par cabale des médiocres. Je ne peux pas juger, je ne suis pas médecin et encore moins expert international des maladies infectieuses contagieuses.

    Ma remarque initiale à savoir

    Oui enfin le monsieur est quand même considéré comme numéro un mondial sur le sujet par tout le monde sauf la France.
    J'ignore pourquoi il annonce qu'une étude sur 20 personnes peut être plus significative qu'une étude sur 10 000 personnes. Je suis sur qu'il a une bonne raison.

    allait plutôt dans le sens : en France il y a de nombreuses personnes qui critiquent le travail et les méthodes du Professeur Raoult - dans le reste du monde ils sont clairement très bien acceptés. J'ai donc tendance à les considérer comme valides. (Une fois de plus en tant que non médecin qui a fait ses devoirs et s'est informé sur le sujet dans la mesure de ses compétences.)