arnaudus a écrit 5317 commentaires

  • [^] # Re: c'e'st déjà un peu le cas

    Posté par  . En réponse au journal pourquoi pas: vaccin libre/opensource. Évalué à 9.

    Et si les États sont prêts à mettre la main à la poche en achetant les doses à certains prix pour des maladies rares, les labos s'y lanceraient sans problèmes.

    Peut-être, et peut-être pas. Bosser sur les maladies rares peut être très compliqué, et même parfois impossible. En particulier, il est parfois juste impossible de recruter assez de patients pour tester un médicament sans transformer des malades en multi-cobayes…

    Mais de toutes manières, ça pose également un problème de société. Si la mise au point d'un médoc coûte 2 Mrds d'euros, à partir de quelle "rareté" de la maladie la société acceptera de payer? À partir de quelle efficacité considèrera-t-on acceptable de payer? Est-ce que, cyniquement, on ne peut pas tous tomber d'accord sur le fait qu'il est beaucoup plus simple de ne pas avoir de médicament pour les maladies rares que d'en avoir et de devoir décider s'il est judicieux de dépenser 10M€ par patient et par an pour maintenir en vie des gens à la santé chancelante…

  • [^] # Re: c'e'st déjà un peu le cas

    Posté par  . En réponse au journal pourquoi pas: vaccin libre/opensource. Évalué à 10.

    Il me semble que dans l'industrie pharma, les brevets sont valables 20 ans; il n'existe pas vraiment de molécules anciennes brevetées.

    Le business de l'industrie pharma est un peu malsain, mais pas forcément pour les raisons évoquées d'habitude. Le problème principal de cette industrie est que les coûts de développement d'un nouveau médicament sont assez dingues (on parle en milliards pour le moindre médoc), et ce, malgré les multiples financements et aides des États (par exemple, le fait que la grande partie de la recherche amont soit faite par des labos publics). Ces coûts ne font qu'augmenter, d'une part parce qu'il est de plus en plus dur de trouver de nouveaux médocs, et d'autre part parce que la société est de plus en plus regardante sur la qualité et les conditions des essais cliniques, ainsi que sur les preuves de l'efficacité. Comme c'est une industrie, forcément, il faut que tout cela soit rentable, et comme le "marché" est un peu spécial (on ne peut vendre un médoc qu'à des gens malades, problèmes éthiques quand on vend trop cher même si c'est le prix coûtant, démarchage de médecins et entrisme dans les facs de médecine, prix fixés par négociation avec les assurances privées et publiques…), les prix ne sont pas vraiment soumis à l'offre et à la demande ou aux règles habituelles de la concurrence. En fait, ça fonctionne pour les molécules dans le domaine public et très utilisées (paracétamol…), mais quand on passe à des maladies rares, à des traitements individualisés, à des molécules nouvelles, à des applications nouvelles d'une molécule ancienne, etc., toute stratégie commerciale devient douteuse, et on en vient à soupçonner les industriels de vouloir trop vendre leur camelotte, comme si on pouvait en attendre autre chose…

    À l'heure actuelle, l'industrie pharma ne développe plus grand chose, parce que ça leur revient trop cher, c'est trop incertain, c'est trop difficile, et c'est peu rentable. Il est de bon ton de tout leur reprocher à la fois, mais c'est absurde, il faut se rendre à l'évidence que les demandes de la société ne sont pas compatibles avec la viabilité économique de ces entreprises.

    Par exemple, un des arguments préférés des anti-vax seraient que big pharma pousse pour rendre obligatoire des vaccins inutiles et/ou dangereux. Il suffit d'une calculatrice pour estimer le profit par pays sur la vente d'un vaccin à quelques euros, et se rendre compte que les vaccins obligatoires ne contribuent au CA du groupe que de l'ordre du dixième de %… D'ailleurs, aucune boîte d'accepte plus de produire les vaccins trivalents de base, ce qui prouve que le tarif sécu est sous leur seuil de rentabilité.

    Finalement, le système serait probablement beaucoup plus sain si les industriels n'étaient plus que des fabricants de médocs dont les licences appartiendraient aux États, mais on en est loin : d'une part, les États ne veulent absolument pas assumer les coûts astronomiques de la mise sur le marché des médicaments (un médicament par an en France, ça serait plusieurs fois le budget de l'INSERM!), mais en plus, quand un labo public français possède un brevet rentable, sa première préoccupation est de le «valoriser», c'est à dire de faire payer un maximum de royalties aux acteurs privés français et étrangers de manière à se financer! On pourrait être presque sûrs qu'une transition vers un tel système entraîntenait l'arrêt total de la production de nouveaux médocs.

    Bref, si on veut des vaccins covid19 efficaces rapidement, le meilleur moyen est probablement de promettre à big pharma un paquet de fric au premier qui y arrivera. Ça va certes coûter de l'argent à la sécu, mais probablement beaucoup moins que s'il avait fallu financer le développement des vaccins par des labos publics qui n'ont pas l'expérience, les compétences, et les budgets pour le faire.

  • [^] # Re: Grande organisation vs uniformité

    Posté par  . En réponse au journal Clairement, l’Europe aime de plus en plus l’open source !. Évalué à 0.

    Et le but est totalement différent. Des entreprises privées œuvrent pour leur intérêt propre. Des associations de citoyens œuvrent pour ce que leurs membres pensent être le bien commun.

    Ça n'est qu'une question de point de vue. Le courant de pensée libéral est bien plus complexe et fondé sur des considérations philosophiques et morales que dans les caricatures qu'on fait de lui. Il me semble assez défendable (et c'est d'ailleurs une ligne majoritaire parmi les dirigeants européens et US) de considérer que la bonne santé des entreprises contribue au bien commun, ne serait-ce que par l'emploi, la redistribution des richesses, et la possibilité d'ascension sociale. Même si les effets de la redistribution sont douteux dans la société actuelle, il me semble indéniable que le capitalisme offre en pratique bien plus d'opportunité d'ascension sociale que notre modèle républicain.

    Il est possible de ne pas être d'accord, mais le raisonnement qui consiste à opposer les intérêts privés et le bien commun me semble fallacieux.

    Il y a d'ailleurs une expérience de pensée fascinante que j'ai découvert par les vidéos de Mr Phi sur Youtube. Si on découvre qu'une entreprise s'est engagée dans un processus polluant pour augmenter ses profit, on a tendance à considérer qu'elle a intentionnellement nuit à l'environnement. Si par contre on découvre qu'une entreprise s'est engagée dans une voie respectueuse de l'environnement parce que ça augmentait ses profits, on va considérer que les aspects écologiques n'étaient pas intentionnels. C'est très étrange que l'intentionnalité d'une action dépende d'un critère moral, il y a une sorte de bug dans notre raisonnement.

  • [^] # Re: J'aime pas :)

    Posté par  . En réponse au journal Mi kama sona e toki pona*. Évalué à 1.

    Bah le Nord c'est en haut quand tu regardes la Terre. Il ne suffit plus que de décrire le haut et le bas dans le système solaire, et la question est réglée.

  • # Classique

    Posté par  . En réponse au message CPU qui chauffe (trop ?). Évalué à 5.

    D'expérience, les constructeurs vendent du matériel (surtout les portables, mais ça m'est arrivé avec des tours de bureau) qui ne sont pas conçus pour tourner à fond pendant plus de quelques secondes. Ça a toujours été le cas, donc ça ne me surprend pas. Typiquement, je fais beaucoup de simulations numériques pour le boulot, qui demandent 100% du CPU pendant des heures; ça passe sur les serveurs de calcul (qui ont un refroidissement dimensionné), mais sur les portables, ça coince systématiquement, et j'ai fini par considérer ça comme "normal". Je me rappelle avoir fini ma thèse un été de canicule avec le portable posé sur des pains de glace recouverts d'une serviette…

    Pendant longtemps, j'ai trouvé que c'était du ressort du vice caché, mais je pense qu'avec l'habitude, j'ai changé d'avis. Faire tourner le CPU à fond pendant des heures n'est pas du tout une utilisation "normale" d'un matériel informatique courant taillé pour la bureatique, et dimensionner ce matériel pour tenir la charge reviendrait à augmenter son coût démesurément sans justification réelle, juste pour une question de principe. Si tu prend une voiture de série au hasard (une Clio avec le moteur de base) et que tu la fais tourner à bloc pendant plusieurs heures sur un circuit ovale, il y a de fortes chances que tu la fasses fumer. Je ne pense pas que ça soit un problème de conception, c'est plus un problème d'utilisation : tu sors du cadre d'une utilisation "normale", même s'il n'y a pas beaucoup de sens derrière ce terme. Tu peux essayer avec n'importe quel équipement, ça sera la même chose : un mixer de cuisine, une perceuse, un cheval… Les seuls équipements qui tiennent le coup sont ceux qui sont conçus pour tourner en permanence (une pompe d'aquarium?) ou qui sont "professionnels" et adaptés à une utilisation intensive.

  • [^] # Re: Houla

    Posté par  . En réponse au journal Covid le rouge. Évalué à 10.

    Je pense que ce qui se passe, c'est qu'une bonne majorité de la population des pays développés a tout intérêt (ou a l'impression d'avoir intérêt) à ce que rien ne change. Du coup, ils mettent au pouvoir des gens qui ne souhaitent rien changer. Je n'y vois que les conséquences de vivre dans un système démocratique.

  • [^] # Re: Ma plus commune erreur

    Posté par  . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 2. Dernière modification le 29 avril 2020 à 17:33.

    En fait, la question centrale est peut-être celle de l'utilité d'un type facteur dans un langage non-typé, puisque les facteurs vont forcément entrer en conflit avec les autres types de base. Il me semble tout à fait envisageable de laisser les fonctions transtyper en facteur quand elles en ont besoin (voire d'interpréter les strings comme des facteurs), alors que les routines de lecture/écriture/manipulation de données gèrent des chaines de caractères. Les problèmes de RAM sont évitables même avec les chaînes de caractère, c'est juste une histoire d'optimisation interne.

    De toutes manières, l'auto-typage génère des bugs, c'est inévitable. Quand il y a une erreur de saisie triviale, style un "Na" au lieu de "NA", alors c'est toute la colonne de nombres qui devient facteur ou catactère; au contraire, on peut changer le type en appliquant un filtre (par exemple un grep \d+ sur une chaine de caractères, et pouf, le sous-jeu de données n'a pas le même type). Le plus vicieux, c'est un as.numeric sur une colonne interprétée comme un facteur, ce qui risque d'arriver de manière silencieuse avec du code écrit pour R-4.0 interprété par un R plus ancien: as.numeric(c("10","12")) donne c(10,12), alors que as.numeric(factor(c("10","12))) fait c(1,2). De bonnes soirées de débuggage poilu en perspective.

  • [^] # Re: Ma plus commune erreur

    Posté par  . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 2. Dernière modification le 29 avril 2020 à 15:55.

    Non non, pas de problème, je crois qu'on est plutôt d'accord. Je n'ai pas de solution non plus pour faire évoluer un langage sans tout péter.

    Le choix d'interpréter les caractères comme des facteurs dans les jeux de données est problématique, puisque de toutes manières certains jeux de données peuvent contenir à la fois des colonnes de texte qui correspondent à des caractères et d'autres à des facteurs. Il aurait été tout à fait possible de développer des heuristiques pour se gourer le moins possible (par exemple, il est très peu probable qu'une colonne qui contienne des chaines de caractères toutes différentes puisse représenter un facteur), mais ça aurait été atroce en termes de maintenance. Un choix existait par défaut, il était critiquable, mais c'était comme ça. Ce qui est embêtant, c'est de changer, surtout qu'il existait quand même des arguments dans les deux sens, ansi qu'une option stringsAsFactors qui permettait de basculer entre les deux comportements. Mais bon, c'est fait, c'est fait…

    Après, R possède de très nombreux bugs d'interface sur des fonctions de base; soit des noms de paramètres ou de fonctions incohérents (par exemple simplify dans sapply vs SIMPLIFY dans mapply, nrow mais row.names dans data.frame vs nrow() et rownames()), soit des interfaces hyper bugogènes (comme le premier paramètre dans sample() qui change de sens en fonction de sa longueur), soit des ordres de paramèters incohérents (do.call a la fonction qui vient en premier et qui s'appelle "what", lapply a la fonction qui vient en deuxième et qui s'appelle FUN…). Quitte à péter la compatibilité lors d'un changement majeur de version, autant le faire un bon coup et réparer plusieurs problèmes à la fois… La méthode choisie c'est plutôt de retirer le pansement millimètre par millimètre, je ne suis pas convaincu.

  • [^] # Re: Ma plus commune erreur

    Posté par  . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 3.

    Oui oui, les metadata des systèmes de paquets sont très (trop) stricts avec les dépendances.

    Ceci dit, ces histoires de versions de dépendances, c'est bien, mais ça n'est pas magique. Souvent ça encourage les développeurs à être très restrictifs (par exemple, si on utilise la version 1.2.3 du paquet Truc, alors on force la version 1.2.3, comme ça on est sûr que ça marche… et on est sûr d'emm* tous les utilisateurs).

    En tant qu'utilisateur très régulier de R, je suis en désaccord sur un certain nombre de points avec la politique des dev de R core. Typiquement, les devs R considèrent que la "bonne manière" de faire les choses et de distribuer des paquets pour n'importe quel projet, ce qui, en effet, permet de bien structurer l'arborescence des projets, d'améliorer la reproductibilité, etc. Malheureusement, cette manière de travailler est aussi très rigide et très technique; pour qu'un paquet passe les checks il faut une documentation très rigide, et la moindre tâche devient pénible (par exemple, imaginons qu'on souhaite ajouter un paramètre optionnel à une fonction pour tester un truc : il faut modifier la fonction, modifier la doc, parfois modifier les metadata si on utilise une dépendance, reconstruire le paquet, le recharger dans son script de test (éventuellement avec les outils de R-devel si on ne veut pas réinstaller le nouveau paquet), et exécuter sa fonction. Zut, il y a une faute de frappe. Rebelotte, reconstruire le paquet, etc. C'est un workflow pourri de chez pourri, ça revient à perdre tous les avantages d'un langage de script où on colle ses constantes, ses dépendances, ses fonctions, et son code dans un même fichier, on exécute, et basta. Évidemment, il existe des utilitaires qui permettent d'automatiser un peu tout ça, mais ça revient à coller des pansements sur une jambe de bois.

    Pourtant, les devs utilisent l'existence de ce système de paquets (qui est excellent pour, en effet, distribuer des paquets) pour nier l'évidence sur les besoins des utilisateurs. Par exemple, il semble que n'importe qui utilisant R pour des projets de taille moyenne (quelques mois de travail personnel par exemple) a besoin de structurer son code en plusieurs fichiers, qui peuvent s'appeler les uns les autres. Or, il n'existe aucune fonction dans R pour gérer les chemins d'appel des scripts de manière fiable (en gros, pour connaitre le chemin complet du script qu'on est en train d'exécuter, il faut sans utiliser des variables système-spécifiques cachées dans les paramètres environnementaux). La réponse des devs est systématiquement "vous n'avez qu'à utiliser les paquets", et je ne comprends pas pourquoi. C'est un peu la même chose pour la gestion des environnements (qui définissent la visibilité des variables), qui reste cryptique et incohérente, mais qui est sans cesse renvoyée dans les dents des gens qui se plaignent des incohérences du langage.

    Je trouve ça un peu moche quand les devs d'un langage tellement utilisé ont du mal à comprendre les besoins de leurs utilisateurs (mais c'est souvent inévitable : les devs sont de très bons techniciens et ils connaissent parfaitement toutes les subtilités de leur outil, il est très difficile pour eux de comprendre pourquoi certaines procédures sont totalement hermétiques aux utilisateurs "normaux").

  • [^] # Re: Ma plus commune erreur

    Posté par  . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 2.

    S'il faut faire de la recherche reproductible, il faut se mettre dans le même contexte d'exécution.

    Oui, mais c'est en pratique infaisable (ne serait-ce que parce que seul le code R est en général fourni). On reste donc dans une définition faible de la reproductibilité : on exécute le truc, et on espère avoir à peu près le même résultat.

    Il y a eu plein d'autres corrections de "bugs" dans R, qui font que tout n'est pas toujours reproductible.

    Certes, mais c'est en général assez spécifique. C'est clair que R ne garantit aucunement la compatibilité (ni ascendante, ni descendante), mais en général les changements d'interface et de comportement font en sorte de minimiser les incompatibilités. Là c'est un changement qui potentiellement peut casser une grosse moitié de l'existant d'un coup.

    Après, c'est vrai qu'à ma connaissance, il n'existe aucun mécanisme simple dans R pour vérifier les versions (de R et des paquets) dans un script. Il y a donc une nette distinction entre les paquets (qui, eux, ont des mécanismes forts pour gérer les dépendances) et les simples scripts.

  • [^] # Re: Ma plus commune erreur

    Posté par  . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 4.

    Ça va éviter un tas de questions :)

    Certes, mais ça va péter un certain nombre de scripts existants.

    Le problème n'est pas vraiment dans le code maintenu (CRAN sait très bien faire ça, les mainteneurs de packages sont constamment obligés de maintenir la compatbilité lors des changements de versions. Le problème est plutôt que R est énormément utilisé pour de l'analyse de données scientifiques, et les scripts d'analyse sont publiés dans une optique de recherche reproductible. Pas question de mise à jour ici, non seulement c'est du code qui n'a pas vocation à être exécuté dans d'autres contextes, mais en plus ça serait même contraire à l'idée de base (reproduire les résultats d'un article scientifique, erreurs comprises). Et dans ce cas, bah paf, on perd la reproductibilité. C'est facheux.

  • # Pertinence des résultats

    Posté par  . En réponse au message Nouveau moteur de recherche Privado.com. Évalué à 4.

    Indépendemment de la position dominante de Google ou des problèmes de vie privée, après quelques tests, il me semble évident que privado retourne des résultats non-pertinents parmi certains résultats pertinents. Ça craint, parce que c'est un problème d'algorithme, pas un problème de taille de la base de données.

    Par exemple, j'ai essayé avec "htop options" (ma dernière requête dans un moteur), et le 3e lien est "Most Active Stocks Options - Barchart.com". De mémoire, il faut que je retourne dans l'ère pré-Google (Lycos, Altavista—où je mettais systématiquement -$ -Pamela Anderson" à la fin de chaque requête) pour me rappeler de trucs comme ça.

    Avec ou sans respect de la vie privée, malheureusement, je ne vois pas comment on peut espérer gagner des parts de marché dans un domaine aussi concurrentiel avec de tels problèmes de qualité vis-à-vis des concurrents.

  • # Responsabilité aux médecins

    Posté par  . En réponse au journal Le gouvernement français autorise la prescription de l'hydroxychloroquine en traitement du COVID-19. Évalué à 7.

    Au final, ce décret remet aux médecins de décider de prescrire ou pas ce médoc, ce qui aurait toujours dû être le cas. Ça ne veut pas dire du tout que tous les patients vont être traités, et j'imagine qu'au vu du manque de preuves d'efficacité, il n'y a pas vraiment d'indication pour ce traitement.

    Sur le fond, le papier de Didier Raoult ne vaut rien : non seulement l'étude est bancale, mais en plus les données sont traitées de manière plus que limite (voire frauduleuse). Scientifiquement, c'est comme si elle n'existait pas. Quand on sait que les autres études existantes ne montrent pas d'effet significatif, il semble assez sain de partir du principe que l'hydroxychloroquine n'est probablement pas un traitement de première intention pour le Covid-19. Bien sûr, de nouvelles données pourraient changer la donne, mais il est irrationnel à l'heure actuelle d'avoir un autre avis.

    Quelques «trucs» pour la route :

    1. La médecine (au moins la partie de la médecine basée sur une approche scientifique) repose sur des protocoles et des procédures strictes, pas sur des intuitions ou des coups de gueule. Dr House n'est pas un documentaire sur les pratiques hospitalières, c'est une série de fiction.

    2. Il n'a jamais été ni ne sera jamais pertinent d'impliquer le grand public dans des décisions médicales. La situation actuelle est totalement ridicule, les gens réclament un traitement expérimental à leur médecins, alors que ça pourrait mettre leur vie en danger.

    3. Indépendamment de l'histoire de la chloroquine, le Dr Raoult n'a pas du tout la bonne réputation que certains semblent lui prêter. Il a en effet eu beaucoup de problèmes avec sa hiérarchie et ses collègues, mais mettre ça sur le compte de la jalousie ou des conflits d'intérêts est une réécriture de l'histoire : ses problèmes sont principalement dûs à des manquements à l'éthique et à la déontologie.

    4. Jusqu'avant l'histoire de la chloroquine, Didier Raoult était connu pour s'être complètement planté sur l'importance du Covid-19; il avait prétendu que c'était une grippette, que tout le monde en faisait trop, etc. Pour un infectiologue expert mondial, ça la fout mal. Les psychologues parmi vous pourraient peut-être trouver le nom du phénomène qui pourrait expliquer pourquoi, dans ce contexte, il est si important pour lui qu'il existe un médicament magique contre la maladie—tellement important que ça vaille le coup de bidouiller une étude médicale.

  • [^] # Re: petite question

    Posté par  . En réponse au journal Des virus et des hommes. Évalué à 8.

    J'ai aussi oublié de mentionner le fait qu'un taux de mortalité élevé était le signe d'une maladaptation du virus à l'espèce humaine. Le virus n'a aucun intérêt à te tuer, en général, ça nuit à sa transmission (il vaut bien mieux que tu te sentes assez bien pour prendre le métro…). Le cas extrême c'est les virus sexuellement transmissibles; en général ils sont assez discrets pendant très longtemps, vu qu'il faut que tu te sentes assez bien pour… les transmettre. Du coup, les forts taux de mortalité, on les trouve souvent sur les virus qui viennent de passer chez l'Homme (grippe espagnole, Ebola…), et ces virus s'adaptent rapidement.

  • [^] # Re: petite question

    Posté par  . En réponse au journal Des virus et des hommes. Évalué à 6.

    Je ne sais pas vraiment ce que tu appelles l'effondrement de l'espèce, mais a priori, non, notre espèce n'est pas du tout en danger, quelle que soit l'épidémie. Après, on a déja mangé grave (par exemple, les épidémies de peste du moyen-âge ont bousillé 1/3 de la population mondiale), mais c'est loin d'être assez pour nous mettre en danger vu les effectifs.

    Le pire qui puisse arriver, c'est une maladie complètement mortelle sur laquelle le système immunitaire n'est pas efficace (par exemple, parce qu'on meurt avant de mettre en place une réponse immunitaire). Dans ce cas, seule une réponse «innée» (des prédispositions génétiques) permettent d'éviter la maladie. C'est la sélection Darwinienne qui va prendre le relai; la fréquence des gènes protecteurs va augmenter très rapidement en quelques générations jusqu'à ce que l'épidémie disparaisse (de la même manière qu'une épidémie disparait quand le nombre de personnes protégées par leur immunité atteint un certain seuil). C'est plus «douloureux» en termes de morts violentes, mais l'espèce n'est pas en danger. Les cas qui sont réellement problématiques seraient des cas où aucune résistance n'est possible (à part un virus fabriqué par des chercheurs fous, ça me parait peu crédible…), où la baisse de la densité de la population ne freine pas la transmission (alors que c'est assez mécanique), et où la population est tellement touchée que le taux de croissance naturel devient négatif. Ou alors, que le virus ait un réservoir énorme chez une autre espèce très fréquente (les rats?). C'est possible chez les espèces en voie de disparition, mais pour nous, on part de très haut, quand même.

  • [^] # Re: petite question

    Posté par  . En réponse au journal Des virus et des hommes. Évalué à 4.

    C'est juste une hypothèse, mais je pense que ça peut avoir un lien avec le temps qu'il faut au système immunitaire pour mettre en place une réponse spécifique (multiplication des lymphocytes); en général, on dit trois jours. En première approximation, l'amplification du virus dans l'organisme est exponentielle, et il va donc falloir un certain temps pour que le nombre de virus présent puisse commencer à être problématique. Si on est contaminé par une poignée de virus, cette première phase va durer longtemps, peut-être suffisamment longtemps pour que le système immunitaire soit prêt quand il commence à y avoir beaucoup de virus. Par contre, si on est contaminé par des millions de virus d'un coup, les premières étapes de cette croissance exponentielle sont sautées, et ça peut faire «perdre» les heures ou les jours qu'il aurait fallu pour avoir une réponse immunitaire efficace.

    Après, il est possible que le mécanisme soit complètement différent et plus subtil.

  • [^] # Re: Du ramdam pour une grippe un peu violente

    Posté par  . En réponse au journal Des virus et des hommes. Évalué à 5.

    Bah du coup, ça colle, non? Dans les 5% de contaminés en moyenne pour une maladie qui a un R0 de 1.3 et un taux de susceptibilité de 10%, c'est dans l'épaisseur du trait, plus ou moins. J'ai cité le chiffre de mémoire, il me semble que 90% de la population présente des anticorps contre influenza (je ne me rappelle plus si c'est seulement contre la grippe A ou contre n'importe quel influenza). Après, on peut être contaminé même si on a des anticorps, on peut ne pas être malade même si on n'en a pas, il y a toute une palette de possibilités. On peut aussi avoir des anticorps contre une souche grippale qui ne circule pas, mais qui protègent partiellement de la souche qui circule…

    De toutes manières, l'idée, c'est que la grippe arrive dans un contexte où la majorité de la population a des défenses immunitaires, alors que le coronavirus arrive dans une population "vierge" qui ne connait pas le virus. C'est pour ça qu'il peut y avoir beaucoup, beaucoup plus de malades, et que la contagion peut aller beaucoup plus vite.

  • [^] # Re: Du ramdam pour une grippe un peu violente

    Posté par  . En réponse au journal Des virus et des hommes. Évalué à 10.

    De mon humble avis seul quelques malchanceux mourront

    Alors déja, ton humble avis, il ne vaut que ce qu'il vaut, n'est-ce pas. Ensuite, en extrapolant ce qu'on connait du virus à la population française, on arriverait à plusieurs centaines de milliers de morts prématurées (pour info, il y a entre 500 000 et 600 000 morts en France chaque année; on part donc sur le même ordre de grandeur). Bien sûr, l'épidémie peut ralentir, bien sûr, on a pu mal évaluer les taux de mortalité, et bien sûr, une partie des personnes qui mourront du coronavirus seraient mortes d'autre chose dans l'année, mais c'est profondément débile, dans l'état actuel des connaissances, de prédire que "quelques malchanceux mourront". Tel que c'est parti, des dizaines ou des centaines de milliers de gens vont mourir de ce virus en France, et des millions dans le monde (ah oui, pardon, les gens qui sont pauvres et qui vivent dans des coins sans infrastructures médicales, ce sont des malchanceux).

    une grippe un peu violente

    Non.
    * Ce n'est pas la grippe (c'est aussi bête que ça: la grippe est une maladie provoquée par un virus influenza, donc non, scientifiquement, ce n'est pas la grippe).
    * Il existe un vaccin contre la grippe, pas contre le coronavirus
    * La population est bien immunisée contre la grippe (moins de 10% des gens sont susceptibles), du fait de la vaccination et des infections précédentes. Le taux d'immunité au coronavirus est d'environ 0%. Ça fait une énorme différence
    * 2% de mortalité, c'est 20 fois plus que la grippe.

    Donc au final, 10 fois plus de personnes malades et 20 fois plus de mortalité, ça fait 200 fois plus de morts. Dans l'hypothèse où le système de santé tienne le coup. Parce que si les hopitaux sont dépassés et que les gens commencent à mourir chez eux sans assistance respiratoire, on va peut-être devoir revenir sur les 2% de mortalité…

  • [^] # Re: Typo et autres stats

    Posté par  . En réponse au message Covid-19 - Inquiétant ou pas ?. Évalué à 5.

    Le grippe "normale", elle est mondiale aussi chaque année

    Oui, à peu de choses près, mais elle s'est saisonnière (et problématique) que dans les zones tempérées. Le virus est sensible à la température, au delà de 20°C c'est beaucoup plus dur pour lui.

    C'est la même souche qui tape dans le monde entier

    Oui et non, c'est étonnant, la grippe circule dans l'hémisphère sud quand c'est l'été chez nous, et vice-versa. En général, on peut «prédire» quelle souche sévira l'hiver suivant en regardant ce qui traine dans le sud, ou bien en scrutant la Russie, qui a un hiver qui commence plus tôt. Ça n'est pas non plus une science exacte, et parfois la composition du vaccin est ratée.

    Par contre, il y a les souches A (les plus dangereuses), qui émergent parfois à partir de souches animales, la grippe B ne cause pas trop de grosses épidémies, et la grippe C ne donne qu'une sorte de rhume. Les vaccins contiennent un cocktail de A et de B, en fonction du pifomètre des experts au moment où il faut produire le vaccin.

    Elle se diffuse de la même manière

    J'ai l'impression que ça ressemble pas mal. En particulier, le SRAS (déja un coronavirus) d'il y a 10 ans filait la diaripète et il se transmettait… de cette manière, quoi, alors que le covid semble ne se refiler que par les postillons.

  • [^] # Re: Contagieux, sûrement, inquiétant, cela dépend

    Posté par  . En réponse au message Covid-19 - Inquiétant ou pas ?. Évalué à 5.

    Le taux de mortalité est quand même autour de 20x plus pour Covid19 que pour la grippe saisonnière. Donc oui, majoritairement des personnes âgées ou fragiles, mais plus de 15% de mortalité chez les plus de 80 ans, c'est assez glauque. Une épidémie dans une maison de retraite, et il va y avoir des lits bien vite libérés. C'est très Trumpien, l'argument de dire que ça n'est pas un problème pour les gens en bonne santé. Les gens en mauvaise santé ont aussi le droit de vivre quelques années de plus, hein…

    À rajouter à cela quelques éléments un peu inquiétants:
    * Les enfants ont l'air globalement asymptomatiques, ce qui veut dire qu'ils sont des vecteurs très probables, et c'est le pire des scénarios, parce que les virus circulent très vite dans les écoles.
    * Pour l'instant, aucune preuve (dans un sens ou dans un autre) que le virus va disparaitre avec le printemps, comme le fait la grippe.
    * Il y a très peu de coronavirus chez l'Homme, ce qui fait que notre système immunitaire est vierge, collectivement parlant. En gros, c'est possible qu'on l'attrappe à peu près tous. Bien sûr, on peut être asymptomatiques ou à peine malade (50% des cas positifs, apparemment), mais ça veut aussi dire que rien de va freiner la transmission de l'épidémie. À comparer avec la grippe par exemple, qui se casse les dents chez la plupart des gens (immunité acquise avec une maladie antérieure ou par vaccination).
    * Ça a quand même l'air très contagieux. Les foyers d'infection explosent un peu partout.
    * Il ne faut pas se voiler la face : le virus est déja un peu partout. Aux US, certainement plus qu'ailleurs, c'est sûr que quand on ne teste pas, on ne peut pas savoir…

    Du coup, ça peut très bien se goupiller sans trop de soucis si la chance tourne dans le bon sens (déclin de l'épidémie au printemps, évolution du virus vers des formes moins agressives, traitement antiviral efficace déja existant—pour l'instant, absolument rien n'est avéré --, mise sur le marché d'un vaccin efficace avant fin 2020…). Mais ça peut aussi mal tourner, avec une épidémie exponentielle qui ferait des millions de malades simultanément, avec des hopitaux complètement dépassés et des gens qui meurent chez eux alors qu'ils auraient été sauvés sous assistance respiratoire.

  • [^] # Re: J'ai moinssé

    Posté par  . En réponse au journal Vélib' et open data. Évalué à 5.

    D'autant que ça n'était pas compliqué de faire inclusif sans compliquer la lecture avec des points médians

    Oui, et on peut aussi écrire «les Parisiens», qui incluent les hommes et les femmes habitant Paris selon les règles de grammaire en vigueur dans notre belle langue.

  • # Je ne vois pas où est le problème?

    Posté par  . En réponse au journal Quand l’hôpital se fout de la charité… ou faites ce que je dis mais pas ce que je fais . Évalué à 9.

    Je veux dire, bien sûr que les services secrets font tout pour collecter des informations tout en évitant que les autres pays le fassent. Du coup, c'est complètement logique que les US ne souhaitent pas utiliser les produits vérolés Chinois et encouragent à la fois leurs nationaux et les autres pays du monde à utiliser des produits qu'eux-mêmes contrôlent. Il n'y a rien de paradoxal là-dedans, ils ne disent pas "Honte aux Chinois de faire ça", ils disent "Les produits Chinois sont pleines de backdoor Chinoises, ne les utilisez pas".

    Par contre, je n'ai jamais compris comment un service secret pouvait s'assurer de la fiabilité des informations, parce qu'il semble trivial d'intercepter les paquets et de les remplir avec n'importe quoi pour noyer l'info dans du bruit, non?

  • [^] # Re: Parallèle avec les retraites

    Posté par  . En réponse au lien HOP : loi anti-gaspillage / création d’un indice de réparabilité obligatoire à partir de 2021. Évalué à 3.

    D'une manière générale j'ai l’impression que l'état est schizophrène.

    Dans la mesure où l'État n'est pas une seule personne, c'est sûr que de nombreux avis coexistent, ce qui peut expliquer le manque de cohérence dans l'action publique.

    mais ça ne fais pas gonfler le PIB

    La manière dont on peut parfois présenter la fascination des politiques pour la croissance du PIB est excessive et caricaturale. Notre problème, en tant que société, est d'être shootés collectivement à la croissance du PIB. La seule manière de répondre aux demandes de la société simultanément (emploi, sécurité sociale, services publics, pouvoir d'achat) est de dépendre d'une croissance économique qui s'auto-entretient dans un équilibre fragile (pouvoir d'achat -> croissance -> pouvoir d'achat…) et destructeur à terme. Mais tant qu'on n'acceptera pas de renoncer à quoi que ce soit (par exemple en termes de niveau de vie), je ne vois pas comment on pourrait sortir de cette dépendance.

    Le fait est que la réparation des biens de consommation pourrait être très bénéfique à l'économie : elle permettrait de créer des emplois locaux non-délocalisables (réparation, collecte, recyclage…). Il ne faut pas croire que le seul ressort de la croissance du PIB soit le gachis de ressources, on peut faire croitre le PIB tout en étant écologiquement vertueux.

  • [^] # Re: Parallèle avec les retraites

    Posté par  . En réponse au lien HOP : loi anti-gaspillage / création d’un indice de réparabilité obligatoire à partir de 2021. Évalué à 7. Dernière modification le 04 février 2020 à 09:57.

    Pas certain, ce qui met surtout le bazar, c'est l'irruption dans le débat de trop nombreuses opinions non-fondées techniquement, des deux côtés. Sur un sujet plus technique et plus confidentiel, on peut imaginer que les discussions puissent être plus constructives.

    Comme d'habitude, ce qui pollue les débats ici, ça va rester le lobbying des industriels, qui vont essayer de déconstruire toute avancée en la présentant comme trop coûteuse, impossible à mettre en place, etc. Et c'est les compromis sur de telles questions qui vont rendre impossible l'application de la loi.

    Ceci dit, j'ai des doutes sur les aspects opérationnels des principes de base. Typiquement, la mise à disposition de pièces détachées. Dans les faits, ça va obliger les industriels à fabriquer ces pièces, à les stocker, et à les commercialiser. Comme il va être difficile de prédire la dynamique de ce marché de la réparation, soit on va tomber en panne de pièces, soit il va y en avoir beaucoup trop (et donc, énorme gachis de matières premières, avec des bennes pleines de pièces neuves au bout de 5 ans). Fabriquer ces pièces et les stocker va coûter très cher, si les pièces sont facturées au prix coûtant, elles vont être plus chères que la valeur de l'appareil (et si on ajoute le coût de la réparation par un professionnel…). L'idéal serait de répercuter ce prix sur les appareils neufs, mais quel serait le modèle économique derrière la réparation?

    Typiquement, en informatique, il serait idiot d'imposer la mise à disposition de pièces détachées à l'identique. Si tu fais remplacer ta RAM ou ton disque dur au bout de 4 ans, mieux vaut un modèle plus récent qu'une pièce qui a 4 ans.

    Au delà de la loi, sans modèle économique, on risque de tout mettre en place pour la réparation sans que personne ne fasse réparer quoi que ce soit.

    Une possibilité serait de favoriser l'implantation de commerces de proximité offrant ces services de réparation, en mode "low cost", avec derrière de la débrouille, du recyclage, de l'impression 3D… ça demanderait certainement d'assouplir le droit de brevets et le droit des marques, d'imposer de l'interopérabilité entre les produits de marques différentes, des contrôles pour éviter les terrains vagues remplis de machines qui rouillent… un gros chantier.

  • [^] # Re: Un billard

    Posté par  . En réponse au journal Procrastiner mieux !. Évalué à 10.

    Ouais, ça sent aussi le biais du survivant à plein nez. Combien de personnes ruinées par des investissements foireux pour une qui a la chance de réussir, et qui pourra raconter à tout le monde qu'il faut se lancer dans n'importe quoi sans réfléchir puisque c'est cette stratégie qui lui a apporté gloire et réussite?