arnaudus a écrit 4566 commentaires

  • [^] # Re: .

    Posté par  . En réponse au message Problème de communication. Évalué à 10.

    Je suis en train de faire un système d'exploitation (libre) (seulement un hobby, ne sera pas grand et professionnel comme gnu) pour clones AT 386(486). Mais je me suis aperçu que ça avait déja été fait, donc je me suis ravisé…

  • [^] # Re: le bon coin

    Posté par  . En réponse à la dépêche Weboob atteint la maturité. Évalué à -3.

    Je ne sais pas trop ce que tu appelles "sécurité des données" ; s'il ne s'agit que d'opérations légitimes pour l'utilisateur (y compris supprimer ses données ou vider son compte en banque), je ne vois pas comment tu peux l'empêcher de demander n'importe quoi au serveur. Les sécurités dont on parle ne sont que des interfaces pour éviter les erreurs humaines ("êtes-vous sûr de vouloir transférer 14500€ à "Grand-mère""?), pas des vérifications destinées à protéger l'intégrité du serveur.

    De manière générale, si un programme (on ne parle plus de site web ou de serveur) te demande : "Voulez-vous afficher le pdf: o/n" et que tu réponds "Ctrl-X-T format -f --all", il ne faut pas s'étonner que le résultats puisse ne pas te plaire.

  • [^] # Re: le bon coin

    Posté par  . En réponse à la dépêche Weboob atteint la maturité. Évalué à -3.

    Ce que tu ne veux pas comprendre, c'est qu'il y a du hTML (et CSS) d'un côté, et un agent de l'autre.

    Mais justement : l'agent lit les balises et en fait ce qu'il veut. Le signifiant des balises est normalisé ; il y a des balises pour l'italique ou pour le gras, et tu en fais ce que tu veux. Mais le navigateur ne s'intéresse absolument pas à ce qu'il y a entre les balises, il n'essaye pas de comprendre ce que tu lis, ou d'en faire une base de données. C'est juste un moteur de rendu.

    Webboob lit le texte entre les balises et essaye d'extraire l'information ; pas pour tous les sites, mais pour un site spécifiquement. Webboob ne fonctionne pas sur les sites inconnus, il ne fonctionne plus si tu changes un truc dans ton site. Il essaye aussi de t'envoyer des informations, en espérant que tu vas pouvoir les comprendre, sans passer par les outils que tu as mis en place pour communiquer avec un être humain. Bref, il n'y a rien de commun entre webboob et un navigateur ; webboob est plus un robot d'indexation spécifique à un site, et qui ne respecte pas les consignes destinées aux robots. À mes yeux, c'est du même niveau que de tracker les internautes "nofollow": c'est une pratique déloyale et illégitime. Ce n'est pas parce que c'est possible (et même facile) techniquement que c'est justifiable.

  • [^] # Re: le bon coin

    Posté par  . En réponse à la dépêche Weboob atteint la maturité. Évalué à -6.

    S'il y a une vérification dans l'interface graphique et que l'utilisateur bypasse l'interface pour mettre son guillement directement dans la requête SQL, alors oui, je pense que le concepteur de l'interface n'est pas responsable de la connerie de l'utilisateur.

    Avec un site à la con (Google, Facebook…), au pire, tu vas bousiller tes données personnelles ou perdre tes mails, tant pis pour toi. Le problème, c'est que quand ton site est ta banque et que tu te retrouves à découvert, tu risques de ne pas assumer tout à fait tes conneries, et tu vas te plaindre que ce n'est pas normal que de remplacer une virgule par un point transfère 100 fois trop de pognon, et que la banque va devoir faire tout un tas de trucs pour rattrapper le coup. Tu pourrais te plaindre si tu utilisais une interface normalisée, mais là, tu ne fais que hacker une interface qui n'est pas du tout prévue pour ça. Ça n'est absolument pas un bug du site.

  • [^] # Re: le bon coin

    Posté par  . En réponse à la dépêche Weboob atteint la maturité. Évalué à -4.

    Effectivement, la différence est grosse : d'un côté, un truc qui te plait, de l'autre un truc qui ne te plait pas mais dont tu n'as pas d'arguments pour expliquer à part "ça fait une différence".

    Il y a toujours une possibilité que j'ai mal expliqué mon point de vue, mais comme il faut la balancer avec l'hypothèse que mes interlocuteurs sont de mauvaise foi, je pense que je ne vais pas réexpliquer en détail.

    D'un côté tu as des logiciels qui parsent du HTML standard, et qui te sortent un rendu standard, éventuellement modifié en fonction de critères génériques (ne pas afficher les bannières de telle taille, blacklister un serveur, etc). De l'autre côté tu as un parser développé exclusivement pour extraire des données de la version actuelle de ton site web—ce n'est pas un parseur de HTML, c'est un parseur de TON site. Aucun standard, aucun protocole de communication ; il se fait passer pour un navigateur, mais il ne sait pas afficher une page HTML.

    Autant que n'importe quel navigateur "normal". Et donc?

    Un navigateur est une sorte de compilateur de code HTML pour le transformer en une interface navigable. Appeler webboob "un navigateur", c'est comme appeler une commande grep avec une regex "un compilateur". C'est incapable de faire quoi que ce soit avec le code, à part extraire une information spécifique selon des règles rigides.

  • [^] # Re: le bon coin

    Posté par  . En réponse à la dépêche Weboob atteint la maturité. Évalué à -5.

    Je suppose que tu surfes sans adblock et que tu lis attentivement chaque publicité.

    Je trouve que ça fait une grosse différence : tu as tout à fait le droit d'afficher ou non les éléments qu'on t'envoie—si tu es sur mobile dans une zone mal couverte, tu peux surfer en mode texte, ou sans les styles, etc. C'est un peu pareil que de lire ton courrier : tu lis tes relevés de compte mais tu balances la pub pourrie qui les accompagne.

    Avec Webboob, le problème, ce n'est pas que tu choisis ce qui est affiché, c'est que tu aspires en gros le contenu du site pour l'intégrer dans une application indépendante. Ça serait par exemple l'équivalent d'une application pour smartphone non-autorisée. Tu ne peux plus parler d'éléments d'affichage, à la limite, tu ne fais que parser une page HTML pour en extraire des infos et constituter une base de données, que tu réutilises ensuite un peu comme tu veux. Tu ne peux pas prétendre que webboob est un navigateur, ça n'est pas un logiciel qui lit et affiche du HTML ; c'est plutôt un logiciel spécifique qui reverse-ingeneer ton site web pour en extraire des bouts de manière ciblée, et éventuellement les afficher dans une interface commune avec celle de tes concurrents. Finalement, ça revient à accéder au contenu de ta base de données sans passer par l'interface que tu fournis. Évidemment, tu peux t'en foutre, mais tu peux aussi très bien ne pas t'en foutre. Par exemple, tu peux rendre l'accès direct à ta base de données payante, alors que la consultation manuelle est gratuite. Tu peux, pour des raisons de performances, limiter le nombre d'éléments affichés. Tu peux vouloir forcer l'utilisateur à suivre certains chemins dans l'interface, parfois même pour des raisons éthiques (par exemple, empêcher le croisement de catégories de recherche comme "homosexuel + juif"). Pour des raisons simplement commerciales, tu peux vouloir afficher d'abord certains produits, et seulement ensuite permettre à l'utilisateur de classer par prix—comme dans les boutiques physiques, c'est ton droit d'imposer à tes clients de passer devant certaines offres avant les autres.

    Je ne suis pas non plus d'accord sur les bugs. Il y a des milliers de raisons de penser que Webboob peut fabriquer des bugs, sans que l'interface ne soit en cause. Par exemple, ton interface peut prévoir un remplissage séquentiel d'un formulaire, et donc que certains champs soient impossibles à remplir dans certaines conditions—si ton truc plante quand ce champ est rempli, ce n'est pas un bug de ta part, à moins que tu considères qu'il faut systématiquement être fool-proof vis-à-vis des erreurs internes. Imagine par exemple que tu as une fonction qui te fait un compte à rebours de 5 secondes avant de valider un virement, fonction qui est ignorée par Webboob, et que du coup, le virement passe deux fois. Est-ce que c'est de ta faute? Tu ne peux pas être responsable d'un bug qui ne serait jamais arrivé si l'utilisateur n'avait pas contrevenu aux conditions d'utilisation du site. Pourtant, en tant qu'établissement bancaire, tu vas être obligé de traiter le problème, et de rembourser le client. Pire, tu risques de devoir modifier ton site pour éviter que ça ne se reproduise, alors qu'encore une fois, ce n'est pas un vrai bug, parce que tu n'autorises pas tes visiteurs à utiliser ton site de cette manière. Je comprends parfaitement qu'une entreprise dépense des ressources pour que ce genre de pratiques soient techniquement impossibles ; par exemple, en faisant varier l'interface aléatoirement entre les visites, ou blacklister les utilisateurs au comportement trop proche de celui d'un robot.

  • [^] # Re: le bon coin

    Posté par  . En réponse à la dépêche Weboob atteint la maturité. Évalué à 1.

    Euh, pas sûr, à moins que ça soit super-clair à l'utilisation (par exemple un pop-up qui s'affiche). $

    De manière générale, on peut vraiment distinguer deux cas. Il y a des sites qu'on visite sans avoir de lien particulier avec l'éditeur : youtube, facebook, etc. Bien sûr, on a un compte là-bas, mais si on se fait gauler à violer les conditions d'utilisation, on se fait bannir, et c'est tout. Mais Webboob propose aussi des services pour lesquels on a un lien juridique réel avec l'entreprise (par exemple, sa banque). Si la banque met des restrictions à l'utilisation d'outils non-autorisés pour accéder aux données bancaires, c'est pour des raisons marketting, mais aussi pour des raisons de sécurité (et même si ça n'était pas vrai, une banque n'aurait absolument aucun mal à prétendre le contraire devant un tribunal). Du coup, un client qui ne respecte pas les conditions d'utilisation du site pourrait avoir de gros problèmes (et si j'étais la banque, je veillerais à ce que de tels clients aient de réels problèmes, parce qu'ils sont une source d'emm*** à n'en plus finir (par exemple, à cause de bugs potentiels dans le logiciel qui peuvent révéler des bugs du site web—virements dupliqués, rafraichissements trop fréquents, requêtes impossibles avec l'interface web…), ou qui contournent des procédures normalisées (par exemple, effectuer automatiquement un virement mensuel n'a pas forcément le même coût pour la banque que la mise en place d'un virement automatique).

    En gros, je trouve que webboob est un mauvais réflexe : celui de tenter de personnaliser un service qui ne nous convient pas sans l'autorisation du fournisseur du service, plutôt que de faire jouer la concurrence. La norme, ça devrait être "si tu n'es pas content, tu vas voir ailleurs". Avec webboob, c'est plutôt "si tu n'es pas content, tu fais comme tu veux quand même". Je n'arrive pas à comprendre cettre attraction morbide pour le rapport de force perpétuel : quand tu conduis, tu es en conflit avec les autres automobilistes, quand tu rentres chez toi, tu es en conflit avec tes voisins qui n'ont pas rentré leur poubelle, quand tu es au taf, tu es en conflit avec ton patron, et maintenant, même quand tu es sur Internet, tu es en conflit avec les fournisseurs des services qui tu utilises? "Moi je", "moi" "moi" "moi" "moi", toujours tout pour sa propre tronche, on tire la couverture à soi, et on le justifie en se disant que les autres sont pareils ou pires? Google est méchant, alors c'est bien de se venger et d'être méchant avec Google? Personnellement, je n'adhère pas. Je trouve ça super malsain.

  • [^] # Re: But de l'exploration spatiale

    Posté par  . En réponse au journal L'astronomie à la portée de tous : Philae. Évalué à 2.

    Ça fait un bout de temps que je n'ai pas suivi les développements récents, mais en coalescence, 30000 ou 15000 c'est pareil (en général, l'erreur est du même ordre de grandeur que l'estimation, surtout pour les évènements anciens). Par contre, d'après Wikipédia, les 2000 individus, c'est une estimation pour une période très ancienne, et je ne sais pas sur quoi elle repose (certainement pas sur les modèles de coalescence traditionnels).

    Il faut aussi voir que, contrairement à ce qui est sous-entendu par l'article de Wikipédia, une taille de population efficace de 15000 ne correspond pas du tout à l'équivalent d'une bourgade de province. On peut facilement multiplier par 5 ou 10 pour avoir le nombre d'individus réel (avec des vieux, des juvéniles, des moches qui ne se reproduisent pas, etc), et ça peut même être beaucoup plus dans des systèmes qui fonctionnent en harem. De manière générale, Ne=15000 ou 30000, c'est très loin de l'extinction ; de nombreuses espèces sont dans une telle situation.

  • [^] # Re: But de l'exploration spatiale

    Posté par  . En réponse au journal L'astronomie à la portée de tous : Philae. Évalué à 5.

    C'est une question intéressante, parce qu'on peut creuser un peu.

    Si on parle d'un point de vue strictement matérialiste et qu'on élimine "magiquement" toute leur descendance, certes, on risque d'avoir un effet. En remontant à l'époque de la grotte de Lascaux (environ 1000 générations), on peut (presque) séparer l'humanité en deux catégories : les gens qui sont des ancêtres de tous les humains actuels, et les gens qui ne sont les ancêtres de personne. Du coup, si on élimine un gusse au pif, soit tout le monde disparait, soit il ne se passe rien.

    Si on s'intéresse à la part de leur génome qu'ils ont laissée, c'est plus mitigé. La taille de population efficace de l'humanité est descendue sous les 30000 à une période de la préhistoire, et en règle générale, elle se situe dans la norme pour les primates, sous les 100000. Ça veut dire quand même que si ces 100000 individus ont contribué équitablement en moyenne au génome d'un individu contemporain, ça ne fait pas lourd : on a environ 30000 gènes différents (en double si on considère un génome diploïde), et pour la plupart des gènes, en désactiver un ne risque pas de changer grand chose (on a tous des centaines de gènes qui ne sont pas fonctionnel, et la plupart du temps, ça ne pose pas de problème particulier).

    Si maintenant on s'intéresse à l'effet statistique (c'est à dire qu'on se fout complètement de leur contribution particulière, mais qu'on imagine qu'ils auraient été remplacés par un autre quidam s'ils avaient été stériles ou morts prématurément), leur contribution ne serait significative que si la "normalité" avait une composante génétique (par "normalité", j'entends la normalité sociale dont on parle, c'est à dire la propension à mener une vie normale sans postérité intellectuelle, et à tenter d'empêcher les autres de faire autrement). On pourrait considérer naïvement qu'en éliminant ces gènes de la population, on aurait actuellement des êtres humains beaucoup plus dynamiques et beaucoup moins contrôlables, qui ne seraient pas écrasés par une masse réactionnaire. Cependant, je doute que ce soit réaliste, j'imagine qu'un équilibre existe dans le partage des rôles. D'une part parce qu'une société ne peut pas supporter une masse trop grande de "non-productifs", parce qu'il faut bien faire manger tout ce petit monde, mais surtout parce que ces "rôles" sociaux sont très probablement une affaire d'opportunités, et qu'il ne peut pas exister de rôles vides.

  • [^] # Re: Gné ?

    Posté par  . En réponse au journal Un agencement de clavier normalisé : bientôt pour la France !. Évalué à 7.

    Exactement le même sentiment. Le mec est véner, et on ne sait même pas contre quoi.

    De manière générale, je trouve super d'avoir des convictions. C'est parfois une erreur de jeunesse, mais c'est "frais", ça change de l'ambiance pessimiste qui règne actuellement. Cependant, c'est pas mal quand même de choisir un peu ses convictions. Donner son temps pour une cause nécessite beaucoup d'énergie, souvent de l'argent, et dans tous les cas nécessite des sacrifices personnels sur ses loisirs, son entourage, etc. J'ai beaucoup de respect pour les gens qui militent pour les droits de l'homme, pour la liberté d'expression, pour la liberté de la presse, pour le respect de l'environnement, etc. Mais là, on nous propose en gros de se mobiliser pour changer (ou ne pas changer, je n'ai rien compris) l'emplacement des lettres sur le clavier? Genre, on va devoir aller cramer des voitures pour que le A soit à côté du Z?

  • [^] # Re: But de l'exploration spatiale

    Posté par  . En réponse au journal L'astronomie à la portée de tous : Philae. Évalué à 10.

    On vit dans une société où tout doit être justifié, et maintenant, tout doit être justifié en matière de pognon. L'éducation doit permettre de former de futurs cadres et chefs d'entreprises innovantes qui assureront la croissance, la culture sert à exporter notre industrie du divertissement et améliorer la balance du commerce extérieur, etc.

    On s'en fout des retombées de la recherche scientifique sur l'innovation, sur la croissance, ou sur les profits du secteur de la finance. En tant qu'être humain, vaut-il mieux acheter un iPhone fabriqué par des enfants chinois ou contribuer à envoyer un robot sur une comète? L'exploration spatiale, c'est cool, et c'est parce qu'on accepte de dépenser une partie ridicule de notre richesse pour financer ce genre de projets que l'humanité est un truc à part dans le monde vivant.

    Le mec qui a peint la grotte de Lascaux, je suis sûr qu'il a dû se défendre face à des guignols de sa tribu, qui trouvaient qu'il ferait mieux de chasser le mammouth. Mais quand on regarde en arrière, les guignols, on n'a plus aucune trace de leur misérable existance : ils sont nés, ils ont consommé, ils sont morts. Ils n'auraient pas existé, ça n'aurait rien changé.

  • [^] # Re: rue89

    Posté par  . En réponse au journal "Comment les multinationales (y compris françaises) font de l’évasion fiscale au Luxembourg". Évalué à 10. Dernière modification le 06 novembre 2014 à 13:28.

    le lecteur naïf se demandera peut-être pourquoi les Etats européens victimes des pratiques luxembourgeoises ont précisément nommé Juncker à la Commission.

    Objectivement, c'est quand même plus compliqué que ça. Pour la première fois, le président de la Commission est le représentant officiel du parti majoritaire au Parlement. C'est un accord entre les différents partis avant les élections Européennes, et c'est un progrès pour la démocratie. D'ailleurs, pas mal d'États ont mangé leur chapeau, et ils n'ont nommé Juncker qu'à reculons.

    La question retombe donc sur la légitimité de Juncker comme tête de file du PPE. Et là, en Europe, on a exactement le même problème qu'en France : on n'arrive pas à trouver des représentants légitimes des partis qui seraient aussi de bons représentants du peuple. Quelque part, c'est assez logique : ce qui fait qu'on est un bon chef de parti n'est pas du tout la même chose que d'être un bon chef d'État. Pire, les partis ne brillent généralement ni par la transparence de leurs élections internes, ni par la clarté des stratégies de leurs dirigeants ; bref, le gars qui sort du lot est nécessairement un magouilleur, un «politique» au sens le plus négatif, et souvent aussi un menteur et traitre sans foi ni loi, qui a réussi à fomenter des alliances contre-nature, au prix d'ailleurs de promesses de retour d'asensceur qui ne feront que plomber ses mandants démocratiques. Du coup, aux élections démocratiques, on se retrouve à choisir entre la peste et le choléra. Les gusses honnêtes, dévoués, et modérés, ils n'arrivent jamais à franchir les derniers échelons.

  • [^] # Re: Un autre modèle

    Posté par  . En réponse à la dépêche L’Académie des sciences française prétend vouloir l’ouverture des publications scientifiques. Évalué à 2. Dernière modification le 03 novembre 2014 à 17:12.

    Un article coûte, tout compris, en moyenne 300$ à un éditeur.

    1. PLoS est le plus mauvais éditeur du monde (tout en étant un des premiers du marché) et a des coûts de production 400% supérieurs aux autres éditeurs
    2. PLoS publie des comptes faux, et 75% de leurs coûts dans leur bilan sont fictifs
    3. Tu sors ton chiffre de ton slip

    J'hésite, j'hésite… Serait-ce possible que quelqu'un qui crée un compte juste pour participer à une discussion qui n'a rien à voir avec le logiciel libre ne soit en fait pas intéressé par un échange honnête d'arguments?

    Tu sais, les gens qui sont persuadés d'avoir raison sont aussi ceux qui pensent le moins avoir besoin de se renseigner avant de recopier une information. De là à dire que les gens persuadés d'avoir raison sont, en réalité, ceux qui ont le plus souvent tort, il n'y a qu'un pas…

    Sur le fond, c'est complètement contre-productif de raconter n'importe quoi et de prétendre que certains éditeurs font des marges de 2000% (sic: deux mille pourcents, vendre à 6000$ quelque chose dont le coût est de 300$) : le problème des marges de l'édition scientifique (supérieures à 30%) est un réel problème en tant que tel! La réalité, c'est qu'en moyenne, les éditeurs facturent dans les 1500$ un service qui peut être évalué à 1200$ ce qui reste (plus ou moins) les mêmes marges que dans le modèle "traditionnel".

  • [^] # Re: Un autre modèle

    Posté par  . En réponse à la dépêche L’Académie des sciences française prétend vouloir l’ouverture des publications scientifiques. Évalué à 2.

    PLoS est une association à but non lucratif, et publient leurs comptes : "http://www.plos.org/wp-content/uploads/2014/09/2013-2014-Progress-Update-financial-page.gif". A priori, ils n'ont aucune raison de mentir, on peut donc se baser sur leurs chiffres pour estimer le cout d'une publication "open access". En 2013, PLoS a publié 34000 articles ; ils rapportent des coûts de publication de 29.6 M$, soit 871$/article. Ils ont aussi des frais de gestion, qui ne sont probablement pas proportionnels au nombre d'articles : 7.4M$, soit 218$ par article, mais on peut imaginer que ça peut être plus pour une organisation plus petite. Au total, leur prix de revient est donc de 1089$/article. Ce prix représent 90% du prix demandé, puisqu'ils rapportent 10% de divers discounts (pays pauvres, équipes peu financées, etc). On peut donc s'attendre à payer 1200$/article : c'est le coût d'un papier sans marges et sans bénéfices.

    D'après mon expérience, le coût moyen d'un article en OpenAccess tourne aux alentours de 1500$ pour une soumission spontanée, et moins que ça (parfois moins de 1000$) pour les articles invités, les reviews, etc. Globalement, c'est le "bon" ordre de grandeur. Il est clair qu'au dessus de 1500€, ça commence à être cher, et qu'au dessus encore, c'est de l'arnaque. Mais qui paye autant? Les éditeurs peuvent afficher les prix qu'ils veulent (personnellement, 6000$, je n'ai jamais vu), mais si personne ne publie dans ces journaux, ça ne coûte rien à la communauté.

  • [^] # Re: Un peu de lecture sur le sujet

    Posté par  . En réponse à la dépêche L’Académie des sciences française prétend vouloir l’ouverture des publications scientifiques. Évalué à 3.

    Ça change que les études non-reproductibles ont quand même coûté leur part de l’argent public alloué à la recherche.

    Le problème, c'est qu'il n'y a aucun moyen de savoir à l'avance si une manip est reproductible ou pas. Bien sûr, tu peux imaginer que certaines personnes savent que leurs résultats sont bancals mais publient quand même, mais il ne faut pas non plus sous-estimer l'éthique et l'estime de soi des scientifiques : presque tous les articles scientifiques sont publiés de bonne foi.

    La plupart du temps, la non-reproductibilité est due à des facteurs qui sont difficilement contrôlables : effet spécifique de l'échantillon, problème technique non-détecté, conditions très difficiles à reproduire, matériel "maison", expertise de l'expérimentateur, etc. ou simplement la malchance, comme l'obtention d'un résultat qui passe le seuil de signification statistique.

    Du coup, la seule manière de s'assurer de la reproductibilité, ça serait de répliquer la manip dans un autre laboratoire, par un autre expérimentateur. Et là, si tu es logique avec toi-même, tu devrais dire que la réplication inutile d'expériences concluantes a couté de l'argent public alloué à la recherche, avec lequel tu aurais pu faire d'autres expériences et avancer plus vite. Dans le même temps, il est d'ailleurs probable que des concurrents aient avancé plus vite, car ils n'ont pas vérifié les choses 50 fois.

    D'ailleurs, il y a quelque chose qui est non-dit dans ces histoires de non-reproductibilité : je pense que la très grande majorité des cas sont des exemples de "semi-reproductibilité", je veux dire par là des manips qui sont techniquement reproductibles (on prend les mêmes échantillons, le même matériel, au même endroit, et on peut répliquer les résultats), mais qui sont spécifiques à l'expérimentation (par exemple, qui ne fonctionnement plus avec d'autres échantillons). Et je ne vois pas pourquoi on blâmerait les scientifiques pour de telles affaires ; c'est le processus normal des avancées scientifiques : on infirme ou confirme des hypothèses sur la base de faits ; parfois on se trompe, alors on revient en arrière, et on recommence. Le côté malsain, il est apporté par la volonté d'arriver à un objectif démesuré (guérir le cancer) le plus rapidement possible, avec un budget rikiki. Tu n'obtiendras jamais d'argent si tu expliques que tu as besoin d'un 1M€ pour vérifier qu'une molécule a un effet sur une souche de bactérie, puis un autre M€ pour vérifier si c'est aussi efficace contre d'autres bactéries de la même espèce, puis un autre M€ pour regarder si ça touche plusieurs espèces, puis un autre M€ pour regarder les sources pathogènes, puis encore un pour les souches résistantes… Tu vends ton truc en disant que tu vas tester l'étape 1 (puisque de toutes manières tu n'auras qu'un M€), et tu extrapoles. Et quand tu extrapoles, tu te goures, évidemment, mais c'est normal, parce qu'on ne t'a donné le temps et l'argent seulement pour la première étape.

    Va donc essayer d’obtenir des financements pour uniquement reproduire un résultat déjà publié

    En pratique, les gens le font, mais ils ne publient pas la vérification. C'est indispensable quand tes résultats se basent sur des résultats précédents : tu es obligé de reproduire la première étape, et en faisant ça, tu vois bien si c'est reproductible. D'une manière un peu plus générale, c'est aussi vrai que même en période de vaches maigres, les scientifiques restent des gens curieux. Quand quelqu'un publie que les poils du cul des marmottes deviennent bleus quand tu les nourris avec de la noix de coco et que tu es spécialiste des marmottes, tu vas isoler une marmotte et lui donner de la noix de coco, pour voir. Évidemment, la taille d'échantillon et la qualité du contrôle expérimental sera moins bon que dans l'expérience originale, mais tu pourras dire à tes collègues "oui oui, j'ai essayé, mais il faut beaucoup plus de noix de coco que ce qu'ils indiquent dans l'article". Il y a aussi beaucoup de gens qui ont essayé tout plein de trucs sans réussir, et qui vont donner leur opinion : est-ce crédible, est-ce contraire à leur expérience, etc. Bref, tout ne passe pas nécessairement par les publications, ni par une réplication parfaite des expériences.

  • [^] # Re: Un peu de lecture sur le sujet

    Posté par  . En réponse à la dépêche L’Académie des sciences française prétend vouloir l’ouverture des publications scientifiques. Évalué à 2.

    Quelles belles excuses pour justifier des résultats que personne n’arrive à reproduire en dehors du labo d’origine…

    Aussi bête que ça puisse paraitre, ça n'a presque aucune importante. Les résultats importants sont reproduits, et on s'aperçoit rapidement s'ils ne tiennent pas. Les résultats pas importants tombent dans l'oubli, qu'ils soient reproductibles ou non ne change rien.

    On vit à l'époque ou toute critique doit être manichéenne. Y-a-t'il des problèmes méthodologiques avec les pratiques scientifiques actuelles? Oui, forcément. Est-ce nouveau? Absolument pas. Je pense que le niveau des publications scientifiques et leur reproductibilité n'a jamais été aussi élevée. Il suffit de se plonger dans les journaux scientifiques des décennies passées pour se rendre compte à quel point ce qu'on reproche aujourd'hui aux pratiques scientifiques a toujours existé. Faibles échantillions? C'est une conséquence intrinsèque des limites de la pratique expérimentale. Biais de publication? Ça a toujours existé, la seule chose qui a changé est que maintenant les gens sont au courant, les éditeurs, les reviewers, et les auteurs font plus attention. Seuil statistique arbitraire? Là encore, les méthodes ont progressé ; plus moyen de publier sans corriger les tests multiples ou utiliser les taux de faux positifs à la place des p-values. Fraude? C'est inévitable dans toute activité humaine ; le taux de fraude repérée augmente, mais il reste très marginal, et les gens sont de plus en plus conscients du risque. Tout ça démontre que la méthodologie scientifique continue à progresser.

    Les principales plaies du système actuel sont le mode de financement, qui sélectionne les expériences peu originales ou convenues au détriment des nouvelles questions et qui génèrent des conflits d'intérêt, et le mode d'évaluation, qui privilégie des indicateurs quantitatifs (nombre d'articles et impact) plutôt que qualitatifs.

    Et ceux qui prétendent expliquer aux autres qu’ils doivent se méfier d’un type dont ils viennent à peine de découvrir l’existence, tu t’en méfies aussi ?

    Je connais le gusse depuis son buzz précédent qui prétendait que 85% de la recherche publiée était fausse—à mon avis, une belle mise en abîme. C'est profondément fallacieux—lisez le papier! Le gars joue avec des titres raccolleurs et les journalistes, mais c'est complètement creux. Il est strictement impossible de tirer des conclusions aussi générales sur la reproductibilité des résultats scientifiques sans mettre les mains dans le cambouis: tu te mets à la paillasse et tu essayes de reproduire les manips. C'est sûr, ça prend plus de temps que de publier des calculs crayonnés sur un bout de serviette!

  • [^] # Re: Un peu de lecture sur le sujet

    Posté par  . En réponse à la dépêche L’Académie des sciences française prétend vouloir l’ouverture des publications scientifiques. Évalué à 5.

    J'ai lu l'article (le vrai, pas celui du Monde), et je trouve gonflé de publier un article de merde pour critiquer le travail scientifique des autres :-) Ce gars-là (J. Ioannidis) est quand même un gros troll velu ; son raisonnement ne vaut que pour quelques domaines très particuliers (comme par exemple les analyses biomédicales) sur des sujets qui sont très proches de l'ingénierie (protocoles standardisés, …). Le raisonnement est dangereux, car il assimile la recherche scientifique à un procédé industriel : il faut rationnaliser les coûts, regrouper les échantillons, etc. Mais c'est profondément débile, parce que la plupart de la recherche est, et doit rester, artisanale. La plupart des chercheurs se posent des questions originales, utilisent des méthodes uniques ou personnalisées, à partir d'échantillons uniques, etc. Ioannidis se plie à un exercice un peu ridicule, qui consiste à critiquer le travail de ses collègues sur des bases purement statistiques, et de prôner une recherche aseptisée qui fonctionne comme un processus industriel.

    De manière générale, il faut se méfier des mecs qui prétendent expliquer aux autres comment faire leur travail correctement. C'est pareil que ceux qui donnent des leçons de "beau code", ou les politiques de l'opposition qui savent mieux que tout le monde ce que le gouvernement devrait faire. Si le gars avait un secret pour faire de la bonne recherche alors que 85% de la recherche publiée est de la merde (selon lui), bah il devrait le faire plutôt que de donner des leçons aux autres.

  • [^] # Re: Un autre modèle

    Posté par  . En réponse à la dépêche L’Académie des sciences française prétend vouloir l’ouverture des publications scientifiques. Évalué à 10.

    Et c'est tout.

    Et c'est faux, surtout.

    La qualité des documents fournis par les chercheurs peut être carrément douteuse. Je le vois assez régulièrement en reviewant des articles ; figures pixellisées, typographie incohérente, logiciels folkloriques (genre MS Word version Pologne 2001 sur un Windows en coréen)… Dans mon domaine, seuls peu d'articles sont soumis en Latex, et de toutes manières, recompiler un document Latex n'est jamais de tout repos, surtout quand les styles sont mal utilisés, des macros personnelles partout, etc. Au miniumu, même l'éditeur le plus merdique du monde va devoir se refaire la totalité de la mise en page (typographie des titres, sous-titres, etc—vous n'allez pas croire que les gens utilisent les styles correctement, quand même?), la totalité de la bibliographie (mise en page des références, cohérence entre les références et les appels dans le texte, etc), le redimentionnement et l'édition d'une grande partie des figures, la réédition de tous les tableaux. Il faut ensuite passer au style du journal (plusieurs colonnes, etc) et gérer à la main les erreurs (coupures de fin de lignes, dépassements dans les marges). Les éditeurs bas de gamme s'arrêtent là. Le reste attaque le texte : cohérence des formules, de l'utilisation de l'italique, et surtout, correction des fautes de frappe, de ponctuation, de grammaire. D'après mon expérience, au moins 50% des éditeurs revoient correctement le texte de manière technique. Ça se voit d'ailleurs au moment de la correction des épreuves, où l'éditeur peut avoir des suggestions du style "peut-on couper ce paragraphe ici", ou "la variable x_i est notée x(i) dans l'équation (2)".

    Dernièrement, j'ai découvert un éditeur qui ne prend que les pdf en entrée. Je ne sais pas comment il fait pour remettre tout ça dans le style du journal, j'imagine qu'il dispose d'un certain nombre de logiciels professionnels pour parser plus ou moins automatiquement un pdf, mais je ne peux pas croire que ce genre d'opérations ne nécessitent pas une main d'œuvre qualifiée pendant plusieurs heures.

    Donc non, c'est carrément faux de prétendre que les éditeurs publient le pdf des auteurs directement sur leur site web. La très grande majorité des journaux, et en particulier les journaux de premier plan, vont même jusqu'à éditer le texte de manière parfois assez intrusive. Et étant moi-même une sorte de nazi de la typographie et des figures vectorielles, je n'imagine pas la quantité de boulot avec les auteurs qui n'ont jamais utilisé autre chose que ms Word pour écrire leur prose.

    Là, ou je comprends mal la phrase, ou c'est une méconnaissance complète du sujet

    Vous n'avez surtout pas lu de quoi je parlais. Je parlais de la publication OpenAccess. L'ancien système se meurt, on ne va pas non plus parler des plombes sur un cadavre. C'est bien l'ancien système qui permettait des profits monstrueux. Avec la publication OpenAccess, les profits sont nécessairement limités, puisque la seule variable possible à optimiser est les frais de publication, qui sont réellement pris en compte lors de la soumission d'un article. Or, il existe sur ce plan là une concurrence réelle, puisque les différents éditeurs proposent des prix entre 700 et 2000€, en gros. Dans mon message précédent, j'ai essayé de démontrer que pour un éditeur honnête, ces frais ne sont pas démesurés, et qu'ils correspondent à l'ordre de grandeur du coût réel.

    Les choses contre lesquelles il faut lutter, c'est

    1) La mort lente du monde de l'édition traditionnelle, qui va nécessairement étouffer faute de lecteurs, et donc de citations. La seule chose qui la maintient en vie, c'est que les budgets sont actuellement si serrés dans les labos qu'on n'a pas forcément l'argent pour payer les 1500€ de la revue Open Access. Le plus con, c'est que c'est juste un transfert de budget ; il suffirait d'arrêter les abonnements pour transférer l'argent vers les frais de publication. Mais avec l'administration, tout est tellement compliqué…

    2) Les prix démentiels pour les quelques journaux existant, qui nécessitent encore un abonnement.

    3) Les options "open access", qui consistent à faire payer très cher (souvent > 3000€) à l'auteur pour publier en open access dans une revue "traditionnelle". C'est idiot à plusieurs titres, d'une part, c'est trop cher (quitte à publier en open access, autant viser directement une revue qui ne fait que ça), et en plus, ça revient à faire payer deux fois, puisque le lecteur paye son abonnement, et que le coût de l'abonnement ne diminue pas si certains articles sont disponibles gratuitement.

    4) L'open access "poubelle", inévitable dans un monde où on paye pour publier. Tous les éditeurs Open Access ont un ou deux journaux fourre-tout où on peut faire passer à peu près n'importe quoi, ce qui décridibilise l'édition scientifique (mais j'ai peur que ça soit une conséquence inévitable du système. Ça n'est pas si grave si la faible qualité de ces journaux est prise en compte lors de l'évaluation de la qualité des recherches).

    5) Les éditeurs open access "prédateurs", qui voient dans ce modèle une bonne manière de se faire du pognon en surfant sur la naïveté de certains chercheurs. Les emails d'invitation sont des scams, des méthodes déloyales sont mises en place pour attirer les contributions dans des journaux pourris (par exemple avec des noms de journaux très proches des journaux de référence), etc. Il y en a même qui utilisent des noms de sommités dans leur editorial board sans les avoir contactées! Tout ça est du ressort de l'arnaque, ça ne concerne qu'une faible fraction des articles scientifiques, de toutes manières, mais ça entâche la réputation de la publication Open Access.

    Pour revenir à la discussion initiale, il existe plusieurs éditeurs OpenAccess qui sont des fondations, des associations, ou des organismes non-lucratifs. D'autres sont des acteurs de la recherche déja bien installés (par exemple, BioMedCentral, qui fournissait déja des bases de données bibliographiques). Les édtieurs traditionnels (Springer, Elsevier, Blackwell…) sont plutôt à la ramasse sur l'Open Access. Bref, l'Open Access a quand même beaucoup d'avantages : coûts de publication contrôlés et raisonnables, aspect éthique (pas de transfert de copyright, résultats disponibles pour tout le monde…), et modèle économique beaucoup plus sain que les éditeurs traditionnels.

  • [^] # Re: Un autre modèle

    Posté par  . En réponse à la dépêche L’Académie des sciences française prétend vouloir l’ouverture des publications scientifiques. Évalué à 8. Dernière modification le 30 octobre 2014 à 15:00.

    Objectivement, la publication d'un journal scientifique demande quand même une certaine quantité de travail "ingrat", qui n'est pas valorisable par des chercheurs, comme le sont les rôles d'éditeur et de reviewer. On peut citer (i) l'assistance technique (soumission de gros fichiers, problèmes de compilation Latex, etc), (ii) le boulot de composition et de PAO, (iii) le boulot de marketting et de référencement, etc. En gros, il y a besoin, en plus du staff scientifique, d'au moins trois personnes : un secrétaire/gestionnaire/assistant de direction, un ingénieur IT, et une personne qui peut faire la composition et la com. Bien sûr, ces moyens peuvent être mutualisés et l'équipe peut publier plusieurs journaux, même si la quantité reste limitée—je ne pense pas qu'une équipe comme celle-la puisse publier plus de 20 articles par mois au total. En terme de coût total, on est dans les 12 k€ en masse salariale en étant radin, si on compte le loyer pour les locaux et les charges (y compris la location du serveur et la bande passante + solutions de sauvegarde), on ne va pas se retrouver loin des 1000€ par article HT : on est bien dans l'ordre de grandeur des frais de publication "standard". Et ça, c'est dans une optique non lucrative. Baisser les couts ne pourrait se faire qu'en rognant sur la qualité, par exemple en ne relisant pas les articles.

    Bien sûr, les gros organismes de recherche pourraient couvrir de tels frais, on pourrait avoir des revues CNRS, INRA, INSERM, etc. Cependant, ça poserait un certain nombre de problèmes ; d'une part, on pourrait avoir des doutes sur la neutralité du procédé (par exemple, les comptes rendus des académies des sciences, quel que soit le pays, est biaisé en faveur des membres "locaux"), et d'autre part, ça reviendrait pour l'État français à couvrir les frais de publication du monde entier. Sans compter les problèmes réglementaires liés à une concurrence directe entre le service public et des entreprises privées.

    Dans l'ensemble, quand on parle de l'écosystème économique autour de la publication scientifique et de l'Open Access, on oublie souvent qu'on peut avoir accès à des données importantes, par exemple le bilan financier des PLoS, qui sont une organisation non-lucrative. Or, les PLoS ont des tarifs parmi les plus élevés du marché (pour une qualité très élevée aussi pour la plupart de leurs journaux), et pourtant, ils ne font pas d'argent. Au final, je pense qu'il est donc important de réaliser que les marges que les éditeurs font sur l'OpenAccess n'ont probablement rien à voir avec les marges qu'ils faisaient dans le modèle traditionnel.

    Pousser des acteurs académiques à organiser leur propre système de publication revient à en faire porter les coûts de manière indirecte sur les labos. Bien sûr, on peut demander au gars qui fait la maintenance informatique de s'occupper à mi-temps du support technique pour le journal, bien sûr, la secrétaire du labo peut aussi faire une partie du boulot, etc. Mais à l'heure où la gestion de l'argent public est au centre du débat politique, c'est un peu étrange de trouver raisonnable de dépenser une quantité d'argent et des ressources humaines de manière détournée pour éviter de payer un service rendu par des entreprises privées, dans des conditions de concurrence relativement honnêtes (contrairement, encore une fois, à la situation qui précédait).

  • [^] # Re: On gagne combien ?

    Posté par  . En réponse au journal rv/hervé : recherche d’itinéraire vélo minimisant l'énergie en utilisant les données d'OSM. Évalué à 2.

    Non non, je n'ai pas essayé, je répondais juste au post précédent!

    De manière générale, j'imagine (peut-être naivement) que l'algorithme revient à peu près au même que de minimiser le temps. Mais je suis tout à fait d'accord pour dire qu'en vélo, surtout en rando, les bosses ne sont pas forcément le plus désagréable!

  • [^] # Re: Bonnes pratiques

    Posté par  . En réponse au journal Pourquoi vous ne devriez pas packager vous-même votre logiciel pour Debian ?. Évalué à 4.

    C'est très discutable pour tout ce qui est artistique. Chacun utilise l'outil qu'il maitrise le mieux.

    On peut aussi regarder ça du point de vue de la licence libre. Le png est au binaire ce que le svg est au code source. Du coup, si tu places ton code sous GPL ou équivalent, tu es censé fournir le code source pour les logiciels, les images, les sons, etc.

    Mais ce n'est pas le problème de la distribution !

    Visiblement, Debian considère que si. Tu ne peux pas reprocher à une distrib de ne pas faire de contrôle qualité : Debian vérifie les licences, la qualité générale du soft (pas de virus ni de malware, le logiciel s'exécute, etc), la conformité avec le règlement (de mémoire, il y avait eu des problèmes avec les jeux de mots débiles de weboob), etc. D'une manière générale, Debian reste concerné par la stabilité du système et la pertinence des logiciels packagés; si un soft pourrit le système parce qu'il est mal codé, c'est quand même le problème de la distribution! D'une manière générale, je pense qu'une distribution ne doit rien aux développeurs ; inclure un logiciel dans Debian, c'est un peu comme inclure un patch dans le noyau ; on peut te demander tout un tas de trucs et finir par dire "non". Tu as le droit de le prendre mal, tu as le droit d'être en désaccord avec la décision, mais si tu as accepté de passer autant de temps à essayer de faire passer ton truc, c'est que tu considères que la qualité du projet fait que ça valait la peine de faire des efforts. Or, cette qualité, c'est justement la raison qui fait que le processus est aussi chiant. À moins d'être complètement schizophrène, je ne vois pas comment tu peux te plaindre de la rigidité d'une projet, que tu as choisi justement du fait de sa qualité.

    Sur le fond, je ne connais pas les tenants et les aboutissants spécifiques des problèmes rencontrés, mais ils me semblent tous aller vers une amélioration de la qualité du logiciel, en privilégiant les solutions générales (réutilisation de bibliothèques existantes, refus de divers bricolages à des fins de portabilité, demande de compilation à partir des vraies sources…). Ça se fait au détriment de la portabilité par contre (notamment en proposant d'utiliser des trucs Debian spécifique), mais ça, j'aurais tendance à dire que ça n'est pas le problème de Debian (ou seulement indirectement, car ils prennent le risque de ne pas pouvoir proposer certains logiciels à leurs utilisateurs).

  • [^] # Re: On gagne combien ?

    Posté par  . En réponse au journal rv/hervé : recherche d’itinéraire vélo minimisant l'énergie en utilisant les données d'OSM. Évalué à 2.

    Par contre dans la vraie vie ça permet de faire moins d'efforts dans plus de 1% des cas ?

    Sur les petits trajets, ça me parait peu probable. Par contre, sur les grandes randos, ça doit être significatif, parce que les détours sont beaucoup moins couteux…

  • [^] # Re: Décalage

    Posté par  . En réponse à la dépêche MicroAlg: langage et environnements pour l’algorithmique. Évalué à 9. Dernière modification le 24 octobre 2014 à 16:47.

    Les élèves comprennent.

    Ils sont à polytechnique, tes élèves? :-) Je doute que beaucoup d'élèves de terminale, même scientifique, pigent le coup de R et Z.

    Le problème de fond, c'est que c'est faux de dire que l'ordinateur ne sait pas faire. La vérité, c'est que le langage demande parfois une conversion explicite, qui est une étape pénible due à la complexité du stockage des données numériques par un ordinateur. Cette complexité ne pourra pas être cachée éternellement, mais elle n'est absolument pas nécessaire à l'apprentissage de la programmation, surtout quand on parle d'approche ludique ou intuitive.

    J'ai l'impression que l'idée, c'est de réduire la taille de la marche intiale, celle qu'il faut escalader pour faire son premier programme, comprendre comment programmer un ordinateur permet de répondre à des besoins. Quand on écoute ce que raconte un informaticien à un public de débutant, on se demande comment il apprendrait à conduire à quelqu'un :

    OK, donc là, tu rentres dans le véhicule, et tu vois tout de suite en bas l'allume-cigare. À côté de l'allume-cigare, il y a les boutons pour ouvrir les vitres (mais ces boutons ne sont pas tout le temps à la même place entre les différentes marques de voiture). Là c'est l'autoradio, les boutons sont en anglais, je vais te les traduire parce que sinon tu ne pourras pas conduire : "Vol" c'est le volume, "Stat 1" c'est la première station, etc. Je t'ai collé des post-its partout. Tiens, plus bas, il y a la pédale d'embrayage. Elle est connectée à un cable, qui arrive à un dispositif constitué d'une butée et d'un disque, qui va frotter sur le volant moteur. Quand tu tires sur le cable, ça déconnecte le disque et le volant moteur. Il faudra faire ça quand tu passeras les vitesses, mais on parlera des vitesses plus tard. Là pour le moment, tu as quand même compris le coup du cable? Non, parce que le cable, c'est comme ça sur tous les modèles. Sauf sur ceux qui ont des vitesses automatiques. C'est beaucoup plus facile et je n'aurais pas eu besoin de t'expliquer tout ça, mais c'est moins pédagogique, tu comprends? De toutes manières, les automatiques ont aussi des boutons pour remonter les vitres. Je t'ai dit que l'allume-cigare servait à brancher des trucs électriques? Non non, on ne peut pas y mettre des clopes. Il est branché sur la batterie. En fait, il y a des gens qui s'en servent pour allumer des clopes, mais ça ne sert pas à ça normalement.

  • [^] # Re: Décalage

    Posté par  . En réponse à la dépêche MicroAlg: langage et environnements pour l’algorithmique. Évalué à 4.

    La notion de type est très très loin d'être une notion technique.

    C'est justement ce que je conteste. La notion de type est une notion technique induite par la manière dont l'ordinateur stocke les données et par l'utilisation que tu peux en faire.

    Pour un débutant, il pourrait n'exister que deux types de données : les nombres et les chaines de caractères. Les booléens sont inutiles, parce que dans du code de débutant, ils sont implicites : aucun débutant de va faire "bool ans = a > 2; if (ans) {…}". À l'adolescence, j'ai codé des années sans tilter qu'on pouvait stocker le résultat d'un test dans une variable, et ça ne m'a pas gêné plus que ça.

    Il ne faut pas prendre le débutant pour un débile. Quand il fait des cin >> pour lire des données entrées au clavier et les stocker dans des variables, il sait très bien qu'il tape les touches "4" et "2" pour rentrer 42, et que c'est le programme qui les transforme en nombre ou en caractères. Et, contrairement à ce qu'on peut prétendre après 10 ans d'expérience en programmation, ça n'a rien de logique. Sur une feuille de papier, "42" et 42 sont conceptuellement exactement identiques. C'est pareil que pour la différence entre un int et un float ; la différence n'existe qu'à cause d'une contrainte technique. La programmation typée crée une différence artificielle entre les deux, et en fonction du langage, le transtypage peut être plus ou moins complexe. Mais je vois ça comme un défaut inhérent à la formalisation d'un programme, ça n'est pas intuitif, et ça n'est pas important pour comprendre la logique d'un programme.

    À mon avis, l'intérêt du typage fort ne saute aux yeux qu'après des années à avoir expérimenté les bugs dus aux ambiguités du typage faible. On demande un password et on n'a pas prévu que l'utilisateur rentre "1234", etc. Mais d'une manière générale, un argument du type "C'est compliqué et ça vous gêne maintenant, mais vous verrez plus tard que c'est important" est un argument très faible ; c'est un argument d'autorité, souvent d'ailleurs employé pour justifier une pédagogie archaïque (apprentissage des instruments de musique, par exemple: fais des gammes pendant 3 ans, et après seulement tu auras le droit de jouer un morceau).

  • [^] # Re: Décalage

    Posté par  . En réponse à la dépêche MicroAlg: langage et environnements pour l’algorithmique. Évalué à 2.

    En fait, je me demande même si des enfants de moins de 10 ans comprennent les structures logiques du langage courant. Est-ce que pour un gamin, la différence entre "tant que" et "jusqu'à" est très nette? Du coup, utiliser des mot-clés qui ne veulent rien dire pour eux n'est peut-être pas plus mal, on n'est pas pollués par une compréhension approximative des concepts en français.

    Je n'ai jamais compris pourquoi le premier cours de programmation était toujours dédié aux structures de contrôle. Il y en a plein qui ne sont presque jamais utilisées (while, do…until, etc), et elles sont presque toutes redondantes.