arnaudus a écrit 5317 commentaires

  • [^] # Re: Outil de transition

    Posté par  . En réponse à la dépêche LyX 1.6.10 et LyX 2.0.0 pour les 15 ans du projet. Évalué à 3.

    Même sentiment. Je dirais, au feeling, un journal sur trois ou quatre propose un style LaTeX, et aucun n'est correct. J'ai déja vu (véridique!) des instructions comme "SVP n'utilisez pas les références croisées" ou "N'utilisez pas \cite pour les références, tapez les à la main"; les "styles" sont des patrons de documents ou le titre est en \big \bf suivi d'un \vspace, puis les auteurs, etc. Pire encore, des instructions non-standard (genre "\insertTrucMonjournal"), qui ne peuvent pas passer la compilation avec un autre style. Bref, des styles Latex pour faire joli, mais totalement inutilisables.

    Pour les thèses et rapports, alors là c'est peanuts. Que dalle, au mieux on a un vieux scan d'une couverture-type, ou on repompe sur la thèse du gusse précédent.

    Je suis un peu envieux de voir qu'il semble exister des universités réellement professionnelles en France, moi de mon temps c'était pas comme ça :-)

  • [^] # Re: Outil de transition

    Posté par  . En réponse à la dépêche LyX 1.6.10 et LyX 2.0.0 pour les 15 ans du projet. Évalué à 1.

    En effet, écrire un document de base en LaTeX n'est pas spécialement difficile, mais très peu de gens souhaitent juste écrire un document en appliquant un style par défaut. Dans un monde idéal, les institutions (journaux, universités...) produiraient des fichiers de style et il serait trivial de les appliquer. Dans le monde réel ce n'est pas le cas, et même un utilisateur "de base" veut parfois changer les marges, les styles des paragraphes, la distance entre les figures et les légendes, bref ces milliers de petits paramètres qui, individuellement, ne sont rien, mais dont on a toujours besoin dans des cas particuliers. Et c'est là que ça devient atroce, parce que la syntaxe des styles LaTeX est archaïque et extrêmement technique (et je ne parle même pas du langage pré-colombien des styles Bibtex). Je pense qu'on ne peut pas vendre un logiciel comme quelque chose qui applique un ou quelques styles de base, et expliquer à l'utilisateur que la personnalisation du document est hors d'atteinte pour lui.

    Je pense qu'on est tous d'accord pour dire que le rendu LaTeX est hors du commun, mais LaTeX souffre aussi de problèmes profonds de conception qui rendent impossible son utilisation générale par le public -- à mon avis, les deux plus importants sont (i) le recours incessant à des paquets externes qui ne sont jamais intégrés à Latex, ce qui pose de vrais problèmes de portabilité, et (ii) des réglages par défaut inadaptés qui peuvent produire des documents qui ne sont pas impeccables (les deux plus choquants pour moi sont la non-utilisation de \sloppy, qui fait que les lignes peuvent dépasser dans la marge, et le fait que les flottants plus larges que la zone de texte ne soient pas centrés, mais on peut en trouver beaucoup d'autres).

  • # Outil de transition

    Posté par  . En réponse à la dépêche LyX 1.6.10 et LyX 2.0.0 pour les 15 ans du projet. Évalué à 8.

    LyX m'a permis il y a pas mal d'années d'adopter LaTeX en facilitant la transition. Avec LyX, on a une interface graphique, on comprend à peu près ce qu'on fait, on édite les formules à la souris (avec un éditeur d'équations bien plus performant que celui d'OpenOffice), etc. Et on commence à ajouter des trucs dans le préambule, des machins dans le texte, des commandes ici ou là pour changer tel et tel comportement... Et on finit par éditer directement le code LaTeX, on n'a plus besoin de LyX.

    Ce que j'ai du mal à comprendre, c'est le positionnement de LyX sur les utilisateurs intermédiaires, les gens assez conscients des défauts typographiques des traitements de texte habituels mais pas assez techniques pour essayer d'utiliser LaTeX. J'ai un peu l'impression que c'est un marché assez petit et transitoire. Après tout, les traitements de texte traditionnels pourraient exporter du LaTeX (d'ailleurs certains le font), ce qui permet l'interface traditionnelle et le rendu LaTeX au prix de petites manips qui pourraient facilement être automatisées. Je regrette finalement que LyX ne soit pas plus un éditeur de LaTeX perfectionné, qui pourrait permettre par exemple à des non-utilisateurs d'ouvrir et de manipuler les documents LaTeX que je leur envoie, et de me retourner du LaTeX correct avec un minimum de modifications. Si (avec des Si HURD serait prêt pour le bureau...) je devais re-concevoir LyX à partir de rien, le changement principal que je ferais serait de n'utiliser que des fichiers LaTeX comme format de document (avec les commandes spécifiques à LyX en commentaires du style %LyX\dothis), plutôt que de générer une sorte de pseudo-latex toto.lyx qui doive être converti avant compilation.

  • [^] # Re: Intéressant, mais ...

    Posté par  . En réponse au journal Comparatif securite entre OOo et MS Office. Évalué à 7.

    Ca me semble une réponse extrêmement pertinente en effet. En théorie, parser un fichier corrompu ne déclence pas nécessairement un plantage bien sûr, mais en pratique, ça veut dire qu'on utilise des portions de code expérimentales, qui ne sont normalement jamais utilisées, avec éventuellement des algorithmes un peu heuristiques pour récupérer le maximum de données dans le fichier. Forcément, ça a un impact sur la stabilité.

    Je ne connais pas grand chose dans les histoires d'import de fichiers binaires, mais j'ai du mal à trouver une justification à l'inclusion en dur d'un tel filtre d'importation dans OpenOffice. Comme ça, au pif, je dirais qu'il est beaucoup plus propre d'appeler un script externe qui convertir le .doc en .odt, puis d'ouvrir le document odt. Et à l'écriture on fait le contraire; ça permet comme ça de "nettoyer" le doc de tout un tas de trucs crades qui s'accumulent au cours du temps, et d'assurer la maitrise des données importées et exportées. C'est vrai que du même coup, on perd toutes les instructions qui ne sont pas comprises par Ooo, mais comment peut-on être certains qu'un fichier modifié qui contient encore ces instructions est lisible par Ms Word? Copier des trucs sans comprendre semble le meilleur moyen de corrompre un fichier.

  • [^] # Re: Ah lala comme on s'emporte...

    Posté par  . En réponse à la dépêche Le CIGREF s'intéresse à la maturité de l'Open Source. Évalué à 4.

    ... en améliorant la qualité des suites propriétaires, bien entendu?

  • [^] # Re: 13h30 d'avance.

    Posté par  . En réponse à la dépêche Sortie de blender 2.57. Évalué à 6.

    Non mais je pense que c'est une vraie question de com' quand même. Communiquer au niveau du nombre de bugs ça ne peut être qu'une vraie idée de geek :-) Une bonne idée pourrait être de parler de la proportion de bugs résolus, du délai moyen entre la soumission d'un bug et sa résolution, ou de la baisse du nombre de bugs ouverts.

  • [^] # Re: En bref

    Posté par  . En réponse au journal Un concurrent pour Voyages-SNCF. Évalué à 4.

    Certes, mais le site propose une boîte de recherche sur un fond blanc. Ça parait quand même jouable de le faire de manière à ce que ça soit utilisable par tous les navigateurs, non? Après, on peut toujours jouer avec HTML5 si on veut, mais il faut se décider, soit c'est un jouet, soit c'est un site web fonctionnel.

  • [^] # Re: En bref

    Posté par  . En réponse au journal Un concurrent pour Voyages-SNCF. Évalué à 4.

    Un support IE9 est en cours de codage.

    C'est complètement con. Choisissez une norme, respectez-la, et laissez les navigateurs se débrouiller avec, c'est leur boulot. L'outil que vos clients utilisent pour visiter votre site, ce n'est pas votre problème (et je dirais, ce n'est même pas vos oignons).

    J'ai du mal à comprendre comment on peut espérer améliorer le service existant en faisant les mêmes erreurs que ses concurrents.

  • # Bug sempiternel

    Posté par  . En réponse au message Firefox et logiciel associé aux fichiers. Évalué à 4.

    Voir https://bugzilla.mozilla.org/show_bug.cgi?id=397700 et tous les bugs associés. C'est le genre de bugs qui semble sans arrêt fixé et qui revient toujours. Apparemment les devs sont pour la plupart sous Windows, et les incohérences des normes et de l'implémentation des normes sous les différents bureaux dispo sous Linux, associées au peu de cas qu'ils font de ce problème, sont l'explication principale du fait que ça ne fonctionne toujours pas.

    Perso, je trouve ça aussi insupportable. Probablement pour des raisons historiques ou pragmatiques, FF arrive avec (1) son propre système de gestion des applications tierces et pire (2) son propre sélecteur d'applications, chose totalement inutile dans la plupart des environnements. Il semble difficile de demander aux devs de supprimer ce truc, il fait partie de FF et ils semble être utile sous Windows (je ne sais pas, je ne pratique pas).

  • [^] # Re: Mais comment?

    Posté par  . En réponse au journal Comment ça marche chez microsoft. Évalué à 8.

    Bah c'est évident qu'il est impossible sans étudier le code de dire si le mauvais fonctionnement d'un soft vient d'un problème de design général ou un problème de code. Si Word décale de deux lignes un paragraphe par rapport au document original réalisé sous Mac, c'est probablement dû aux deux: un problème au niveau du format de fichier merdique (un binaire indéboggable) qui gène les développeurs eux-même, mais aussi la concurrence, et un manque de tests qui fait que l'équipe est passée à côté du bug.

    Bien sûr, tout le monde veut bien croire que les devs MS sont parmi les meilleurs du monde, mais il faut quand même trouver une explication rationnelle au fait que pendant des années, Windows avait un taux de kernel panic plusieurs ordres de grandeurs au dessus d'un noyau Linux (je pense qu'aujourd'hui la différence est moins nette car Windows a progressé de ce côté, et pour Linux bah c'est pas facile de s'améliorer quand on est déja si proche de 0). Pour l'utilisateur final qui paye son produit au prix fort, l'origine de la mauvaise qualité importe peu, et jusqu'à maintenant, il me semble que la meilleure réussite de MS était de convaincre ses clients que les produits défectueux ne l'étaient pas ("ah merde, j'ai vidé la corbeille en même temps que je déplaçais un fichier, c'est de ma faute si le système a planté").

    Bon, OK, il y a un indice. On s'aperçoit fréquemment que les logiciels libres clonant des logiciels proprio ont les mêmes défauts: Open/LibreOffice met toujouts du temps à s'ouvrir et bouge toujours un peu les détails de la mise en page en fonction de milliers de petits trucs (version du soft, options du système etc), Firefox se prend encore un peu les pieds dans le tapis avec les CSS, etc. Si j'étais méchant je dirais que les mauvaises décisions de MS ont aussi nuit aux LL.

    En attendant, la qualité des devs super-méga géniaux et méga-bien payés de MS ne crève pas encore les yeux quand on compare la qualité de leurs produits avec ceux d'Apple, d'Adobe, ou de certains logiciels libres.

  • # Mais comment?

    Posté par  . En réponse au journal Comment ça marche chez microsoft. Évalué à 10.

    La manière dont le gusse décrit le processus de développement semble réellement positive : bien qu'il prétende le contraire, ça ressemble un peu au monde des bisounours ce truc. Il me semble donc logique de se demander d'où vient la piètre qualité légendaire des produits Microsoft (pas de troll dans la question, de nombreux logiciels libres sont aussi de piètre qualité). Je veux bien croire que les problèmes de sécurité et d'instabilité de Windows sont dus à un choix d'architecture du système, mais quid de la suite Office ou d'Internet Explorer par exemple? Comment un système de développement aussi organlisé, avec autant de testeurs et autant d'argent claqué dans l'organisationnel, peut laisser passer des bugs grossiers sur l'ouverture de documents réalisés avec des versions différentes du logiciel, ou des carences gigantesques dans le respect des normes?

  • # Mouais, un peu de contexte ne ferait pas de mal.

    Posté par  . En réponse au journal Store inclus dans Banshee : Canonical revient sur l'accord avec les développeurs. Évalué à 8.

    Je trouve que ce journal et le précédent sont difficilement compréhensibles. On voit bien que le but est de passer un message fin, style "Ah caca pourri Canonical", mais quand on clique sur quelques liens on voit bien vite que c'est nettement plus compliqué que ça.

    Pour une fois qu'un LL génère du pognon, il semble que les grands principes disparaissent dans la nature. Il est évident que le distributeur final du logiciel en fait ce qu'il veut, du moment que la licence est respectée. Le fait est que la notoriété d'Ubuntu risque de décupler la distribution du soft, ce qui fait que tout le monde aurait pu être content; après, les histoires de partage du pognon c'est de la cuisine interne.

    Ceci dit, il semble que Canonical n'ait toujours pas mis au point son business model, ce qui reste relativement inquiétant. Visiblement, pour grapiller quelques milliers de dollars, ils ont terni encore un peu plus leur réputation auprès de la communauté, ce qui pourrait être un bien mauvais calcul.

  • [^] # Re: Hum, hum ...

    Posté par  . En réponse au message Recherche developpeur C/C++ Marseille. Évalué à 3.

    Les c***, ça ose tout, c'est même à ça qu'on les reconnait...

    On trouve des gens comme ça partout: ils ont vendu toute morale et toute éthique au profit d'une réussite fantasmée, et forcément, ils ne peuvent pas supporter les gens qui posent des questions, car ils remettent en cause la base de leur modèle de réussite («je n'avais pas le choix, c'est comme ça que les choses fonctionnent, tu ne comprends pas le monde dans lequel on vit», etc). Toutes proportions gardées, c'est le même processus qui faisait que les collabos étaient plus acharnés que l'armée allemande pour chasser les résistants, car leur existence même remet en cause les fondements de leur modèle de justification.

    C'est vraiment étonnant comme truc, personne ne se conçoit comme un minable, un parasite, un mange boules ou un pourri. Tout le monde se construit son petit échafaudage autojustificatif pour mettre l'ensemble de ses choix de vie dans un petit contexte douillet. Plus l'échafaudage est haut et bancal et plus on a peur de le voir vaciller, et plus on est agressif envers ceux qui mettent en danger cet équilibre intérieur: pour ne pas devenir dingue, il faut dénigrer ces gens qui ne vous ont rien fait, mais dont les choix de vie vous mettent en danger.

    Ceci dit, ça marche dans les deux sens. Quand on a refusé plusieurs offres d'emploi pour des raisons éthiques, on se met aussi à mépriser les lèche-culs qui, eux, peuvent acheter un nouveau iTruc tous les mois.
  • [^] # Re: regle ou exception

    Posté par  . En réponse à la dépêche Les formations diplômantes en logiciel libre en 2011. Évalué à 5.

    Peu importe ou : societe, gouvernement, ONG,

    Tu t'engages bien vite. Autant pour les entreprises je conçois que l'argent puisse ne pas avoir d'odeur (et encore, le green-washing est à la mode, et la com' compte pour beaucoup dans les investissements d'une boîte quelle que soit sa taille), autant pour le reste je pense que ton point de vue est indéfendable. Les services de l'État font des choix stratégiques qui sont par définition politiques, ils peuvent privilégier certaines technologies pour des raisons éthiques, politiques, pragmatiques, ou économiques de manière claire et précise; il est tout à fait raisonnable de penser qu'un service d'État devrait, pour de nombreuses raisons (notamment pour la pérénité des données et des systèmes) privilégier les logiciels libres aux solutions propriétaires (de la même manière qu'ils peuvent provolégier les énergies «vertes», pourtant plus coûteuses, ou les technologies militaires françaises, pourtant moins fiables, etc).

    Pour les ONG c'est encore pire, de nombreuses ONG sont des groupes de pression politiques ou idéologiques, il est plus que fréquent de voir des ONG privilégier le bio, le commerce équitable, les énergies renouvelables, je ne vois pas pourquoi les logiciels libres ne feraient pas partie de la liste.

    J'ai l'impression que cette idéologie du pragmatisme que tu préconises (choisir un outil en fonction de critères à optimiser uniquement au moment du déploiement -- coût, difficulté de la migration, etc -- est obsolète même dans le milieu de l'entreprise. En tout cas, dans mon domaine professionnel (la recherche scientifique), il est de moins en moins possible de publier des résultats basés sur des logiciels dont les sources ne sont pas disponibles pour des raisons de reproductibilité, alors que de nombreuses solutions propriétaires restent plus performantes.
  • [^] # Re: Minix

    Posté par  . En réponse à la dépêche L'année 2010 du Hurd. Évalué à 8.

    Euh, j'ai peut-être loupé quelque chose, mais la licence de Minix ne semble pas compatible avec la GPL. Un projet GNU pas sous GPL, j'imagine que c'est bloquant, non?
  • [^] # Re: Il y encore du chemin à faire...

    Posté par  . En réponse à la dépêche Double victoire pour Racketiciel : la Cour de cassation vient de statuer par deux fois sur la vente liée. Évalué à 5.

    En droit français ça n'est pas illégal de mettre des clauses illicites dans les contrats. Ces clauses sont simplement considérées comme nulles par le juge.

    Ceci dit, c'est éthiquement irresponsable et profondément immoral.

    Apparemment, Toshiba n'a aucun intéret de faire ça, mais ils doivent être liés par un contrat hyper-contraignant à Microsoft, du style "si vous remboursez l'OS vous perdez notre tarif Gold-machin-platinum et vous vendrez vos bécanes 50€ plus cher que vos concurrents". Et les entreprises, c'est comme les citoyens, vous trouverez un résistant pour 50 collabos.
  • [^] # Re: Ne pas oublier que le but c'est quand même de communiquer ...

    Posté par  . En réponse à la dépêche LibreOffice est de sortie !. Évalué à 2.

    Les trois points sont tout à fait acceptables quand on parle d'une administration, mais pour ce qui est d'une boite privée par exemple je trouve les 2 et 3 absurdes, et le 1 contestable. Le principe majeur des logiciels libres, c'est la liberté, et la liberté c'est aussi d'utiliser les logiciels qu'on veut, y compris des logiciels propriétaires. D'ailleurs, la notion de logiciel proprio ou libre quand on parle d'un logiciel privé n'a aucun sens, même dans une administration. Si une administration décide de créer un logiciel métier spécifique, ce logiciel sera propriété de cette administration, il ne sera pas diffusé ni vendu, avec ou sans sources, et par conséquent sa licence n'aura aucune importance.

    Les institutions politiques et la société civile ont des moyens de pression: il peut être par exemple légalement exigé que la communication avec les services de l'État passent par des formats standards, il peut également être interdit d'acheter des licences avec de l'argent public; l'État peut (et devrait) jouer un rôle plus important dans les comités de normalisation pour défendre ses intérets et celui des citoyens. Mais remplacer une liberté (celle associée aux logiciels libres) par une intrusion de la loi dans ce qu'il y a d'installé chez des particuliers ou dans les entreprises, ça seraitune mesure totalement dictatoriale. D'ailleurs, même RMS n'a jamais proposé ça, puisqu'il propose de révolutionner le droit d'auteur associé aux logiciels (en gros, de faire de la distribution du code un droit du consommateur).

    Le point le plus débatable peut-être est celui de la communication entre entreprises, et j'imagine que ce genre de cas est toujours discutable. D'un côté, l'État ne se soucie pas d'intervenir dans la normalisation des conversations privées; il est possible de parler en Tamoul à votre voisin si vous le souhaiter. Des entreprises peuvent également communiquer entre elles de la manière qu'elles souhaitent, mais la subtilité est dans les garanties en cas de conflit, puisqu'un contrat ne peut être valide que s'il respecte certaines conditions, dont la langue dans lequel il est rédigé. Le même genre de subtilités pourraient être utilisées pour normaliser les formats de documents, les gens et les entreprises échagent ce qu'ils veulent, mais les formats de documents non normalisés ne sont pas ganatis légalement. Par exemple, si vous récupérez un morceau de musique en mp8, lisible seulement avec Windows Media SuperTruc 8.2 mais que vous refusez de payer, ce n'est pas à vous de prouver que vous n'avez pas pu utiliser le fichier (et refuser de fournir l'équivalent dans un autre format serait associé à un refus de vente). Mais bon, tout ça reste assez tordu, du moment qu'il existe un affichage clair des standards, après tout, ça reste la liberté des gens d'acheter n'importe quoi.
  • # Marché de niche

    Posté par  . En réponse à la dépêche IPv6 et conséquences sur l'anonymat. Évalué à 4.

    Je suis d'accord avec tout sauf ça:

    Il est probable que, s'il existe un marché pour des IP dynamiques, un fournisseur d'accès le proposera.

    Dans le meilleur des mondes possibles, oui. Mais dans les faits, non. Il y a un marché pour des chaines de TV culturelles, mais le seul moyen de voir des émissions culturelles à la télé est de passer par un service public subventionné. À mon avis, on récupère 1000 fois plus de clients en faisant des pubs avec une bonnasse qu'en proposant des trucs techniques. De manière générale, pour un marché de niche, la plupart des oérateurs risquent de ne pas proposer un tel service, et il faudra passer par un fournisseur d'accès associatif ou alternatif...

    Ceci dit, je ne vous pas non plus l'intérêt d'une IP dynamique.
  • # GPL etc

    Posté par  . En réponse à la dépêche Dimdim racheté par Salesforce, la version opensource est abandonnée.... Évalué à 3.

    Il est évident que la licence et le mode de développement sont deux choses différentes. La surprise de l'existence des "fauxpen source" est juste la réalisation de cette différence.

    Avoir un soft disponible sous GPL n'implique pas que son développement soit communautaire, il implique qu'on ait accès aux sources et qu'on ait le droit de le forker. En fait, je n'arrive pas à imaginer un cas où une entreprise libère un logiciel et que le développement devienne communautaire. À mon avis, on ne peut avoir un développement communautaire que si ce modèle existe depuis le début du développement. Et je pense qu'on ne puisse pas exiger d'une entreprise qu'elle adopte un développement communautaire. Une entreprise peut très bien publier le code, fournir une intreface pour les rapports de bugs, et garder le développement en interne. Le logiciel n'en est pas moins libre, il est juste développé de manière centralisée. D'ailleurs, pas besoin d'entreprises, il y a de nombreux logiciels libres qui sont développés de cette manière.

    Ce qui est plus inquiétant à mon avis, ce n'est pas le développement centralisé, c'est le changement de licence. Le logiciel libre est censé apporter de nombreux avantages, parmi lesquels la pérénnité du modèle de développement. Imaginons un appel d'offre, la licence libre est évidemment mise en avant; si d'un coup le logiciel se ferme, un organisme peut rester bloqué sur une solution propriétaire (ou sur une version qui n'évolue plus). Ça veut dire qu'il faut penser à blinder les contrats pour pouvoir le rompre avec éventuellement une pénalité et un préavis si la licence du logiciel change; au niveau d'une petite entreprise par exemple ca représente des détails juridiques en plus à devoir prendre en compte, et ça peut être lourd.

    Ce genre de situation met bien en évidence l'importance de ne JAMAIS céder ses droits d'auteur à un organisme centralisateur, même si c'est pour le bien du soft. Une fois le code bourré de patchs d'auteurs différents, le mode de développement peut changer, mais plus la licence. Je pense que la communauté se doit de se protéger de cette manière, si on demande son aide une fois, il ne faut pas qu'une marche arrière soit possible. Après tout, dans cette affaire, l'entreprise n'avait jamais rien exigé de personne, elle peut changer d'avis. Mais les systèmes de cession des droits d'auteur ont l'effet pervers de rendre possible les décisions arbitraires, et c'est inacceptable.

    D'ailleurs, l'exemple du tr\es ingénieux changement de licence de Wikipédia montre qu'il est tout à fait possible de changer une licence dans l'esprit du libre sans avoir à centraliser les contributions.
  • [^] # Re: Moi j'aurais fait comme ci, moi j'aurais fait comme ça

    Posté par  . En réponse à la dépêche Sortie d'une nouvelle version de Textallion. Évalué à 1.

    je n'ai absolument pas compris, mais je dois avouer que ne connais rien aux équations dans LaTeX. Si tu as un exemple concret de comment ça pourrait s'implémenter, je pourrai y réfléchir.

    Je pense qu'il suffit de recopier directement les équations dans le code Latex généré. C'est sûr que du coup, ça laisse du code dans les documents, mais je ne vois pas comment écrire des equations sans code.

    Les équations sont indiquées en Latex par le symbole $ :

    "Le carré de $x$ est noté $x^2$,"

    Il suffirait donc de ne pas interpréter les expressions qui commencent par $ et qui finissent par $, et de les faire passer telles quelles en Latex.
  • # Moi j'aurais fait comme ci, moi j'aurais fait comme ça

    Posté par  . En réponse à la dépêche Sortie d'une nouvelle version de Textallion. Évalué à 6.

    C'est évident que tout le monde va aller de sa petite remarque «j'aurais pas fait comme ça». Mais l'idée reste intéressante. J'utilise Latex de manière assez intense (publications scientifiques), et je suis le premier à reconnaitre ses défauts très lourds, malgré ses qualités indéniables, et sa prise en main très difficile.

    Quelques remarques sur le tas:

    * Je trouve que la syntaxe pour les notes en bas de page est défectueuse. Les symboles "degrés" ne sont pas disponibles directement sur les claviers QWERTY, qui restent quand même les plus courants dans le monde.

    * Je trouve un peu dommage de ne pas avoir repris la syntaxe de mediawiki pour les liens .... Elle n'est pas plus intuitive qu'une autre, mais elle a le mérite d'être connue par beaucoup.

    * Il faudrait que la syntaxe LaTeX pour les équations en ligne $\delta = 3 \times \sum X_i^2$, et hors ligne avec $$ ... $$ (à traduire par \[ ... \] dans le code Latex) soient disponibles directement (en plus ça collerait bien avec la philosophie de la syntaxe par symboles). latex2html se débrouille plutôt bien pour les faire passer en HTML, soit en bidouillant un peu pour les formules simples, soit en les convertissant en png et en les incluant comme images. C'est assez important, car tous les textes un mininum techniques ont besoin de cette syntaxe, et la solution de virer leur contenu du rendu HTML n'est pas acceptable.

    * Le support des références me semble aussi inévitable.

    * À mon avis, l'avantage avec une syntaxe de type wiki est qu'on devrait pouvoir facilement en faire un serveur web, qu'on pourrait utiliser dans un navigateur. La solution habituelle pour le travail collaboratif (s'envoyer des emails avec des fichiers, que ce soit .doc ou .tex) est tellement contre-productive... Alors qu'un outil web, accessible avec un login et un password, hébergé sur un serveur tiers ou par soi-même, serait vraiment idéal pour le travail collaboratif; on aurait une gestion centralisée des historiques, et le travail simultané serait possible avec des diffs, des merge, et une gestion des conflits telle qu'on peut la trouver dans mediawiki.
  • [^] # Re: Traductions ?

    Posté par  . En réponse à la dépêche Attempto Controlled English. Évalué à 1.

    Bah si, justement, ce type de représentation pourrait servir d'intermédiaire non-ambigü entre deux langues, et "cadrer" beaucoup mieux l'endroit où la partie complexe de l'algorithme doit intervenir, les endroits où les ambiguités sont possibles, etc.

    "This beer is free, Linux is free, Stéphane Taponier is not free"
    A) -> l'analyse compliquée se fait ici, il faut traduire ça dans un langage non-ambigü
    "This beer is free[gratis] and Linux is free[software] and Stéphane Taponier is not free[freedom]"
    B) -> À partir de là, on peut traduire dans n'importe quelle langue, en remettant des ambiguités si on veut
    "Cette bière est gratuite, Linux est libre et Stéphane Taponier n'est pas libre."

    L'existence d'une telle syntaxe intermédiaire normalisée me semble une étape intéressante, car elle permet de bien dissocier les étapes de la traduction. Même si l'intervention humaine peut rester nécessaire, on peut imaginer qu'elle puisse être réduite à lever les ambiguités.
  • [^] # Re: Vraie question : a quoi cela vous sert ?

    Posté par  . En réponse au journal Gerer ses citations d'articles de recherche. Évalué à 7.

    Y'a un truc qui a dû t'échapper. Un article est soumis plusieurs fois, souvent à des journaux différents. Avec toutes les révisions, il est courant de devoir éditer la liste de références des dizaines de fois. Il y a parfois plus d'une centaine de références. Faire ça à la main est débilissime, sans compter que l'automatisation t'apporte la sécurité (toutes les refs du texte sont dans la biblio et vice versa).

    En ce moment, j'ai 1282 références dans ma liste, je me vois mal gérer ça à la main.

    j'ajoute les citations à la main dans un fichier XML personnel et j'ai des feuilles XSLT pour le transformer en diverses choses (HTML, bibtex)

    Franchement, je ne vois pas l'intéret. Bibtex est un format déja destiné à contenir les données bibliographiques, tu penses faire mieux et plus flexible avec un fichier XML perso? HTML et Bibtex ne sont pas des "choses" de niveau équivalent. Les outils nécessaires sont 1) les logiciels qui permettent d'intégrer des données bibliographiques dans un document exploitable (donc Bibtex vers Latex, HTML, PDF, etc), et 2) des scripts permettant de transformer les différents formats de fichier biblio (Bibtex, endnotes) afin d'assurer l'interopérabilité des logiciels de gestion de biblio.

    Je trouve par exemple inutile de devoir recoder une moulinette pour transformer une base perso en HTML, vu qu'il est trivial de faire du Bibtex -> HTML via Latex.

    Après, on fait ce qu'on veut avec son temps libre, on peut coder des trucs qui ne servent à rien ou formater sa biblio à la main, mais de là à s'étonner de voir les autres utiliser les outils adéquats...
  • [^] # Re: Problème de la taille des tabulations avec une limite de 80 colonne

    Posté par  . En réponse au sondage La taille de l'indentation de mon code source (tab ou espace). Évalué à 4.

    Ouais, enfin y'a toujours les if (x < 0) { ... } else if (x == 0) { ... } else { ...} qui formellement sont des imbrications gigognes, mais qui sont parfois difficilement évitables.

    C'est pas toujours une bonne idée de dire "jamais", c'est un peu comme les goto. Parfois le remède est pire que le mal; il faut juste être sûr que les gens savent ce qu'ils font quand ils contournent la recommandation:
  • [^] # Re: Peer review

    Posté par  . En réponse à la dépêche Rendre les résultats de la recherche scientifique accessibles à tous. Évalué à 3.

    Enfin, pour reviewer pour PLoS et pour d'autres journaux non-OA, il n'y a pas de différence dans les exigences.

    T'as pas lu les consignes alors. C'est dans les recommandations pour les reviewers:

    «Unlike many journals which attempt to use the peer review process to determine whether or not an article reaches the level of 'importance' required by a given journal, PLoS ONE uses peer review to determine whether a paper is technically sound and worthy of inclusion in the published scientific record.»

    Dans PLoS One, il n'y a pas d'évaluation ni de l'intérêt du travail, ni de critères éditoriaux (les articles peuvent traiter de n'importe quoi). Seule la rigueur scientifique est examinée.

    ISI Web of Knowledge qui distribue les Impact Factor dont il est question en a attribué un à PLoS ONE et continue à le revoir à la hausse.

    Mais en quoi j'ai dit le contraire? Il est évident que dans PLoS One on trouve de tout, du bon au plus mauvais, vu qu'il n'y a pas de filtre éditorial. La qualité des papiers publiés (et le facteur d'impact correspondant) ne retrancrit que la qualité moyenne de la production scientifique soumises aux PLoS One, comme il y a probablement des bons chercheurs qui soumettent, il y a des bons papiers publiés. Ça ne change en rien le fait que la communauté scientifique n'a pas son mot à dire sur l'intéret scientifique des études publiées dans PLoS One.

    Je ne comprends pas ce que tu as à m'attaquer comme ça, jusqu'ici la discussion se déroulait sans problème, et paf, plusieurs jours après t'arrives et tu rues dans les brancards sans même te donner la peine de lire ce qu'on raconte. T'as publié dans PLoS One? Et alors? Mon expérience à moi, si tu veux que je la partage, est d'avoir publié dans une de ces revues "bidon" qui ne reposent sur rien, parce que simplement j'y avais été invité (un truc de Libertas Academica, une de ces filiales dont je parlais plus haut). Je pense que mon papier n'était pas mauvais, mais le peer-review était médiocre; et j'ai découvert que d'autres journaux du même éditeur avait publié des papiers débiles et qu'il n'y avait aucun système de revue fiable, les papiers étaient en gros acceptés systématiquement, tant mieux si les gens qui les ont écrits sont sérieux, tant pis s'ils sont nuls. Et en publiant dans PLoS One, tu prends exactement le même risque : ton article peut être listé sur la même page que des machins honteux; bref, personne ne peut évaluer la qualité de ton travail en regardant la revue. C'est un réel problème, qui à mon avis est généré par le fait que la pompe à fric ne marche qu'avec les papiers publiés.

    Historiquement, les PLoS sont un des tous premiers sur le marché de l'OA. Ils avaient une réputation bien établie avec PLoS Biology et les autres journaux, et tout marchait bien jusqu'à ce que vers 2007 tous les autres éditeurs viennent sur le secteur, de manière hyper-agressive. C'est à ce moment là que PLoS One a été créé, pas pour ouvrir de manière créative un nouvel espace aux chercheurs, mais pour se placer sur le marché des journaux à bas facteur d'impact. C'est un geste purement commercial, qui n'a pas été fait pour la beauté de la science. D'ailleurs, le créneau de PLoS One c'est de publier les papiers "incompris", dont les auteurs ne veulent pas être jugés par la communauté. Même s'il est arrivé plusieurs fois dans l'histoire que la communauté conservatrice rejette les idées trop nouvelles et fasse la vie dure à des précurseurs, j'ai la faiblesse de penser que la plupart des gens qui sont mis à l'écart de la communauté scientifique le sont pour des bonnes raisons.