L’Académie des sciences française prétend vouloir l’ouverture des publications scientifiques

Posté par . Édité par Davy Defaud, Nils Ratusznik, Pierre Jarillon et patrick_g. Modéré par patrick_g. Licence CC by-sa
31
30
oct.
2014
Éducation

En France, l’Académie des sciences a, parmi ses missions, de conseiller les autorités gouvernementales dans le domaine des sciences. Dans le cadre de cette activité, un rapport a été publié le 24 octobre 2014 pour proposer d’améliorer le fonctionnement de l’édition scientifique.

Malgré cette volonté affichée d’ouverture, on peut se poser des questions sur ces améliorations. Découvrez la teneur du rapport en seconde partie.

Après avoir précisé que seule l’évaluation par les pairs permettait d’assurer la qualité d’une publication scientifique, le rapport présente les deux modèles économiques qui existent dans le monde de l’édition scientifique :

  • le lecteur payeur : ce modèle, le plus reconnu actuellement, permet aux chercheurs de publier gratuitement leurs articles mais oblige tous les organismes de recherche souhaitant accéder aux résultats des recherches à s’abonner, à des prix très élevés, à de nombreuses revues scientifiques (en France, cela coûte 75 millions d’euros par an aux universités et 30 millions d’euros aux organismes publics de recherche) ;
  • l’auteur payeur : ce modèle, en pleine croissance, oblige les chercheurs à payer pour publier mais permet que leurs publications soient ouvertes à tous, directement disponibles sur le Web.

L’académie souhaiterait que le modèle évolue afin d’offrir :

  • des archives ouvertes : toutes les publications scientifiques doivent être à terme (après un délai pouvant être de plus d’un an) mises à disposition de tous afin d’assurer la pérennité de la connaissance scientifique (l’histoire des sciences regorge d’exemples de recherches perdues ou retardées faute d’une diffusion suffisante, par exemple la [[découverte de l’Amérique]], la découverte de Neptune ou la découverte de la pénicilline) ;
  • un accès libre institutionnel : reprenant le principe de l’auteur payeur, l’académie souhaiterait faire évoluer le modèle des publications traditionnelles en proposant de faire payer aux chercheurs français leurs publications en échange d’un « accès libre » par les autres chercheurs français.

L’idée de l’académie serait que le consortium Couperin, qui négocie les 105 millions d’euros annuels d’achats de publications scientifiques pour la recherche publique française, se charge de proposer la transition aux éditeurs, à coûts constants (les 105 millions d’euros seraient à terme utilisés pour payer la publication), et que le système soit étendu au niveau européen et mondial. Le rapport reconnaît que cela pourrait tuer le vrai open access qui permet la mise à disposition à tous sans attendre les délais d’archivage, mais ne considère pas que ce soit un mal. Par ailleurs, la question des licences des contenus ainsi publiés n’est même pas abordée par le rapport.

Malgré les constats justes faits par l’Académie des sciences (il faut favoriser la libre diffusion de la connaissance), nous n’avons au final qu’une proposition changeant peu le modèle actuel (la connaissance scientifique fraîche resterait réservée aux riches) et renforçant même les éditeurs responsables des problèmes reconnus par l’académie, mais en y ajoutant partout les termes open et ouvert. On peut trouver ça plus vendeur…

  • # Lecteur et auteur payeur

    Posté par . Évalué à 4.

    Lorsque l'on n'est pas dans le modèle « auteur payeur » tel que défini par ce rapport, je trouve que les lecteurs ainsi que l'auteur payent pour la publication.

    Je ne connais pas le détail du budget d'une conférence, mais il y en a beaucoup dont l'inscription approche (dépasse) les 1000€ (hors repas et hébergement bien entendu, seul le café est offert). Ça fait cher les 3 jours (surtout lorsque la conf est hébergée dans l'université organisatrice).

    Certes, ça reste moins cher que dans le modèle auteur payeur, où la facture monte facilement à quelques milliers d'euros.

  • # Un autre modèle

    Posté par . Évalué à 10.

    Moi je propose qu'on supprime les éditeurs qui sont payés par tous les bouts. Ils ne servent à rien au niveau des publications, les revues sont faites bénévolement par des scientifiques, les articles sont écrits bénévolement par des scientifiques. Ils sont juste là pour prendre une marge, et faire un joli PDF, rien de plus. Ils avaient un rôle à une époque où le papier était roi et où les moyens de communication n'étaient pas aussi développés. Mais à l'heure du numérique, ils ne servent vraiment plus à rien. De nombreuses confs, et pas les plus mauvaises, se sont déjà passés des éditeurs, et ça fonctionne bien, les articles sont en CC-BY-ND, ils sont accessibles directement et tout le monde y gagne. C'est ça le vrai modèle alternatif.

    • [^] # Re: Un autre modèle

      Posté par . Évalué à 2.

      Rah, trop lent à taper mon pavé.
      Mais j'approuve totalement.

    • [^] # Re: Un autre modèle

      Posté par . Évalué à 8. Dernière modification le 30/10/14 à 15:00.

      Objectivement, la publication d'un journal scientifique demande quand même une certaine quantité de travail "ingrat", qui n'est pas valorisable par des chercheurs, comme le sont les rôles d'éditeur et de reviewer. On peut citer (i) l'assistance technique (soumission de gros fichiers, problèmes de compilation Latex, etc), (ii) le boulot de composition et de PAO, (iii) le boulot de marketting et de référencement, etc. En gros, il y a besoin, en plus du staff scientifique, d'au moins trois personnes : un secrétaire/gestionnaire/assistant de direction, un ingénieur IT, et une personne qui peut faire la composition et la com. Bien sûr, ces moyens peuvent être mutualisés et l'équipe peut publier plusieurs journaux, même si la quantité reste limitée—je ne pense pas qu'une équipe comme celle-la puisse publier plus de 20 articles par mois au total. En terme de coût total, on est dans les 12 k€ en masse salariale en étant radin, si on compte le loyer pour les locaux et les charges (y compris la location du serveur et la bande passante + solutions de sauvegarde), on ne va pas se retrouver loin des 1000€ par article HT : on est bien dans l'ordre de grandeur des frais de publication "standard". Et ça, c'est dans une optique non lucrative. Baisser les couts ne pourrait se faire qu'en rognant sur la qualité, par exemple en ne relisant pas les articles.

      Bien sûr, les gros organismes de recherche pourraient couvrir de tels frais, on pourrait avoir des revues CNRS, INRA, INSERM, etc. Cependant, ça poserait un certain nombre de problèmes ; d'une part, on pourrait avoir des doutes sur la neutralité du procédé (par exemple, les comptes rendus des académies des sciences, quel que soit le pays, est biaisé en faveur des membres "locaux"), et d'autre part, ça reviendrait pour l'État français à couvrir les frais de publication du monde entier. Sans compter les problèmes réglementaires liés à une concurrence directe entre le service public et des entreprises privées.

      Dans l'ensemble, quand on parle de l'écosystème économique autour de la publication scientifique et de l'Open Access, on oublie souvent qu'on peut avoir accès à des données importantes, par exemple le bilan financier des PLoS, qui sont une organisation non-lucrative. Or, les PLoS ont des tarifs parmi les plus élevés du marché (pour une qualité très élevée aussi pour la plupart de leurs journaux), et pourtant, ils ne font pas d'argent. Au final, je pense qu'il est donc important de réaliser que les marges que les éditeurs font sur l'OpenAccess n'ont probablement rien à voir avec les marges qu'ils faisaient dans le modèle traditionnel.

      Pousser des acteurs académiques à organiser leur propre système de publication revient à en faire porter les coûts de manière indirecte sur les labos. Bien sûr, on peut demander au gars qui fait la maintenance informatique de s'occupper à mi-temps du support technique pour le journal, bien sûr, la secrétaire du labo peut aussi faire une partie du boulot, etc. Mais à l'heure où la gestion de l'argent public est au centre du débat politique, c'est un peu étrange de trouver raisonnable de dépenser une quantité d'argent et des ressources humaines de manière détournée pour éviter de payer un service rendu par des entreprises privées, dans des conditions de concurrence relativement honnêtes (contrairement, encore une fois, à la situation qui précédait).

      • [^] # Re: Un autre modèle

        Posté par . Évalué à 10. Dernière modification le 30/10/14 à 16:02.

        Le travail "ingrat" est entièrement fait par les chercheurs, je parle bien de la préparation du fichier LaTeX et de tout ce qui est lié. L'éditeur se contente de mettre les numéros de page, de rendre disponible sur une page Web et de faire indexer l'article dans les moteurs de recherche spécialisés (les journaux de journaux, indexant références bibliographiques exactes et résumés). Et c'est tout.

        Par contre les éditeurs privés sont plein d'imagination pour rajouter à leur site des fonctionnalités sans intérêt aucun, qui en disent d'ailleurs long sur la façon dont ils voient la recherche scientifique. Par exemple les hit-parades des articles les plus lus, sur le modèle de ce qui se fait sur les sites commerciaux où on a les incontournables "qu'achètent les gens en ce moment ?". Histoire d'être dans le coup sans doute.

        pour éviter de payer un service rendu par des entreprises privées, dans des conditions de concurrence relativement honnêtes

        Là, ou je comprends mal la phrase, ou c'est une méconnaissance complète du sujet. Il n'y a pas de concurrence du tout dans ce domaine. Uniquement une poignée d'éditeurs privés qui s'entendent pour faire monter artificiellement le prix des revues, voir les urls que j'ai donnés plus bas. Les méthodes sont par exemple le packaging (vente forcée de certaines revues avec d'autres que l'on veut), ou ces fameux indices bidons pour mesurer la qualité du travail scientifique (Impact Factor et autre bêtise du même genre, qui rejoignent dans leur esprit les hit-parades des articles les plus lus) qui, comme par hasard, ont tendance à favoriser les scientifiques publiant dans les revues de ces éditeurs privés plutôt que dans des revues open-access. Bien entendu, il y a aussi dans les contrats d'abonnement les habituelles clauses léonines, comme l'indexation annuelle du coût des abonnements sur des indices qui évoluent plus vite que l'inflation (!), ou parfois simplement une augmentation totalement arbitraire du coût d'une revue (+100%), augmentation permise uniquement car l'acheteur est captif et a besoin des revues pour travailler. Rappelons d'ailleurs que les acheteurs sont captifs car les scientifiques perdent le copyright sur leurs propres travaux !

        Pour les éditeurs privés, les acheteurs, universités et centres de recherche, ne sont que des cash cows qui permettent d'obtenir des liquidités pour des montages financiers plus vastes : car ces gens-là ne font pas que de l'édition scientifique évidemment. Certains vendent même des armes d'ailleurs. Mais presser jusqu'au citron des labos sans le sou ou bien vendre des engins de mort à tous les meurtriers et dictateurs de la planète, ce n'est finalement pour eux qu'un seul business : faire de l'argent.

        • [^] # Re: Un autre modèle

          Posté par . Évalué à 10.

          Et c'est tout.

          Et c'est faux, surtout.

          La qualité des documents fournis par les chercheurs peut être carrément douteuse. Je le vois assez régulièrement en reviewant des articles ; figures pixellisées, typographie incohérente, logiciels folkloriques (genre MS Word version Pologne 2001 sur un Windows en coréen)… Dans mon domaine, seuls peu d'articles sont soumis en Latex, et de toutes manières, recompiler un document Latex n'est jamais de tout repos, surtout quand les styles sont mal utilisés, des macros personnelles partout, etc. Au miniumu, même l'éditeur le plus merdique du monde va devoir se refaire la totalité de la mise en page (typographie des titres, sous-titres, etc—vous n'allez pas croire que les gens utilisent les styles correctement, quand même?), la totalité de la bibliographie (mise en page des références, cohérence entre les références et les appels dans le texte, etc), le redimentionnement et l'édition d'une grande partie des figures, la réédition de tous les tableaux. Il faut ensuite passer au style du journal (plusieurs colonnes, etc) et gérer à la main les erreurs (coupures de fin de lignes, dépassements dans les marges). Les éditeurs bas de gamme s'arrêtent là. Le reste attaque le texte : cohérence des formules, de l'utilisation de l'italique, et surtout, correction des fautes de frappe, de ponctuation, de grammaire. D'après mon expérience, au moins 50% des éditeurs revoient correctement le texte de manière technique. Ça se voit d'ailleurs au moment de la correction des épreuves, où l'éditeur peut avoir des suggestions du style "peut-on couper ce paragraphe ici", ou "la variable x_i est notée x(i) dans l'équation (2)".

          Dernièrement, j'ai découvert un éditeur qui ne prend que les pdf en entrée. Je ne sais pas comment il fait pour remettre tout ça dans le style du journal, j'imagine qu'il dispose d'un certain nombre de logiciels professionnels pour parser plus ou moins automatiquement un pdf, mais je ne peux pas croire que ce genre d'opérations ne nécessitent pas une main d'œuvre qualifiée pendant plusieurs heures.

          Donc non, c'est carrément faux de prétendre que les éditeurs publient le pdf des auteurs directement sur leur site web. La très grande majorité des journaux, et en particulier les journaux de premier plan, vont même jusqu'à éditer le texte de manière parfois assez intrusive. Et étant moi-même une sorte de nazi de la typographie et des figures vectorielles, je n'imagine pas la quantité de boulot avec les auteurs qui n'ont jamais utilisé autre chose que ms Word pour écrire leur prose.

          Là, ou je comprends mal la phrase, ou c'est une méconnaissance complète du sujet

          Vous n'avez surtout pas lu de quoi je parlais. Je parlais de la publication OpenAccess. L'ancien système se meurt, on ne va pas non plus parler des plombes sur un cadavre. C'est bien l'ancien système qui permettait des profits monstrueux. Avec la publication OpenAccess, les profits sont nécessairement limités, puisque la seule variable possible à optimiser est les frais de publication, qui sont réellement pris en compte lors de la soumission d'un article. Or, il existe sur ce plan là une concurrence réelle, puisque les différents éditeurs proposent des prix entre 700 et 2000€, en gros. Dans mon message précédent, j'ai essayé de démontrer que pour un éditeur honnête, ces frais ne sont pas démesurés, et qu'ils correspondent à l'ordre de grandeur du coût réel.

          Les choses contre lesquelles il faut lutter, c'est

          1) La mort lente du monde de l'édition traditionnelle, qui va nécessairement étouffer faute de lecteurs, et donc de citations. La seule chose qui la maintient en vie, c'est que les budgets sont actuellement si serrés dans les labos qu'on n'a pas forcément l'argent pour payer les 1500€ de la revue Open Access. Le plus con, c'est que c'est juste un transfert de budget ; il suffirait d'arrêter les abonnements pour transférer l'argent vers les frais de publication. Mais avec l'administration, tout est tellement compliqué…

          2) Les prix démentiels pour les quelques journaux existant, qui nécessitent encore un abonnement.

          3) Les options "open access", qui consistent à faire payer très cher (souvent > 3000€) à l'auteur pour publier en open access dans une revue "traditionnelle". C'est idiot à plusieurs titres, d'une part, c'est trop cher (quitte à publier en open access, autant viser directement une revue qui ne fait que ça), et en plus, ça revient à faire payer deux fois, puisque le lecteur paye son abonnement, et que le coût de l'abonnement ne diminue pas si certains articles sont disponibles gratuitement.

          4) L'open access "poubelle", inévitable dans un monde où on paye pour publier. Tous les éditeurs Open Access ont un ou deux journaux fourre-tout où on peut faire passer à peu près n'importe quoi, ce qui décridibilise l'édition scientifique (mais j'ai peur que ça soit une conséquence inévitable du système. Ça n'est pas si grave si la faible qualité de ces journaux est prise en compte lors de l'évaluation de la qualité des recherches).

          5) Les éditeurs open access "prédateurs", qui voient dans ce modèle une bonne manière de se faire du pognon en surfant sur la naïveté de certains chercheurs. Les emails d'invitation sont des scams, des méthodes déloyales sont mises en place pour attirer les contributions dans des journaux pourris (par exemple avec des noms de journaux très proches des journaux de référence), etc. Il y en a même qui utilisent des noms de sommités dans leur editorial board sans les avoir contactées! Tout ça est du ressort de l'arnaque, ça ne concerne qu'une faible fraction des articles scientifiques, de toutes manières, mais ça entâche la réputation de la publication Open Access.

          Pour revenir à la discussion initiale, il existe plusieurs éditeurs OpenAccess qui sont des fondations, des associations, ou des organismes non-lucratifs. D'autres sont des acteurs de la recherche déja bien installés (par exemple, BioMedCentral, qui fournissait déja des bases de données bibliographiques). Les édtieurs traditionnels (Springer, Elsevier, Blackwell…) sont plutôt à la ramasse sur l'Open Access. Bref, l'Open Access a quand même beaucoup d'avantages : coûts de publication contrôlés et raisonnables, aspect éthique (pas de transfert de copyright, résultats disponibles pour tout le monde…), et modèle économique beaucoup plus sain que les éditeurs traditionnels.

          • [^] # Re: Un autre modèle

            Posté par . Évalué à 9.

            Donc non, c'est carrément faux de prétendre que les éditeurs publient le pdf des auteurs directement sur leur site web.

            Je n'ai jamais parlé de pdf. Dans mon domaine, on envoie à l'éditeur scientifique (celui de l'editorial board qui est donc un scientifique, pas un employé de la maison d'édition, et qui donc bosse gratuitement tout comme l'auteur) les sources LaTeX prêtes à être publiées d'un texte précédemment lu par un referee anonyme (ou plusieurs parfois). Il est tout simplement impensable de soumettre un article autrement. Après l'éditeur scientifique relit l'article, et s'il est satisfait, il envoie les sources à l'éditeur (l'autre, celui dont on parle, qui n'est plus un scientifique) qui rajoute les numéros de pages, le numéro de volume, parfois fait quelques remarques (on a coupé votre ligne ici parce que ça faisait pas joli, vous êtes d'accord ?) et publication sur le site et indexation dans les méta-journaux. Les coûts d'édition (la dernière partie donc) sont ridicules, et je sais de quoi je parle pour avoir discuté avec des gens s'occupant de revues académiques. Evidemment, si dans votre domaine, on peut soumettre des travaux sur des rouleaux de parchemin, je comprends que les coûts d'édition soient prohibitifs.

            Au temps des revues papier par contre, il y avait bien un réel travail d'édition. J'ai connu ça aussi, pas longtemps car je ne suis pas assez vieux : une fois l'article accepté, on recevait une épreuve (la galette je crois ils appelaient cela), on devait corriger l'épreuve, il y avait tout un code pour faire les corrections je me souviens avec des symboles cabalistiques dans les marges, et l'épreuve était relue par l'éditeur (le non-scientifique), il pouvait y avoir un nouvel envoi, le processus était assez long d'ailleurs car il n'y avait pas d'emails, cela se faisait par la poste autant que je me souvienne (je ne me souviens pas avoir utilisé le fax !), c'était un vrai travail en effet. Et après l'impression dans une revue en papier, avec une couverture, une reliure, l'envoie de copies gratuites à l'auteur, la diffusion dans les bibliothèques, bref de l'édition au sens traditionnel du terme !

            Bizarrement, alors qu'avec l'édition électronique, toute la dernière partie a quasiment disparu, les abonnements chez les éditeurs traditionnels n'ont cessé d'augmenter. Mais j'espère que maintenant en lisant cette discussion, les lecteurs qui n'étaient pas encore au courant comprennent un peu les mécanismes. L'inertie du système vient du prestige des revues traditionnelles autant que de la méconnaissance totale qu'ont les scientifiques de ce que sont les maisons d'édition traditionnelles. Beaucoup s'imaginent (j'espère s'imaginaient) de vénérables institutions, abritées par de vénérables universités. Alors qu'en fait ce ne sont que des sociétés cotées en bourse occupées à faire de l'argent.

            Je n'ai effectivement pas parlé des revues Open Access prédatrices (avec siège fictif dans des rues qui n'existent pas, j'avais lu un article sur ce sujet et si quelqu'un pouvait le retrouver et poster l'URL, je pense que cela intéresserait plus d'une personne) dont les coûts sont aussi largement prohibitifs je trouve, même si le modèle économique est plus satisfaisant. Par revue Open Access prédatrice, je parle bien de ces revues, souvent indiennes d'ailleurs, il y a apparemment une industrie naissante dans ce pays, qui spamment nos boîtes aux lettres (et qui les spamment tellement bien que le flag spam est sur YES d'ailleurs !).

            L'idéal serait de devoir mettre ses publications dans un site comme HAL ou ArXiv, et les publications auraient un flag quand elles auraient été reviewées de façon anonyme. Une sorte de revue unique universelle.

            • [^] # Re: Un autre modèle

              Posté par . Évalué à 0.

              En parlant de revue indienne dans mon post, je pensais à Hindawi. Mais je crois que c'est plutôt égyptien (Caire)…

            • [^] # Re: Un autre modèle

              Posté par . Évalué à 1.

              Vous me faîtes penser tous les deux à Sheldon et Leonard qui se chamaillent dans "big bang theory"…

              Perso, je paie pour avoir de l'open access, et je mets ma version sur la base HAL du labo. Comme ça, je suis sûr de faire plaisir aux 3 personnes dans le monde qui liront mon article :)

          • [^] # Re: Un autre modèle

            Posté par . Évalué à -1.

            L'open access n'est pas que Gold (Unfair, Fair et Hybride) mais aussi Green (la voie verte). Un petit résumé :

            http://www.libnet.ulg.ac.be/fr/content/choisir-votre-couleur-d-oa

          • [^] # Re: Un autre modèle

            Posté par . Évalué à -1.

            Or, il existe sur ce plan là une concurrence réelle, puisque les différents éditeurs proposent des prix entre 700 et 2000€, en > gros. Dans mon message précédent, j'ai essayé de démontrer que pour un éditeur honnête, ces frais ne sont pas démesurés, et
            qu'ils correspondent à l'ordre de grandeur du coût réel.

            Actuellement les articles peuvent monter à 6000$ et ça ne fait que commencer. La concurrence il n'y en a plus dans beaucoup de disciplines vu que tous les éditeurs se sont rachetés. Donc les prix continueront à grimper et ne correspondent pas aux frais réels mêmes si beaucoup d'éditeurs continuent à laver le cerveau de leurs interlocuteurs et prétendant le contraire. Il n'y a qu'à déjà voir combien était vendu les abonnements à des publications papiers avant de passer au numérique. Pourtant les frais d'impression et de réalisation étaient bien plus importants. Après ce n'est pas étonnant, que l'édition scientifique soit l'une des activités légales qui fait les plus forts bénéfices (pour les plus gros éditeurs ça se chiffre en milliards annuels). Il me semble que seul l'armement fait mieux.

            • [^] # Re: Un autre modèle

              Posté par . Évalué à 2.

              PLoS est une association à but non lucratif, et publient leurs comptes : "http://www.plos.org/wp-content/uploads/2014/09/2013-2014-Progress-Update-financial-page.gif". A priori, ils n'ont aucune raison de mentir, on peut donc se baser sur leurs chiffres pour estimer le cout d'une publication "open access". En 2013, PLoS a publié 34000 articles ; ils rapportent des coûts de publication de 29.6 M$, soit 871$/article. Ils ont aussi des frais de gestion, qui ne sont probablement pas proportionnels au nombre d'articles : 7.4M$, soit 218$ par article, mais on peut imaginer que ça peut être plus pour une organisation plus petite. Au total, leur prix de revient est donc de 1089$/article. Ce prix représent 90% du prix demandé, puisqu'ils rapportent 10% de divers discounts (pays pauvres, équipes peu financées, etc). On peut donc s'attendre à payer 1200$/article : c'est le coût d'un papier sans marges et sans bénéfices.

              D'après mon expérience, le coût moyen d'un article en OpenAccess tourne aux alentours de 1500$ pour une soumission spontanée, et moins que ça (parfois moins de 1000$) pour les articles invités, les reviews, etc. Globalement, c'est le "bon" ordre de grandeur. Il est clair qu'au dessus de 1500€, ça commence à être cher, et qu'au dessus encore, c'est de l'arnaque. Mais qui paye autant? Les éditeurs peuvent afficher les prix qu'ils veulent (personnellement, 6000$, je n'ai jamais vu), mais si personne ne publie dans ces journaux, ça ne coûte rien à la communauté.

              • [^] # Re: Un autre modèle

                Posté par . Évalué à -1.

                PLoS est une association à but non lucratif, et publient leurs comptes : "http://www.plos.org/wp-content/uploads/2014/09
                /2013-2014-Progress-Update-financial-page.gif". A priori, ils n'ont aucune raison de mentir, on peut donc se baser sur leurs
                chiffres pour estimer le cout d'une publication "open access". En 2013, PLoS a publié 34000 articles ; ils rapportent des
                coûts de publication de 29.6 M$, soit 871$/article. Ils ont aussi des frais de gestion, qui ne sont probablement pas
                proportionnels au nombre d'articles : 7.4M$, soit 218$ par article, mais on peut imaginer que ça peut être plus pour une
                organisation plus petite. Au total, leur prix de revient est donc de 1089$/article. Ce prix représent 90% du prix demandé,
                puisqu'ils rapportent 10% de divers discounts (pays pauvres, équipes peu financées, etc). On peut donc s'attendre à payer
                1200$/article : c'est le coût d'un papier sans marges et sans bénéfices.

                Un article coûte, tout compris, en moyenne 300$ à un éditeur.

                D'après mon expérience, le coût moyen d'un article en OpenAccess tourne aux alentours de 1500$ pour une soumission spontanée, > et moins que ça (parfois moins de 1000$) pour les articles invités, les reviews, etc. Globalement, c'est le "bon" ordre de
                grandeur. Il est clair qu'au dessus de 1500€, ça commence à être cher, et qu'au dessus encore, c'est de l'arnaque. Mais qui
                paye autant? Les éditeurs peuvent afficher les prix qu'ils veulent (personnellement, 6000$, je n'ai jamais vu), mais si
                personne ne publie dans ces journaux, ça ne coûte rien à la communauté.

                Les prix ne sont pas les mêmes suivant les éditeurs et donc souvent suivant les disciplines. A 6000$ il y aura toujours des clients si la revue concernée a un gros facteur d'impact car la notation du chercheur et de l'activité du labo dépend de facteurs d'impact des revues dans lesquelles leurs articles sont publiés. C'est tout un système à revoir. Certains pays ont commencé timidement à changer cela. Mais ce n'est que timide.

                • [^] # Re: Un autre modèle

                  Posté par . Évalué à 2. Dernière modification le 03/11/14 à 17:12.

                  Un article coûte, tout compris, en moyenne 300$ à un éditeur.

                  1. PLoS est le plus mauvais éditeur du monde (tout en étant un des premiers du marché) et a des coûts de production 400% supérieurs aux autres éditeurs
                  2. PLoS publie des comptes faux, et 75% de leurs coûts dans leur bilan sont fictifs
                  3. Tu sors ton chiffre de ton slip

                  J'hésite, j'hésite… Serait-ce possible que quelqu'un qui crée un compte juste pour participer à une discussion qui n'a rien à voir avec le logiciel libre ne soit en fait pas intéressé par un échange honnête d'arguments?

                  Tu sais, les gens qui sont persuadés d'avoir raison sont aussi ceux qui pensent le moins avoir besoin de se renseigner avant de recopier une information. De là à dire que les gens persuadés d'avoir raison sont, en réalité, ceux qui ont le plus souvent tort, il n'y a qu'un pas…

                  Sur le fond, c'est complètement contre-productif de raconter n'importe quoi et de prétendre que certains éditeurs font des marges de 2000% (sic: deux mille pourcents, vendre à 6000$ quelque chose dont le coût est de 300$) : le problème des marges de l'édition scientifique (supérieures à 30%) est un réel problème en tant que tel! La réalité, c'est qu'en moyenne, les éditeurs facturent dans les 1500$ un service qui peut être évalué à 1200$ ce qui reste (plus ou moins) les mêmes marges que dans le modèle "traditionnel".

    • [^] # Re: Un autre modèle

      Posté par . Évalué à 10. Dernière modification le 30/10/14 à 16:47.

      les articles sont écrits bénévolement par des scientifiques

      Mon petit grain de sel, 99% des articles sont écrit par des gens qui sont payés pour mener des recherches, très souvent avec de l'argent public. Les papiers sont rédigé sur le temps de travail normal, ça n'a rien de bénévole.

      ajout : mais en fait c'est encore plus grave, le contribuable paye pour écrire les articles, et il paye pour les lire (même s'il ne veut pas les lire lui même il paye pour d'autres chercheurs puissent les lire).

      Please do not feed the trolls

      • [^] # Re: Un autre modèle

        Posté par (page perso) . Évalué à 10.

        Au moins, dans les pays communistes comme le États-Unis d'Amérique, les articles issues de recherches d'organismes publics sont disponibles au public. J'étais bien content d'avoir à disposition des articles de la NASA, par exemple (qui existaient également en version payante dans des revues, mais pourquoi aller payer pour cette version ?).

      • [^] # Re: Un autre modèle

        Posté par . Évalué à 2. Dernière modification le 30/10/14 à 17:02.

        Oui c'est exactement cela. Le contribuable paie deux fois.

        • [^] # Re: Un autre modèle

          Posté par (page perso) . Évalué à 3.

          Disons même trois, parce qu'il paye aussi le chercheur pour qu'il fasse la relecture, commentaires, validation des articles écrits par les autres.

      • [^] # Re: Un autre modèle

        Posté par . Évalué à 5.

        Ce que je voulais dire par là, c'est que ce n'est pas l'éditeur qui rémunère le scientifique pour écrire son article. Du point de vue de l'éditeur, ce travail est bénévole.

  • # Quand le public passe par le privé

    Posté par . Évalué à 10.

    Ce que je n'arrive pas à comprendre, c'est pourquoi la recherche publique continue de dépendre aujourd'hui, avec les moyens de communications qu'on possède, des revues.
    Revues, qui sont un système de diffusion qui date du siècle dernier et qui sont surtout des organismes privés avec des abonnements souvent exorbitants.

    D'autant que peu importe le modèle, lecteur payeur ou auteur payeur, il faut passer par ces revues pour avoir accès aux publications de la recherche publique, donc passer par un organisme privé pour pouvoir voir le résultat d'un autre public, ce que je trouve totalement aberrant.

    Et surtout cela implique un double coût pour la recherche :
    - celui de la recherche en elle-même, coût du matériel, de l'équipement, rémunération des chercheurs, etc.
    - celui des revues, que ce soit pour la publication des articles ou l'abonnement pour avoir accès aux dernières publications.

    Après, je sais que ce n'est pas représentatif de toute la recherche, qu'il existe des initiatives pour rendre tout cela plus libre, plus ouvert çà et là, mais que c'est globalement le système dominant et que je le trouve anormal.

    • [^] # Re: Quand le public passe par le privé

      Posté par . Évalué à 1.

      100% d'accord avec toi :)

    • [^] # Re: Quand le public passe par le privé

      Posté par . Évalué à 6.

      Ce que je n'arrive pas à comprendre, c'est pourquoi la recherche publique continue de dépendre aujourd'hui, avec les moyens de communications qu'on possède, des revues.

      Un chercheur a besoins de confronter ses trouvailles au regard de ses pairs. Et pour l'instant, la méthode qu'on a trouvé, c'est d'écrire un bout de papier dans lequel on explique la trouvaille et qui peut être relu par d'autres chercheurs. Le fait que ce processus soit géré par des entreprises privées n'est qu'une anecdote (et historiquement assez récente).

      • [^] # Re: Quand le public passe par le privé

        Posté par . Évalué à 2.

        Je suis d'accord que la confrontation des travaux avec des pairs est nécessaire, je me suis simplement mal exprimé en parlant de revues, je parlais des privées, celles des éditeurs.
        Il va de soi que les autres qui ont juste pour vocation de faire circuler les connaissances sans intérêt financier sont honorables :)

  • # Un peu de lecture sur le sujet

    Posté par . Évalué à 4.

    • [^] # Re: Un peu de lecture sur le sujet

      Posté par . Évalué à 2.

      Également un article intéressant qui n'est pas sur le même sujet (travaux scientifiques inutiles car pas de bonne qualité) mais dont les conclusions sont similaires (il faut repenser le système de publication et rendre tous les jeux de données publiques) :
      http://passeurdesciences.blog.lemonde.fr/2014/10/29/un-chercheur-denonce-linutilite-de-nombreux-travaux-scientifiques

      • [^] # Re: Un peu de lecture sur le sujet

        Posté par . Évalué à 5.

        J'ai lu l'article (le vrai, pas celui du Monde), et je trouve gonflé de publier un article de merde pour critiquer le travail scientifique des autres :-) Ce gars-là (J. Ioannidis) est quand même un gros troll velu ; son raisonnement ne vaut que pour quelques domaines très particuliers (comme par exemple les analyses biomédicales) sur des sujets qui sont très proches de l'ingénierie (protocoles standardisés, …). Le raisonnement est dangereux, car il assimile la recherche scientifique à un procédé industriel : il faut rationnaliser les coûts, regrouper les échantillons, etc. Mais c'est profondément débile, parce que la plupart de la recherche est, et doit rester, artisanale. La plupart des chercheurs se posent des questions originales, utilisent des méthodes uniques ou personnalisées, à partir d'échantillons uniques, etc. Ioannidis se plie à un exercice un peu ridicule, qui consiste à critiquer le travail de ses collègues sur des bases purement statistiques, et de prôner une recherche aseptisée qui fonctionne comme un processus industriel.

        De manière générale, il faut se méfier des mecs qui prétendent expliquer aux autres comment faire leur travail correctement. C'est pareil que ceux qui donnent des leçons de "beau code", ou les politiques de l'opposition qui savent mieux que tout le monde ce que le gouvernement devrait faire. Si le gars avait un secret pour faire de la bonne recherche alors que 85% de la recherche publiée est de la merde (selon lui), bah il devrait le faire plutôt que de donner des leçons aux autres.

        • [^] # Re: Un peu de lecture sur le sujet

          Posté par . Évalué à 4.

          C'est amusant, tu accuses ce J. Ioannidis d'avoir l'esprit étroit parce qu'il ne parle que de son domaine, c'est-à-dire le biomédical. Et tu généralises immédiatement sur ce qu'est la recherche à partir de ton expérience. Je suis désolé de ne pas partager ta vision romantique de la recherche intrinsèquement artisanale, ce serait tellement beau.

          Moi aussi, je connais un monde de la recherche (les maths) où le travail reste artisanal, et l'intuition une valeur fondamentale. Mais même dans ce domaine, il peut y avoir une grande part de travail de tâcheron. Les exemples connus sont le théorème des 4 couleurs ou la laborieuse démonstration du théorème de Fermat, mais on trouve des cas historiques de recherche par une approche stéréotypée et massive. Et je ne doute pas que d'autres disciplines pratiquent des approches peu créatives, plus systématiques et industrielles. Je ne suis pas choqué quand quelqu'un qui travaille dans la recherche biomédicale me raconte que son processus est très encadré et très normé. Il y a de tout dans la recherche, même des études statistiques rébarbatives.

          Quant à dire qu'une majorité de la recherche dans certains domaines ne vaut pas le papier pour l'imprimer, ni même l'énergie pour l'afficher à l'écran, le fait est établi avec une quasi-certitude. Je ne compte plus les études sur la non-reproductibilité des expériences en psychologie expérimentale ou la fragilité statistique des articles de neuro-imagerie, etc.

        • [^] # Re: Un peu de lecture sur le sujet

          Posté par (page perso) . Évalué à 4.

          La plupart des chercheurs se posent des questions originales utilisent des méthodes uniques ou personnalisées, à partir d'échantillons uniques, etc.

          Quelles belles excuses pour justifier des résultats que personne n’arrive à reproduire en dehors du labo d’origine…

          De manière générale, il faut se méfier des mecs qui prétendent expliquer aux autres comment faire leur travail correctement.

          Et ceux qui prétendent expliquer aux autres qu’ils doivent se méfier d’un type dont ils viennent à peine de découvrir l’existence, tu t’en méfies aussi ?

          • [^] # Re: Un peu de lecture sur le sujet

            Posté par . Évalué à 2.

            Quelles belles excuses pour justifier des résultats que personne n’arrive à reproduire en dehors du labo d’origine…

            Aussi bête que ça puisse paraitre, ça n'a presque aucune importante. Les résultats importants sont reproduits, et on s'aperçoit rapidement s'ils ne tiennent pas. Les résultats pas importants tombent dans l'oubli, qu'ils soient reproductibles ou non ne change rien.

            On vit à l'époque ou toute critique doit être manichéenne. Y-a-t'il des problèmes méthodologiques avec les pratiques scientifiques actuelles? Oui, forcément. Est-ce nouveau? Absolument pas. Je pense que le niveau des publications scientifiques et leur reproductibilité n'a jamais été aussi élevée. Il suffit de se plonger dans les journaux scientifiques des décennies passées pour se rendre compte à quel point ce qu'on reproche aujourd'hui aux pratiques scientifiques a toujours existé. Faibles échantillions? C'est une conséquence intrinsèque des limites de la pratique expérimentale. Biais de publication? Ça a toujours existé, la seule chose qui a changé est que maintenant les gens sont au courant, les éditeurs, les reviewers, et les auteurs font plus attention. Seuil statistique arbitraire? Là encore, les méthodes ont progressé ; plus moyen de publier sans corriger les tests multiples ou utiliser les taux de faux positifs à la place des p-values. Fraude? C'est inévitable dans toute activité humaine ; le taux de fraude repérée augmente, mais il reste très marginal, et les gens sont de plus en plus conscients du risque. Tout ça démontre que la méthodologie scientifique continue à progresser.

            Les principales plaies du système actuel sont le mode de financement, qui sélectionne les expériences peu originales ou convenues au détriment des nouvelles questions et qui génèrent des conflits d'intérêt, et le mode d'évaluation, qui privilégie des indicateurs quantitatifs (nombre d'articles et impact) plutôt que qualitatifs.

            Et ceux qui prétendent expliquer aux autres qu’ils doivent se méfier d’un type dont ils viennent à peine de découvrir l’existence, tu t’en méfies aussi ?

            Je connais le gusse depuis son buzz précédent qui prétendait que 85% de la recherche publiée était fausse—à mon avis, une belle mise en abîme. C'est profondément fallacieux—lisez le papier! Le gars joue avec des titres raccolleurs et les journalistes, mais c'est complètement creux. Il est strictement impossible de tirer des conclusions aussi générales sur la reproductibilité des résultats scientifiques sans mettre les mains dans le cambouis: tu te mets à la paillasse et tu essayes de reproduire les manips. C'est sûr, ça prend plus de temps que de publier des calculs crayonnés sur un bout de serviette!

            • [^] # Re: Un peu de lecture sur le sujet

              Posté par (page perso) . Évalué à 3.

              Aussi bête que ça puisse paraitre, ça n'a presque aucune importante. Les résultats importants sont reproduits, et on s'aperçoit rapidement s'ils ne tiennent pas. Les résultats pas importants tombent dans l'oubli, qu'ils soient reproductibles ou non ne change rien.

              Ça change que les études non-reproductibles ont quand même coûté leur part de l’argent public alloué à la recherche.

              Si ça ne te dérange pas, tant mieux, mais moi je préférerais que cet argent soit mieux employé (déjà qu’il n’y en a pas beaucoup…).

              Attention, je ne dis pas que l’orientation des financements doit être exclusivement décidé par des bureaucrates qui ne pensent qu’en termes d’efficacité, de profits ou de rendements sans rien connaître de la science sous-jacente.

              Mais on ne peut pas pour autant justifier de jeter ainsi de l’argent par les fenêtres au motif que « la recherche doit rester artisanale ». Quand on injecte des millions d’euros dans un truc, ce n’est plus « artisanal ».

              tu te mets à la paillasse et tu essayes de reproduire les manips.

              Et avec quel argent ? Va donc essayer d’obtenir des financements pour uniquement reproduire un résultat déjà publié, quand tout le monde à côté demande des financements pour obtenir des trucs nouveaux (qui ne seront pas reproductibles, mais c’est pas grave, tu l’as dit toi-même)…

              Et une fois que tu as reproduit les résultats, va donc essayer de publier un papier qui ne fait que confirmer un papier précédent.

              La seule initiative dans ce sens que je connaisse, c’est le Reproducibility Project, dont la seule existence met en évidence que tenter de reproduire les résultats de cinquante malheureux papiers (sur les trouze millions publiés) est un effort extraordinaire.

              • [^] # Re: Un peu de lecture sur le sujet

                Posté par . Évalué à 3.

                Ça change que les études non-reproductibles ont quand même coûté leur part de l’argent public alloué à la recherche.

                Le problème, c'est qu'il n'y a aucun moyen de savoir à l'avance si une manip est reproductible ou pas. Bien sûr, tu peux imaginer que certaines personnes savent que leurs résultats sont bancals mais publient quand même, mais il ne faut pas non plus sous-estimer l'éthique et l'estime de soi des scientifiques : presque tous les articles scientifiques sont publiés de bonne foi.

                La plupart du temps, la non-reproductibilité est due à des facteurs qui sont difficilement contrôlables : effet spécifique de l'échantillon, problème technique non-détecté, conditions très difficiles à reproduire, matériel "maison", expertise de l'expérimentateur, etc. ou simplement la malchance, comme l'obtention d'un résultat qui passe le seuil de signification statistique.

                Du coup, la seule manière de s'assurer de la reproductibilité, ça serait de répliquer la manip dans un autre laboratoire, par un autre expérimentateur. Et là, si tu es logique avec toi-même, tu devrais dire que la réplication inutile d'expériences concluantes a couté de l'argent public alloué à la recherche, avec lequel tu aurais pu faire d'autres expériences et avancer plus vite. Dans le même temps, il est d'ailleurs probable que des concurrents aient avancé plus vite, car ils n'ont pas vérifié les choses 50 fois.

                D'ailleurs, il y a quelque chose qui est non-dit dans ces histoires de non-reproductibilité : je pense que la très grande majorité des cas sont des exemples de "semi-reproductibilité", je veux dire par là des manips qui sont techniquement reproductibles (on prend les mêmes échantillons, le même matériel, au même endroit, et on peut répliquer les résultats), mais qui sont spécifiques à l'expérimentation (par exemple, qui ne fonctionnement plus avec d'autres échantillons). Et je ne vois pas pourquoi on blâmerait les scientifiques pour de telles affaires ; c'est le processus normal des avancées scientifiques : on infirme ou confirme des hypothèses sur la base de faits ; parfois on se trompe, alors on revient en arrière, et on recommence. Le côté malsain, il est apporté par la volonté d'arriver à un objectif démesuré (guérir le cancer) le plus rapidement possible, avec un budget rikiki. Tu n'obtiendras jamais d'argent si tu expliques que tu as besoin d'un 1M€ pour vérifier qu'une molécule a un effet sur une souche de bactérie, puis un autre M€ pour vérifier si c'est aussi efficace contre d'autres bactéries de la même espèce, puis un autre M€ pour regarder si ça touche plusieurs espèces, puis un autre M€ pour regarder les sources pathogènes, puis encore un pour les souches résistantes… Tu vends ton truc en disant que tu vas tester l'étape 1 (puisque de toutes manières tu n'auras qu'un M€), et tu extrapoles. Et quand tu extrapoles, tu te goures, évidemment, mais c'est normal, parce qu'on ne t'a donné le temps et l'argent seulement pour la première étape.

                Va donc essayer d’obtenir des financements pour uniquement reproduire un résultat déjà publié

                En pratique, les gens le font, mais ils ne publient pas la vérification. C'est indispensable quand tes résultats se basent sur des résultats précédents : tu es obligé de reproduire la première étape, et en faisant ça, tu vois bien si c'est reproductible. D'une manière un peu plus générale, c'est aussi vrai que même en période de vaches maigres, les scientifiques restent des gens curieux. Quand quelqu'un publie que les poils du cul des marmottes deviennent bleus quand tu les nourris avec de la noix de coco et que tu es spécialiste des marmottes, tu vas isoler une marmotte et lui donner de la noix de coco, pour voir. Évidemment, la taille d'échantillon et la qualité du contrôle expérimental sera moins bon que dans l'expérience originale, mais tu pourras dire à tes collègues "oui oui, j'ai essayé, mais il faut beaucoup plus de noix de coco que ce qu'ils indiquent dans l'article". Il y a aussi beaucoup de gens qui ont essayé tout plein de trucs sans réussir, et qui vont donner leur opinion : est-ce crédible, est-ce contraire à leur expérience, etc. Bref, tout ne passe pas nécessairement par les publications, ni par une réplication parfaite des expériences.

                • [^] # Re: Un peu de lecture sur le sujet

                  Posté par (page perso) . Évalué à 2.

                  Du coup, la seule manière de s'assurer de la reproductibilité, ça serait de répliquer la manip dans un autre laboratoire, par un autre expérimentateur. Et là, si tu es logique avec toi-même, tu devrais dire que la réplication inutile d'expériences concluantes a couté de l'argent public alloué à la recherche, avec lequel tu aurais pu faire d'autres expériences et avancer plus vite.

                  Non, en étant logique avec moi-même, je préfère 100 études rapportant 50 résultats reproductibles (à partir desquelles on peut réellement avancer) à 100 études rapportant 100 résultats à la reproductibilité incertaine.

                  Et je ne vois pas pourquoi on blâmerait les scientifiques pour de telles affaires ;

                  Je n’ai jamais parlé de blâmer qui que ce soit.

                  Il n’y a matière à blâmer que dans le cas où la non-reproductibilité est le fait de pratiques laxistes ou carrément frauduleuses. Si ce n’est pas la majorité des cas, pourquoi penses-tu immédiatement que je veux blâmer quelqu’un ?

                  c'est le processus normal des avancées scientifiques : on infirme ou confirme des hypothèses sur la base de faits ; parfois on se trompe, alors on revient en arrière, et on recommence.

                  Je pense que tu confonds deux choses :

                  • Émettre une hypothèse, la tester expérimentalement, et s’apercevoir qu’elle n’est pas valide (pas confirmée par l’expérience) : effectivement, c’est la base même de la méthode scientifique. Peut-être que tester l’hypothèse a coûté whatmille euros, mais il n’y a rien de reprochable là-dedans.

                  • Émettre une hypothèse, la tester expérimentalement, et obtenir et publier un résultat de mauvaise qualité — ou pire, frauduleux (peu importe d’ailleurs que le résultat prétende confirmer ou infirmer l’hypothèse). c’est de l’argent jeté par les fenêtres.

  • # Qualité des publications

    Posté par . Évalué à 3.

    Après avoir précisé que seule l’évaluation par les pairs permettait d’assurer la qualité d’une publication scientifique

    Oui, quand c’est bien fait. Ce qui n’est pas toujours le cas, même quand c’est publié par des « gros ».
    IEEE et Springer ont publiés des papiers générés avec SCIgen :

    According to Nature News, Cyril Labbé, a French computer scientist, recently informed Springer and the IEEE, two major scientific publishers, that between them, they had published more than 120 algorithmically-generated articles.

    • [^] # Re: Qualité des publications

      Posté par (page perso) . Évalué à 4.

      Oui, quand c’est bien fait. Ce qui n’est pas toujours le cas, même quand c’est publié par des « gros ».

      Parfois, c’est bien fait, mais l’éditeur décide de passer outre. Après tout publier un résultat sensationnel est plus important que la qualité scientifique des travaux, n’est-ce pas ?

      C’est ainsi que Nature a publié les papiers sur les « STAP stem cells » contre l’avis des reviewers qui avaient correctement pointé du doigt les faiblesses de ces papiers…

  • # HAL et ArXiv

    Posté par (page perso) . Évalué à 2.

    A part Phil, personne pour parler de HAL et d'ArXiv… Pourtant, c'est le but de HAL a la base d'avoir les sources des documents.

    Par ailleurs, je suis surpris d’entendre parler de revues en 2014 ! Avec le web, c'est complètement idiot de publier des numéros, il faut être dans un système de rolling release de publication continue, comme un planet ou twitter…

    On pourrait imaginer un système social, à la facebook, pour rewiever les articles, on pourrait utiliser nos identifiants Eduroam pour encadrer les dépôts d'article, ainsi chaque article soumis aurait le tampon de l'entité du compte Eduroam, à charge pour celui-ci de virer ses charlatans sous la pression du réseau… si cela s'avère justifié (cas des révisionnistes de Lyon).

    Je sais que le CCSD (UMS CNRS qui gère HAL) a réussi à exporter son savoir faire dans d'autres pays européen. A mon sens, HAL et ArXiv sont une bonne base de départ pour passer à l'échelon N+1.

    • [^] # Re: HAL et ArXiv

      Posté par . Évalué à 0. Dernière modification le 03/11/14 à 15:04.

      A part Phil, personne pour parler de HAL et d'ArXiv… Pourtant, c'est le but de HAL a la base d'avoir les sources des documents.

      Sauf que HAL ne propose que 30% de textes intégraux et un nombre de références ridicule par rapport à la production scientifique (au sens large pas uniquement sciences dures) française totale. En outre, HAL n'est pas moissonnable, ses embargos sont limités etc.. Sans parler de l'avenir de l'équipe de HAL (voir les articles sur le blog du CCSD) qui reste problématique.

      Je sais que le CCSD (UMS CNRS qui gère HAL) a réussi à exporter son savoir faire dans d'autres pays européen. A mon sens, HAL >et ArXiv sont une bonne base de départ pour passer à l'échelon N+1.

      Comme d'habitude en France, on a voulu tout centraliser alors que l'avenir est aux archives ouvertes institutionnelles ou thématiques qui interagissent entre elles, améliorant ainsi leur visibilité mondiale (par exemple dans un simple moteur de recherche dont le nom comme par G.) En Europe, la plupart des pays l'ont bien compris, il n'y a qu'à regarder le nombre de publications déposés dans des archives ouvertes Britanniques, Allemande, Espagnoles, Polonaises etc… Tous sont devant nous! Le CCSD n'a exporté aucun savoir faire puisque nous sommes, en France, en retard. ArXiv, qui existe depuis 1991, est par contre une bonne source d'inspiration pour ce qu'il faut faire.

      Par ailleurs, je suis surpris d’entendre parler de revues en 2014 ! Avec le web, c'est complètement idiot de publier des
      numéros, il faut être dans un système de rolling release de publication continue, comme un planet ou twitter

      Non ce n'est pas idiot mais logique. Le système de notation des chercheurs est, dans la plupart des pays, basé sur leurs publications dans les grandes revues. C'est le fameux facteur d'impact. Tant que les chercheurs seront notés ainsi, les revues existeront toujours.

  • # Qualité du rapport

    Posté par . Évalué à 1.

    Les auteurs de ce rapport n'ont malheureusement rien compris à l'open access ni aux pratiques commerciales des éditeurs de revues électroniques scientifiques. Il appelle seulement à favoriser la voie Gold.

    Le système «green (abonnement avec accès libre après embargo) se justifie à titre transitoire, c’est pourquoi il est
    nécessaire d’œuvrer à sa régulation dans une optique de réduction des embargos et de maîtrise des coûts

    Non ce n'est pas transitoire mais justement pérenne contrairement aux autres modèles, qui se succéderont. C'est une réappropriation de la production scientifique par les chercheurs, par les institutions.

    Cette solution, d’application expérimentale et limitée, engendre cependant des coûts d’infrastructure qu’il convient
    d’analyser >attentivement et de mettre en perspective

    Les coûts du green sont ridicules et correspondent annuellement au prix de quelques articles publiés dans la voie Gold. La plupart des archives ouvertes reposent sur des logiciels libres et les besoins techniques et humains nécessaires sont moindres. D'ailleurs dans la plupart des cas, les compétences requises (techniques, bibliothécaires, scientifiques, administratives) sont déjà présentes au sein des universités.

    Il faut en même temps étendre la logique de la licence nationale, à budget constant, pour y inclure l’accès libre
    en faisant évoluer le principe de l’Open Access sous la forme d’un abonnement forfaitaire centralisé : un contrat unique
    pluriannuel d’abonnement doit être négocié entre les pouvoirs publics et chaque

    La logique tarifaire des éditeurs fait que le prix par lecteurs potentiels (par étudiants ou chercheur d'une université par exemple) augmente avec la taille de l'Université. La seule licence totalement nationale actuelle a mené a une augmentation importante des prix. C'est comme cela que les gros éditeurs obtiennent des croissances annuelles à deux chiffres.

    Les revues, qu’elles entrent ou non dans l’accord national, seront homologuées selon leurs bonnes pratiques éditoriales, qui
    doivent être motivées en priorité par la qualité des articles et de la diffusion des connaissances, comme généralement
    pratiquées par les revues dirigées par des sociétés savantes.

    Quelle énormité! Les sociétés savantes (ex : American Chemistry Society, American Physics Society etc..) sont souvent les pires en matière de pratiques tarifaires.

    Bref, espérons que le consortium Couperin corrige de telles énormités avant quelqu'un ne se serve de ce rapport comme bible de bonnes pratiques.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.