Vers un accès libre aux résultats de la recherche…

Posté par . Modéré par Christophe Guilloux.
Tags :
0
23
mar.
2005
Communauté
Le CNRS, l'Inserm, l'INRA et l'INRIA ont choisi de se concerter pour mettre en place plus rapidement une politique commune, pour développer des archives ouvertes. Celle-ci repose sur la création d'archives institutionnelles propres à chaque établissement et compatibles, permettant aux chercheurs de déposer leurs publications et également, selon les établissements, l'ensemble de leurs travaux. En Angleterre, le rapport du Parlement du 20 juillet 2004 a recommandé que tous les établissements d'enseignement supérieurs du Royaume-Uni mettent en place des archives institutionnelles pour conserver les résultats publiés et les rendre consultables en ligne gratuitement.

Le NIH a présenté sa politique en faveur du libre accès à l'information scientifique le 3 février dernier.

Aller plus loin

  • # Le Net rendu à son concept

    Posté par . Évalué à 10.

    Je salue l'initiative. Pour moi cela résume tout le concept du Net : partage de connaissances. Car certaines fois celà devient vraiment dur de trouver de la doc évoluée sur certains points quand on est universitaire.
    • [^] # Re: Le Net rendu à son concept

      Posté par . Évalué à 8.

      ça rejoint l'initiative du MIT, OpenCourseWare[1], dont on avait déjà parlé sur DLFP[2].

      [1] http://ocw.mit.edu/index.html(...)
      [2] http://www.linuxfr.org/2002/10/22/10047.html(...)
    • [^] # Re: Le Net rendu à son concept

      Posté par (page perso) . Évalué à 10.

      Une conséquence sera la fin des éditeurs qui servaient à faire le lien entre ceux qui produisent des informations et ceux qui en cherchent. Ils se sont maintenus grâce à certain prestige, mais maintenant, leur fonction sociale est en train de fondre comme neige au soleil. Il n'est plus nécessaire de passer par un éditeur pour publier.

      On observe le même phénomène qu'avec les logiciels et la musique car nous sommes dans le domaine de l'immatériel que l'on peut donner et dupliquer à l'infini. Grâce à Internet, la chaine de distribution peut être de longueur nulle.
      Les éditeurs de musique vendaient des partitions, puis des disques. Les éditeurs de logiciels vendaient également des supports physiques.
      Les supports physiques disparaissant, le monopole de ces éditeurs ne peut reposer que sur des bricolages juridiques.
      L'un des plus fameux bricolages juridiques est à mettre à l'actif des anglais, il y a un peu plus de 100 ans : Pour protéger la profession de cocher, ils avaient voté une loi obligeant chaque automobile à être précédée d'un piéton agitant un drapeau rouge.

      Désolé pour vous, messieurs les éditeurs de publications, votre métier se termine maintenant. Tournez vous vers d'autres objectifs, vers la diffusion des découvertes à l'intention d'un public large, par exemple. C'est aussi une noble tâche, car la culture c'est aussi de connaitre les sciences et techniques de son temps. Limiter la culture aux matières littéraires est trop souvent la règle. Je pense qu'il est aussi important de connaitre les techniques utilisées dans un téléphone cellulaire que de connaitre la liste des dieux grecs ou romains.
      • [^] # Re: Le Net rendu à son concept

        Posté par . Évalué à 6.

        Une conséquence sera la fin des éditeurs qui servaient à faire le lien (...)


        Peut-être continueront-ils à synthétiser les études et à les rendre plus lisibles ou attrayantes ?
        • [^] # Re: Le Net rendu à son concept

          Posté par (page perso) . Évalué à 6.

          Peut-être continueront-ils à synthétiser les études et à les rendre plus lisibles ou attrayantes ?

          à ce moment-là ils ne seraient plus seulement éditeurs mais aussi auteurs...

          Pour dévier de sujet (désolé) pour la musique commerciale c'est la même chose : il me semble que les majors tentent de nous faire une bricolage juridique pour se rendre indispensables à la chaine musicale... les majors ne seraient-ils pas les cochers des temps modernes ? Eux tentent aussi de se reconvertir en commandant des oeuvres... mais si l'on en juge par le résultat assez pitoyable de la soupe "musicale" qu'ils nous pondent...
      • [^] # Re: Le Net rendu à son concept

        Posté par . Évalué à 10.

        Je voudrais nuancer quelque peu tes propos sous forme de commentaires.

        Je suis d'accord avec l'idée que certains éditeurs profitent de leur prestige (facteur d'impact, etc...) pour vendre leurs journaux.

        Cependant, il ne faut pas oublier une donnée très importante du principe de publication scientifique: le filtrage ou "refereeing", c.-à-d. la lecture de la publication à soumettre par d'autres scientifiques (le choix de ces derniers peut cependant ouvrir un autre débat...) pour acceptation (totale ou conditionnelle) ou refus de l'article.

        Remarquons que ce point ne touche pas vraiment la news ci-dessus puisque que les résultats mis en commun par les différents organismes cités semblent déjà avoir été publiés.

        Cependant, il FAUT garantir un tel filtrage si on ne veut pas voir tout et n'importe quoi publié sur le web: les fous littéraires pour commencer (ceux qui vous lient gravité quantique à la psychologie systémique comme les frères Bogdanov et autres adeptes), et pour terminer, les scientifiques sérieux mais ignorant l'existence d'une erreur fondamentale dans leurs longs calculs malheureusement faussés.

        D'autre part, il faut savoir que certaines revues sont déjà dans l'ère "nouvelle" en ne publiant que sous forme numérique, tout en garantissant un système de refereeing bien établi mais parfois payant.

        En conclusion, je pense qu'un système de publication/archivage scientifique totalement libre doit exister en parallèle à ces journaux mais pas sans un filtrage préalable des articles postés.

        Comment mettre en place un tel système tout en assurant sa gratuité est un autre problème que j'espère résoluble.


        Jack
        • [^] # Re: Le Net rendu à son concept

          Posté par . Évalué à 4.

          Ce filtrage est assuré bénévolement par les scientifiques. L'éditeur se contente de trouver les relecteurs et faire le lien entre ces relecteurs et le/les auteurs.

          Dans le cas des conférences par exemple,ce travail est assuré par les "comités de programmes". Les personnes des comités de programme sont aussi des scientifiques qui ne touche pas une prime pour ce travail.

          Il doit être possible de pouvoir redonner les résultats scientifiques aux chercheurs de manière libre et gratuite. Il est bien évident que ces résultats DOIVENT être relus pour avoir une légitimité.
          • [^] # Re: Le Net rendu à son concept

            Posté par (page perso) . Évalué à 2.

            > Ce filtrage est assuré bénévolement par les scientifiques.

            Ce filtrage est fait par les scientifiques sur leur temps de travail et sans rémunération supplémentaire. C'est pas tout a fait du bénévolat non plus ...
      • [^] # Re: Le Net rendu à son concept

        Posté par . Évalué à 8.

        Je nuancerais un peu là quand même. Le travail de l'éditeur d'une revue scientifique c'est aussi et faire relire les publications, de les éditer et de conseiller les auteurs. Si tout les scientifiques se mettaient à balancer leurs résultats sur internet comme ça sans "peer review", la validité de ceux-ci seraient à prendre avec plus de précaution.

        Par ailleurs, dans mon expérience personnelle, ce sont plus l'industrie et les brevets qui limitent la diffusion des connaissances que les éditeurs scientifiques. En général un éditeur ne verra pas d'inconvénient à ce que des auteurs diffusent le PDF de leur article sur leur propre pages web. Si un auteur a des difficultés financières pour payer les frais de publications, il peut demander à ne pas les payer.

        Enfin, la vraie difficulté consiste à avoir un système qui puissent rendre facile la recherche parmis toutes les publications de ces organismes, et je pense que c'est ce dont il est question ici, plutôt que de se passer des éditeurs de journaux scientifiques: mettre en place un "portail" d'entrée aux résultats produits par les chercheurs des organismes cités (quid des Universites d'ailleurs?).
        • [^] # Re: Le Net rendu à son concept

          Posté par (page perso) . Évalué à 2.

          Je répond à ton post, mais d'autres pensent apparemment la même chose que toi aussi je fais tout en bloc :

          "Le travail de l'éditeur de logiciels c'est aussi et faire relire les publications, de les éditer et de conseiller les auteurs. Si tout les développeurs se mettaient à balancer leurs logiciels sur internet comme ça sans "peer review", la validité de ceux-ci seraient à prendre avec plus de précaution."

          Moi ça me rappelle queque chose... et en ne changeant que 3 mots.

          Alors certes certains logiciels sont nuls, buggés ou tout ce qu'on veut, néanmoins au final qui peut nier que l'on y gagne énormément ? A mon avis personne.

          • [^] # Re: Le Net rendu à son concept

            Posté par (page perso) . Évalué à 2.

            Toi, tu n'as jamais approché le monde de la recherche pour dire ça...

            Écrire une publie et la mettre sur ton site, c'est facile, n'importe quel chercheur peut le faire. Maintenant, la « grandeur de la carrière » d'un chercheur se mesure au nombre de publies et aux conférences dans lesquelles il a publié. Si tu cherches un boulôt dans la recherche après une thèse par exemple, c'est la première chose que les gens vont regarder.

            Le fait que ton travail ai été revu par des gens extérieurs est un des trucs a la base de tout le système de la recherche aujourd'hui ...

            (et je dis ça en m'étant fait biter un papier la semaine dernière ...)
        • [^] # Re: Le Net rendu à son concept

          Posté par . Évalué à 4.

          En général un éditeur ne verra pas d'inconvénient à ce que des auteurs diffusent le PDF de leur article sur leur propre pages web.

          Ceci est malheureusement faux la plupart du temps. Lorsqu'on désire publier un article dans une revue scientifique, on cede les droits patrimoniaux a l'éditeur. Ceci implique notamment que l'auteur n'a pas le droit de diffuser son article en PDF par exemple sur sa page personnelle.

          C'est de cette manière que les éditeurs font de l'argent. Vu le prix des revues scientifiques, si tous les articles étaient accessibles sur le web, aucune revue ne serait vendue !
          • [^] # Re: Le Net rendu à son concept

            Posté par . Évalué à 0.

            Salut

            Je ne suis pas certain que tu aies raison. Lorsque le Monde proposait de consulter ses archives en ligne, ses rédacteurs ont gueulé en disant (avec raison) qu'ils n'avaient été payés que pour une seule publication de l'article.

            En quoi ce cas-ci est-il différent ?
            • [^] # Re: Le Net rendu à son concept

              Posté par . Évalué à 3.

              La publication d'un quotidien comme Le Monde et d'une revue scientifique sont deux choses differentes. Les chercheurs qui soumettent un article ne sont pas payés si cet article est publié, à la difference des redacteurs de Le Monde.

              Je ne dis pas que dans tous les cas, les auteurs n'ont pas le droit de fournir le PDF -- d'ailleurs beaucoup le font sans en avoir le droit -- mais dans plusieurs revues scientifiques informatiques (IEEE, ACM, ...), l'éditeur recupere les droits de publication et de diffusion des articles.

              Par contre, ce qui se fait courrament, c'est d'envoyer un mail a l'auteur de l'article et lui demander gentiment s'il peut nous en fournir une version electronique, sans passer par l'editeur...
      • [^] # Re: Le Net rendu à son concept

        Posté par . Évalué à 3.

        salut,

        Je réagis la dessus :


        Il n'est plus nécessaire de passer par un éditeur pour publier.


        J'espere que les éditeurs continuerons d'exister dans le monde de la publication scientifique, au moins un petit moment. Pourquoi ?

        Sur le net on trouver vraiment tout et n'importe quoi. Pour exemple, une personne me soutenait que plus un signal est échantilloné, plus on se rapporche de la courbe d'origine (par effet d'escalier), donc on retrouvait mieux le signal. Il me donnait le lien de cette _connerie_ sur un site a but de vulgarisation scientifique (pour ceux qui n'ont pas fait de signal, on le retrouve _exactement_ grace au theoreme de shannon). Heureusement, cette personne est ouverte, et apres lui avoir expliqué que non, c'est faut etc... a tout a fait accepté son erreur (il ne pouvait pas deviner non plus).

        Or, pour publier dans une revue, il y a des relecteurs pour tenter de filtrer les publi abusives. Meme s'il reste des publis plus que limites qui passent (exemple des freres bogdanov).

        Donc si tout le monde publie sur le web, sans commité de relecture, comment différencier une bonne d'une mauvaise publie ?

        Bien sur, on peut imaginer une sorte de commission, qui s'occuperait de ce type de cite, et qui se chargerait de la relecture. Ca serait l'idéal, et j'en reve... Mais j'y crois assez moyen en fait : les gouvernement, du type qu'on a, payer des gens pour relire des articles de recherche ? Je doute...

        Ceci-dit, j'ai hate que ce site voit le jour (il etait temps) !
        • [^] # Re: Le Net rendu à son concept

          Posté par . Évalué à 4.

          > Pour exemple, une personne me soutenait que plus un signal est échantilloné, plus on se rapporche de la courbe d'origine (par effet d'escalier)

          Tu peux préciser, là? La formulation est tellement floue que j'ai du mal à repérer le vrai et le faux là dedans.
          • [^] # Re: Le Net rendu à son concept

            Posté par . Évalué à 2.

            Ben, l'idée c'est que à partir d'un moment, le signal peut déjà être reconstruit parfaitement, donc ça sert plus à rien d'échantilloner plus.
            • [^] # Re: Le Net rendu à son concept

              Posté par . Évalué à 4.

              Je n'ai pas fait de traitement du signal dans le sens mathématique du terme, donc ce n'est pas moi qui étalerai ma science ici, mais il me semble tout de même que tout ceci n'est valable que dans la mesure où l'on a une idée générale de l'allure du signal que l'on récupère, et de la bande passante dans laquelle les données collectées sont encore pertinentes. Dans le même esprit, échantillonner un signal audio standard, par exemple, avec une profondeur supérieure à 19 ou 20 bits ne doit pas servir à grand chose non plus car la différence d'ampitude entre deux « marches d'escalier » est largement inférieure à celle du bruit de la meilleure des chaînes de transmission.

              Si c'est une sinusoïde pure que l'on numérise, il est clair que l'on peut rapidement en estimer la nature, la période et l'amplitude. Resynthétiser le signal à partir de ces trois grandeurs est alors élémentaire.

              Par contre, si l'information présente des caractéristiques que l'on ne peut prévoir à l'avance, typiquement des pics, il me semble qu'une fréquence élevée de mesure permet justement d'empêcher ceux-ci de passer au travers des mailles du filet, à défaut de pouvoir les restituer parfaitement.
            • [^] # Re: Le Net rendu à son concept

              Posté par (page perso) . Évalué à 4.

              Ben, l'idée c'est que à partir d'un moment, le signal peut déjà être reconstruit parfaitement, donc ça sert plus à rien d'échantilloner plus.

              On est donc dans le domaine de la théorie de l'échantillonnage.
              Tu peux reconstruire parfaitement un signal si tu connais toutes ses propriétés, notamment entre les points d'échantillonnage... Ca s'applique donc qu'à une gamme très réduite de signaux.
              Un simple contre-exemple de la citation est un signal de spectre infini. Par échantillonnage tu peux toujours essayer de mieux coller au signal tu n'y arriveras jamais. Parce qu'un type d'échantillonnage donné ne couvre qu'un spectre fini.
              Le problème est peut-être l'adjectif "parfaitement" qu'il faudrait sans doute changer en "suffisamment bien".
              • [^] # Re: Le Net rendu à son concept

                Posté par . Évalué à 0.

                Ton contre exemple reste aussi dans la théorie ;)

                Pour l'audio par exemple, la bande passante de notre oreille est de 20khz (environ), et donc le spectre pourrait etre considéré comme fini. Echantilloner a plus de 46Khz (qualité DAT) ne sert a rien -> le SACD est une pure arnaque...

                Enfin bref, c'est pas l'important. Ce que le site disait, c'etait juste qu'on approximait la courbe par une courbe en escalier, et ne faisait pas allusion a shannon. Et le site restait dans la théorie. C'etait la pour l'exemple. On ne va peut etre pas rentrer dans un cours de traitement de signal ici :)
                • [^] # Re: Le Net rendu à son concept

                  Posté par . Évalué à 1.

                  la bande passante de notre oreille est de 20khz (environ)

                  Echantilloner a plus de 46Khz (qualité DAT) ne sert a rien

                  Attention, tu compares deux valeurs qui n'ont rien a voir !

                  La bande passante de notre oreille nous empeche d'entendre les sons trop graves (les infrasons) et les sons trop aigus (les ultrasons).

                  La fréquence d'échantillonnage indique le nombre d'échantillons que l'on prend par seconde. 46kHz signifie que l'on prend 46000 échantillons par seconde. Plus on prend d'échantillons par seconde, plus le signal que l'on récupère «collera» au signal d'origine.

                  Ce n'est pas parce qu'on exprime ces deux grandeurs dans la même unité (le Hertz, abréviation Hz) qu'elles signifient la même chose !
                  • [^] # Re: Le Net rendu à son concept

                    Posté par . Évalué à 5.

                    Salut,

                    C'est pas la 1ere fois qu'on me fait cette remarque, et pourtant si, ces deux valeurs sont en rapport ! Et j'insiste la dessus.

                    Si on echantillone un signal a 44,1khz (qualité CD), c'est justement parce que notre oreille a une frequence de coupure Fc se situant a environ 22khz. On prend donc une valeur d'échantillonage Fe > 2*Fc, le théoreme de Shannon assurant alors qu'on retrouve le signal voulu (celui qu'on entend).

                    Et prendre plus d'échantillon que 46000 par seconde, ne sert strictement a rien pour améliorer la qualité, car on n'entend pas les fréquences qu'on rajoute au signal. Ou alors la personne qui les entends vient de la planete krypton ;)

                    Pour t'en convaincre, je t'invite a étudier le théorème de shannon et sa démonstration (abordable si on connait les séries et les transformées de fourier)

                    N'importe quel cours de traitement du signal te confirmera ce que je te dis, et je pense tout de meme avoir assez étudié le sujet...

                    Je ne sais pas d'ou vient cette idée que les deux valeurs n'ont rien a voir, alors que si, j'insiste : prendre 46000 échantillons par seconde d'un signal, nous assure de retrouver les fréquences inférieures à 23Khz.
                    • [^] # Re: Le Net rendu à son concept

                      Posté par . Évalué à 1.

                      Effectivement, j'ai répondu trop vite... N'hesitez pas à me moinsser ;-)
                    • [^] # Re: Le Net rendu à son concept

                      Posté par (page perso) . Évalué à 3.

                      j'ai entendu dire (et j'ai lu plusieurs fois dans des revues de Hi-fi et sur les sites de marques prestigieuses comme Krell, Naim, Audio research...etc) que, certes l'oreille est limité aux alentours de 20 khz, mais qu'il faut quand même des super CD qui puissent aller au dela.
                      l'explication est le taux d'erreur : si on echantillonne a 44.1 on a un taux d'erreur a 20 khz de 20% (je cite un chiffre au hasard) alors que si on echantillonne a 96khz on n'a plus qu'un taux d'erreur de 5 % a 20khz (encore un chiffre au hasard).
                      c'est vrai ? ça pourrait expliquer le super échantillonnage.
                      • [^] # Re: Le Net rendu à son concept

                        Posté par . Évalué à 1.

                        En fait, le gros probleme a resoudre dans la numerisation et qui fait qu'un vinyl est considéré comme plus fidele, ce n'est pas l'echantillonage, mais la quantification.

                        Qd on échantillone un signal, on va obtenir des valeurs réelles, et tout le monde sai ici que représenter un réel, ce n'est pas facile en informatique. Il faut donc quantifier ces valeurs (un nombre est coder sur 16bits pour le CD). Et c'est lors de cette quantification qu'on perd beaucoup en qualité.

                        Augmenter la fréquence d'échantillonage va un petit peu améliorer ca, mais le gain est vraiment négligeable (ie, n'est aps audible pour une oreille moyenne).

                        En fait le SACD, il faut le remplir... Et augmenter le taux d'echantillonage est un bon moyen de prendre bcp plus de place. Et comme argument marketing, ce dernier marche facilement aupres de qqn qui n'a pas de connaissance en signal : "on echantillone 2fois plus, la qualité est vraiment meilleure !".... Ce qui est completement faux.

                        Acheter une bonne platine CD et de bonnes enceintes améliore sensiblement la qualité, plutot qu'ecouter un SACD sur une chaine d'entrée de gamme...

                        Il suffit de faire l'experience : ecouter un vinyl, un CD et un SACD sur différentes platines, outre le fait que le vinyl est bruité, la qualité est meilleure., et la difference entre CD et SACD n'apparait pas. Plus les platines sont de qualités, plus cela saute aux oreilles.
                        • [^] # Re: Le Net rendu à son concept

                          Posté par (page perso) . Évalué à 3.

                          >> Acheter une bonne platine CD et de bonnes enceintes améliore sensiblement la qualité, plutot qu'ecouter un SACD sur une chaine d'entrée de gamme...

                          on est parfaitement d'accord.
                          je pense également que sur une chaine classique on entend pas de difference entre un cd et un super-cd.
                          par contre sur les très bons systèmes c'est différent !
                          j'ai eu l'occasion d'écouter un super-cd (24 bits 192 khz) et la même version (c'était le concerto pour violon de Beethoven) en cd classique (16 bits 44.1 khz) sur une excellente chaine (spectral audio pour la source le préampli et les deux amplis mono + wilson audio pour les enceintes) et bien c'était vraiment mieux avec le super-cd (plus défini et l'image sonore était plus profonde).
                          bien sur le prix de l'ensemble dépasse les 100.000 euros donc bon....
                          • [^] # Re: Le Net rendu à son concept

                            Posté par (page perso) . Évalué à 5.

                            pourquoi vont-il qquefois à 48KHz voire plus ?

                            parce qu'il faut examiner l'étage avant l'échantillonnage : le filtre passe-bas

                            (désolé pour le PDF) http://www.esiee.fr/~francaio/enseignement/version_pdf/I_structure.(...)

                            le filtre passe-bas laisse passer les fréquences inférieures à Fe/2 (Fréquence d'échantillonnage sur 2). Parce qu'il y a un effet de "repliement" si on laisse les fréquences f>Fe/2 avant l'échantillonnage ; elles se transforment avec l'echantillonnage en Fe-f

                            voir http://fr.wikipedia.org/wiki/%C3%89chantillonnage_%28signal%29(...)
                            et le théorème ici http://fr.wikipedia.org/wiki/Traitement_num%C3%A9rique_du_signal#Ec(...)

                            il faut donc un filtre "cardinal" c'est-à-dire qui laisse -soit tout passer -soit rien passer suivant la fréquence du signal

                            or ce filtre cardinal idéal n'existe pas.

                            On peut l'approcher bien sûr par synthèse d'un filtre d'un grand degré, mais on a alors le phénomène de gibbs, qui arrive dès qu'on essaye d'approcher une fonction contenant une discontinuité par une série de Fourier : proche de la discontinuité on a des oscillations d'amplitude constante qu'on ne peut réduire en étandant notre série.

                            cadre en bas à gauche : http://platsi100.ensieg.inpg.fr/eea/html/Image294.gif(...)

                            Pour obtenir moins d'oscillations et d'artefacts, on peut aussi se donner un peu de liberté : se donner une gamme de fréquences dans lesquelles le filtre peut évoluer lentement, et donc permettre moins d'oscillations aux des intervalles... ca s'appelle un "gabarit"

                            quand on donne un échantillonnage à 44KHz, on a une fréquence de Nyquist à 22KHz, or l'oreille atteint péniblement 20KHz. Cela nous donne un segment de 20 à 22KHz où le filtre peut passer tranquillement de passe-tout à passe-rien. Ce filtre garde quand même des oscillations à l'intérieur de la zone passe-bande...

                            http://r2d2.enssat.fr/images/enseignements/Tns/V1/Tutorial/tut-java(...)

                            pour réduire encore ces oscillations, on peut se donner une plage d'évolution encore plus large, par ex 20KHz à 24KHz ce qui revient à faire suivre ce filtrage par un échantillonnage à 48KHz...

                            ...... voilà... je ne sais pas si j'ai été assez clair, mais le fait de choisir une fréquence d'échantillonage plus élevée permet au final de faire diminuer les oscillations de l'amplitude du signal dans la bande passante du filtre passe-bas qui précède l'échantillonneur.
                    • [^] # Re: Le Net rendu à son concept

                      Posté par . Évalué à 1.

                      " le théoreme de Shannon assurant alors qu'on retrouve le signal voulu (celui qu'on entend)."

                      pfwaa, pas du tout... C'est l'approximation faite par les informaticiens ça, si tu vois une formule rigoureuse (pas dans une publi d'info) tu verras que c'est pas ça du tout.

                      Dans la vraie vie, on sample des signaux continus. Si ton signal samplé est {-1, 1, -1, 1, -1, 1} tu la recrées comment ta courbe, ça peut une courbe en crénaux, une sinusoïde, etc...

                      Fais le test toi même, avec un signal sinusoïdal à 440 Hz par exemple (23000 t'entendras rien) et un triangulaire. Sample les deux à 880 HZ et sample les deux à 44100 Hz, et puis écoute.

                      Evidemment ,si tu essaie de resampler un signal déjà échantillonné tu va pas aller loin, là le théorème de Shanon s'applique.

                      Pour le cas continu, un approcimation du théorème de Shanon doit surement plus dire un truc du style "en dessous de deux fois la fréquence t'entends n'importe quoi, au dessus t'as au moins la bonne fréquence, même si la courbe n'est pas la même".
                      • [^] # Re: Le Net rendu à son concept

                        Posté par . Évalué à 3.

                        Euh oui il y a une formule rigoureuse :

                        f(t) = sum( f(n) * sinc(n-t), -inf .. +inf)

                        f(t) est le signal continu, et f(n) les echantillons... Pour arriver a ce résultat, il faut que Fe > 2* Fc ou Fe est la frequence d'echantillonage et Fc la frequence de coupure.

                        Ah oui, ca vient d'un cours de maths...

                        Je ne sais pas d'ou tu sorts que c'est une approximation d'informaticien. L'approximation vient de l'implémentation numérique : pb de quantification, et une somme ne peut pas etre infinie (Mais comme le signal est a support fini, ce dernier pb disparait a priori)...

                        A la place de dire
                        "un approcimation du théorème de Shanon doit surement plus dire un truc du style"
                        , je te conseil de l'étudier, ca t'évitera de dire une connerie...

                        Surtout vu la maniere dont tu réponds, le "pfwa" qui laisse penser que j'ai rien compris, est tres mal venue, surtout vu ce que tu me sorts. Je pense connaitre un minimum le traitement du signal vu la ou j'en suis...
                        • [^] # Re: Le Net rendu à son concept

                          Posté par . Évalué à 2.

                          Ouais, mais dans un signal PCM c'est pas des coefficients de Fourrier que tu stock, mais bêtement des mesures de l'intensité à une certaine fréquence.
                    • [^] # Re: Le Net rendu à son concept

                      Posté par . Évalué à 2.

                      Je ne connais pas grand chose à la physiologie de l'appareil auditif humain, mais il n'est pas rare de lire ce que je vais dire.

                      Certes, on n'entend pas par défintion les ultrasons et les infrasons. Mais on les ressent.

                      Pour les infrasons, c'est plus facile de s'en convaincre, puisqu'un son à 5 Hz par exemple vous fait sauter sur votre siège 5 fois par seconde (oui bon, vous avez compris quoi).

                      Mais pour les ultrasons, c'est un peu moins intuitif. Certaines expériences montrent que des oreilles de musiciens arrivent à faire la différence entre un son échantillonné à 48 kHz et un autre à 96 kHz par exemple (sur le même matériel audio, à quantification égale, etc...). Cette différence est d'autant plus appréciable en musique classique, en écoutant un violon solo par exemple.
                • [^] # Re: Le Net rendu à son concept

                  Posté par (page perso) . Évalué à 3.

                  le SACD est une pure arnaque...

                  nan, c'est que tu n'as pas compris du tout le principe du SACD. En gros:

                  Le CD utilise un codage PCM (Pulse Code Modulation) : on échantillone à 44Hz une valeur que l'on quantifie (par exemple) sur 16 bit. Cette valeur quantifiée repésente la valeur du signal.

                  Le SACD procéde différemment : les valeurs quantifiées ne représentent pas le signal à un moment donné, il y a un calcul à faire (conversion delta-sigma). Par contre la valeur échantillonné n'est codée que sur 1-bit.

                  Après y'a pas de secret, pour garder autant d'info au total, si tu réduis le nombre de bit par échantillon, il faut en contrepartie augmenter la fréquence d'échantillonage.

                  [j'avais trouvé sur le web une super page expliquant ça mais je ne la retrouves pas ...]
                  • [^] # Re: Le Net rendu à son concept

                    Posté par . Évalué à 4.

                    La modulation delta-sigma donne de moins bons résultats que PCM pour les fréquences élevées.

                    Par ailleurs, le SACD est surtout un concentré de dispositifs anti-copie, qui utilise entre autres la variation de largeur des cuvettes (celles qui codent les 0 et le 1, comme sur un CD) pour stocker la moitié de la clé qui permet de déchiffrer les données codées sur le disque (l'autre moitié étant stockée au tout début du disque). Si c'est pas pervers, tout ça...
                  • [^] # Re: Le Net rendu à son concept

                    Posté par (page perso) . Évalué à 2.

        • [^] # Re: Le Net rendu à son concept

          Posté par (page perso) . Évalué à 5.

          Est-il vraiment nécessaire d'avoir des éditeurs pour éviter le n'importe-quoi ?

          Est-il vraiment nécessaire d'avoir du commercial pour avoir des articles de qualité ?

          Je vous signale aussi l'existance de "mutants" dans le système des publications scientifiques, comme http://arxiv.org/(...)

          Un autre monde est apparemment possible...
          • [^] # Re: Le Net rendu à son concept

            Posté par . Évalué à 2.

            > Est-il vraiment nécessaire d'avoir des éditeurs pour éviter le n'importe-quoi ?

            Probablement pas. Mais il faut payer à un moment pour gérer le processus de validation des articles (trouver des rapporteurs compétents, leur faire parvenir les articles, les relancer jusqu'à obtenir un rapport, faire parvenir le rapport aux auteurs et souvent recommencer avec une version modifiée de l'article). Ca prend du temps, donc ça coute de l'argent.

            Pour l'instant, les éditeurs savent faire. Le CNRS par exemple ne sait pas vraiment faire. Et n'oublions pas que le but n'est pas de faire un système franco-français. Ca prend d'avoir un processus de validation accepté par un grand nombre de chercheur.

            > Est-il vraiment nécessaire d'avoir du commercial pour avoir des articles de qualité ?

            Non. Ce ne sont pas les éditeurs qui écrivent les articles, ni eux qui les valident.

            > Je vous signale aussi l'existance de "mutants" dans le système des publications scientifiques, comme http://arxiv.org/

            C'est effectivement très bien, mais ça remplace seulement le papier. Pas la validation des articles.

            > Un autre monde est apparemment possible...

            Je l'espère. Mais il mettra longtemps à s'imposer.
            • [^] # Re: Le Net rendu à son concept

              Posté par (page perso) . Évalué à 2.

              Mais il faut payer à un moment pour gérer le processus de validation des articles (trouver des rapporteurs compétents, leur faire parvenir les articles, les relancer jusqu'à obtenir un rapport, faire parvenir le rapport aux auteurs et souvent recommencer avec une version modifiée de l'article)

              Pas nécessairement... wikipedia est un exemple de travail collaboratif non payant pour une publication de qualité (la spécificité de wikipedia est une édition collaborative contributive, mais si je me souviens bien, nupedia était + destinée à des spécialistes donc plus proche d'un système de publication scientifique. Son échec n'est dû, selon moi, qu'à un problème de promotion.)
              • [^] # Re: Le Net rendu à son concept

                Posté par . Évalué à 1.

                Wikipedia est une grande réussite, mais je ne pense pas que le modèle de wikipedia soit facilement transposable au mode de production et de validation des articles.

                Il serait plus difficile de faire fonctionner wikipedia, si avant de mettre en ligne un article, il fallait l'avis de deux "spécialistes" du domaine.

                Cela étant, il y a des revues scienfiques "autogérés", librement accessible en ligne.
                • [^] # Re: Le Net rendu à son concept

                  Posté par . Évalué à 2.

                  > Il serait plus difficile de faire fonctionner wikipedia, si avant de mettre en ligne un article, il fallait l'avis de deux "spécialistes" du domaine.

                  Effectivement. Je suis d'accord. Mais ce qui fait la grande différence entre un travail collaboratif et les revues scientifiques, c'est le nombre de personnes qui sont assez familières avec le sujet pour être en mesure de corriger des erreurs. Le principe même de la recherche fait que le nombre de personnes familières d'un sujet est très faible. Un travail collaboratif, sur la base du volontariat, peut marcher pour des domaines où on trouve à travers le monde des dizaines de milliers de correcteurs potentiels. Mais quand il n'y a qu'une cinquantaine de spécialistes, je n'en suis pas sûr.

                  Dis autrement, une page de wikipedia peut recouvrir l'activité de recherche de très nombreuses personnes au cours de très nombreuses années.

                  > Cela étant, il y a des revues scienfiques "autogérés", librement accessible en ligne.

                  Un exemple? Dans mon domaine de recherche, je n'en connais pas une.
                  • [^] # Re: Le Net rendu à son concept

                    Posté par . Évalué à 2.

                    >Un exemple? Dans mon domaine de recherche, je n'en connais pas une.

                    je ne sais pas ce qu'il entendait par autogérées mais pour ce qui est des revues librement accessible tu as par exemple :

                    le directory of open access journal http://www.doaj.org(...) qui en recense 1492 actuellement dans pleins de domaines.

                    Après, il n'ont pas forcément tous un facteur d'impact de fou mais c'est pas rien non plus :)

                    my 2 cents
                    jahrynx
                    • [^] # Re: Le Net rendu à son concept

                      Posté par . Évalué à 1.

                      Merci. Je ne connaissais pas ce site même si j'avais déjà croisé certains de ces journaux. Je confirme que certains ont un facteur d'impact raisonable.
      • [^] # Re: Le Net rendu à son concept

        Posté par . Évalué à 3.

        C'est une vision réductrice de la fonction d'un éditeur. Le travail d'édition, c'est lire et trier les articles proposés, suggérer des corrections aux auteurs, et mettre à disposition les productions sélectionnées.
        Pour les articles scientifiques, l'éditeur s'appuie sur le travail de relecteurs qui donnent anonymement leur avis sur les articles proposés. Il me semble donc naif de comparer les éditeurs musicaux et ceux de revues scientifiques.

        Si les éditeurs disparaissent, ce sera à chacun de faire ce travail de sélection. Que les éditeurs se rémunèrent pour ce travail est une autre question.

        Que se passerait il sans éditeur scientifique ? Probablement la même chose que quand on cherche un document technique sur internet avec un moteur de recherche : on utilise notre pif pour dénicher l'information qui a l'air sérieuse. Mais combien de fois a t-on lu des documents dont on s'aperçoit à la fin qu'ils sont périmés ou partiels. Quand le contenu est technique, immédiatement vérifiable, on peut s'en rendre compte. Quand le contenu devient compliqué, des spécialistes qui ont relu et approuvé des documents nous font plus que gagner du temps. Quand des instituts de recherche décident de mettre à dispo. des documents, ce sont dans l'immense majorité des documents qui ont été publiés ailleurs par un éditeur.

        • [^] # Re: Le Net rendu à son concept

          Posté par (page perso) . Évalué à 7.

          Le truc qu'il faut quand même préciser, c'est que les scientifique sont rarement payé pour leurs relectures (ou alors je me fait entuber).

          Le seul travail de l'éditeur qui demande du temps et de l'argent (si on se place dans une optique de revue en ligne) reste 1) de relancer les relecteurs pour tenir une date, 2) de faire des compilations d'articles et 3) de gérer le coté administratif de la revue.

          Or, le 1), je vois des chercheurs le faire tout les jours ici, pour des conférences, séminaires, numéros spéciaux, etc. Il n'y a pas besoin de compétences vraiment spécifique pour faire ça, des chercheurs aimant "administrer" font ça très bien.

          Le 2) est quand même assez limité, on voit beaucoup de revues sur un domaine compiler tout un tas d'articles plus ou moins en relation. Il ne reste que les numéros spéciaux sur une thématique, qui demandent quand même un certain travail d'organisation.

          Il ne reste que le 3), qui, quoi qu'on en dise, ne demande pas de compétences scientifiques particulière...

          Je pense qu'on surévalue toujours un peu trop le système de la relecture par les pairs. Sur tout les articles qui paraissent, combien sont vraiment relus avec attention par des gens compétent ? Combien sont relus par des gens n'ayant qu'un rapport vague avec le sujet, qui vont corriger les fautes d'orthographe et le style et raler parce qu'on a pas cité tel ou tel papier ?

          La seule vraie relecture valable, c'est d'être relu par une équipe qui va refaire la même chose, et comparer, or c'est loin d'être systématique (ça dépend des domaines quand même).

          Je ne serais pas choqué qu'on est accès à une base d'articles librement consultable, sur lesquels des scientifiques peuvent donner leurs avis... un article n'étant considéré comme publié qu'à partir d'un certain niveau... Évidemment, on tomberait sans doute facilement dans le copinage, mais n'est pas déjà un peu le cas ? Qui n'a jamais pesté parce qu'un article bourré de faute avait été publié, accepté par des relecteurs incompétents ?
          • [^] # Re: Le Net rendu à son concept

            Posté par . Évalué à 0.

            Le truc qu'il faut quand même préciser, c'est que les scientifique sont rarement payé pour leurs relectures (ou alors je me fait entuber).



            T'as pas choisi le bon domaine:

            JOURNAL OF MONEY, CREDIT, AND BANKING


            Payments to Referees

            In October 2001, the JMCB increased its payments to referees to $80 for reports received within one month and $25 for those received within two months. We are also shifting to email and the internet as much as possible. These actions should significantly speed up our editorial process. Our higher costs, however, require higher submission fees. We hope that most authors will regard these changes to Internet services as an improvement.



            http://webmail.econ.ohio-state.edu/john/GenInfo.php(...)
        • [^] # Re: Le Net rendu à son concept

          Posté par . Évalué à 2.

          Personellement je ne pense pas que les éditeurs soit inutiles.
          Quoi qu'il en soit je pense aussi que l'on est loin d'avoir exploré les possibilités offertes par internet. Google n'est pas tout !
          Par exemple, intéressé par python, je lis différents blog de python qui par un renvoie de l'un sur l'autre, des pages d'agrégation (daily python url) me donnent une source d'information très pertinante et fiable.
          De même si un site publiait des articles scientifiques ils pourraient très bien être modérés sur le modèle de TribuneLibre ou autre, ces systèmes restants à perfectionner.
          Le système de commentaires d'un article (comme sur linuxfr) permet souvent aussi de le contrebalancer.
          Pourquoi pas des système avec comparaisons statistiques de profils utilisateurs sur le style de irate (irate.sourceforge.net) pour faire du push.
          On pourrai aussi faire une base de donnée qui reprenne le système actuel de notation des revues pour les sites et les articles : la note d'un articles dépends de ses citations pondérées par le poids des articles qui le citent.
          Il reste surement encore d'autre techniques à tester. Ce qui est sûr avec internet, on donner à la contribution de chaque individu une portée universelle et non limitée aux abonnés.
          • [^] # Re: Le Net rendu à son concept

            Posté par . Évalué à 1.

            J'ai oublié un point : les conférences qui restent un moyen de qualifier le contenu et la qualité du travail d'un auteur. (exemple Pycon actuellement en cours)
      • [^] # Re: Le Net rendu à son concept

        Posté par . Évalué à 1.

        Une conséquence sera la fin des éditeurs

        Comment peut-on vouloir la disparition de O'Reilly, CampusPress, toussa ?
        Comment fera-t-on pour lire la doc de Postfix vautré sur son canapé ?

        le monopole de ces éditeurs ne peut reposer que sur des bricolages juridiques.

        La qualité de certains ouvrages est irremplaçable. Le mode d'utilisation est différent aussi. Je ne crois pas (je n'espère pas) que les éditeurs conventionnels soient en voie de disparition.
      • [^] # Re: Le Net rendu à son concept

        Posté par . Évalué à 1.

        En réalité, les éditeurs ne disparaîtront pas. Tout le système scientifique est basé sur les publications - qui existent non pas parce qu'elles permettent de communiquer, mais parce qu'elles valident le contenu des articles.

        Personne n'a mentionné l'initiative de la Public Library of Science (PLoS)
        http://www.plos.org/(...)

        Deux revues existent déjà, qui sont gratuites. On ne paye que pour publier,
        et une modique somme encore. Ainsi les éditeurs offrant des revues payantes sont menacés, mais pas les autres. Quant à savoir si les payants vont disparaître, cela peut être long encore à mon sens et à mon grand regret.
  • # Une bien bonne nouvelle !

    Posté par . Évalué à 7.

    Je salue également cette décision !

    Je suis en revanche assez surpris de l'apprendre par DLFP et non pas par un courrier interne (oui je bosse au cnrs), et on n'a pas toujours le reflexe d'aller systématiquement sur l'intranet (à tort), faut dire aussi que l'on est assez pris par nos projets internes à la DSI.

    en revanche les mails en rapport avec la CGT et autres contestations en tout genre fusent de tous les côtés

    Cette décision devrait permettre en effet de pouvoir (enfin) centraliser les données issues des différents labos et je vous assure que c'est pas du luxe, car beaucoup de labos bossent dans leur coin sans pour autant respecter les préconisations de la DSI en matière informatique :)

    dabowl_75

    • [^] # Re: Une bien bonne nouvelle !

      Posté par (page perso) . Évalué à 1.

      Je viens de diffuser la dépêche à mes collégues, dont certains sont également au CNRS. Et ils n'étaient pas non plus au courant !
      Ça fait drôle que moi, thésard au Cemagref qui est un des rares EPST qui ne fait pas partie de ce projet, soit au courant avant eux.
      Merci DLFP ;-)

      P.S. : ça fait rêver quand même ces archives ouvertes :-)
  • # Toujours les langues

    Posté par . Évalué à 3.

    Comme c'est le cas en informatique, les publications sont rédigés en Anglais des Etats-Unis d'Amérique sous prétexte que c'est dans cette langue que sont publiés les revues réputés, et sans publication, pas de financement :

    C'est sur la base de ces articles et communications que se joue la place d'un chercheur, d'une équipe de recherche, sur la scène internationale. C'est également sur cette base que ce chercheur, cette équipe, cette unité, seront évalués et financés.

    La recherche académique est principalement financée par des fonds publics, mais aussi par les dons, via les Associations et les Fondations sans que cela ne garantisse à chaque citoyen un accès à cette production scientifique.


    Si l'on souhaite rester honête, avec un retour au niveau du citoyen (qui finance la recherche publique par ses impôts), il faut publier en langue française (langue de la république selon la Constitution...), et éventuellement, en plus, dans une autre langue comme l'anglais. Sinon, au moins 94%¹ des Français ne comprendront pas de quoi il s'agit, et cet accès public aux articles ne profitera qu'aux chercheurs entre eux, et à la population anglophone, qui est déjà bien avantagée au niveau mondial par sa langue.

    ¹. Chiffre issue d'une statistique au niveau européen.
    • [^] # Re: Toujours les langues

      Posté par (page perso) . Évalué à 5.

      Mais si tu publies dans la langue de Molière, quels chercheurs étrangers liront tes travaux? Partager ses travaux avec le reste du monde est aussi important, sinon plus important, que les partager avec l'espace francophone: la recherche avance avec les retours des autres chercheurs, les confrontations, etc.
      La langue "vernaculaire" de la science est actuellement l'anglais, langue étudiée à l'école par à peu près tout le monde, ça ne pose donc pas vraiment de problème à un scientifique francophone de lire des articles en anglais.

      un retour au niveau du citoyen (...) 94% des Français ne comprendront pas de quoi il s'agit [à cause de l'anglais]
      On parle de travaux de recherche, pas de vulgarisation. Même écrites en français, les publications scientifiques ne sont pas au niveaux de lecture d'au moins 94% des français: tiens au hasard je sors un article sur les clitiques et un autre sur les actynomicètes... déjà si tu sais ce que c'est... (le premier cas touche à la grammaire/linguistique comparée et l'autre à un genre de bactéries).

      "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

      • [^] # Re: Toujours les langues

        Posté par . Évalué à 2.

        heuh actinomycètes je pense, et ça doit être des champignons / levures (mycètes -> mycos, y'a du grec là dedans)

        oui bon, ok -->[]
      • [^] # Re: Toujours les langues

        Posté par . Évalué à 3.

        Je pense que tu voulais dire véhiculaire et non vernaculaire...
      • [^] # Re: Toujours les langues

        Posté par . Évalué à 2.

        La langue "vernaculaire" de la science est actuellement l'anglais, langue étudiée à l'école par à peu près tout le monde, ça ne pose donc pas vraiment de problème à un scientifique francophone de lire des articles en anglais.


        Le fait est que c'est infiniment plus simple pour des anglophones natifs d'avoir acces à ces articles.

        L'ideal serait d'utiliser une langue commune, autre que l'anglais, de manière à mettre tout le monde sur un même pied d'égalité. Le cas de l'Esperanto par exemple a deja ete debattu plusieurs fois ici et ailleurs.

        Ensuite, rien n'empêche de publier à la fois dans la langue internationale, et dans la langue d'origine, même s'il est vrai que cela fait un peu plus de travail.
        • [^] # Re: Toujours les langues

          Posté par . Évalué à 4.

          L'ideal serait d'utiliser une langue commune, autre que l'anglais, de manière à mettre tout le monde sur un même pied d'égalité.


          Je propose le finnois. C'est parlé par seulement 6 millions de personnes dans le monde (il y a donc 5 994 000 000 personnes dans le monde qui ne seront pas avantagées), c'est une langue qui ne prend pas ses racines dans l'indo-européen et donc n'avantage pas les personnes parlant déjà des langues indo-européennes (c-à-d les langues latines, germaniques et slaves en Europe), et en plus, c'est une langue naturelle, qui a de véritables racines linguistiques (au contraire de l'Espéranto qui a été créé de toutes pièces et que certains n'aiment pas pour son parfum artificiel). Enfin, le finnois est une langue très régulière (la conjugaison de son verbe être contient une seule forme irrégulière), qui ne connait pas de genre (les anglophones ne seront pas perdus), et qui s'écrit à 99,9% comme elle se prononce (on ne peut pas en dire autant de l'anglais, du français ou du chinois).

          Bref, tout le monde devrait se mettre au finnois.

          Répétez après moi le mantra de l'étudiant en finnois:
          Suomi on helppo, suomi on helppo, suomi on helppo...
          • [^] # Re: Toujours les langues

            Posté par . Évalué à 2.

            À noter que la Finlande fut, avec la Chine, l'Inde, le Japon, l'Afrique du Sud, l'Iran qui s'appelait la Perse et quelques autres pays, favorable à ce que cette langue soit adoptée par la Société Des Nations (SDN) comme langue auxiliaire internationale.
        • [^] # Re: Toujours les langues

          Posté par (page perso) . Évalué à 4.

          > L'ideal serait d'utiliser une langue commune, autre que l'anglais, de
          > manière à mettre tout le monde sur un même pied d'égalité.

          Trop fort ...
          Ici tu n'améliore nullement la compréhension de la majorité des gens, tu te contente de pénaliser ceux qui avaient de la facilité. Comme égalité par le bas je ne vois pas mieux.

          C'est quoi l'intérêt ? tu es jaloux de ceux qui parlent la langue anglaise dès leur plus jeune âge ? ça résoudra quoi de leur imposer un apprentissage plus difficile ? C'est quoi le but de ton "égalité" ? si c'est de faciliter l'accès à la connaissance alors c'est loupé (tu la dégrades, certes pour une minorité seulement mais tu ne fais que la dégrader)..
          • [^] # Re: Toujours les langues

            Posté par . Évalué à 0.

            Tant qu'a compliquer pensé a moi...
            Étant dyslexique, j'ai souvent du mal avec beaucoup de mot je serai donc extrêmement content si vous pouviez tous écrire en phonétique....
            • [^] # Re: Toujours les langues

              Posté par . Évalué à 2.

              Ça tombe bien, l'anglais est une langue qui produit beaucoup plus de dislexiques que le français, par exemple.
          • [^] # Re: Toujours les langues

            Posté par . Évalué à 3.

            Ici tu n'améliore nullement la compréhension de la majorité des gens, tu te contente de pénaliser ceux qui avaient de la facilité. Comme égalité par le bas je ne vois pas mieux.

            L'anglais est une langue tres difficile à maitriser (beaucoup trop de verbes irréguliers, des prononciations à connaitre par coeur par exemple), tout comme le français d'ailleurs.

            L'anglais, c'est bien pour les anglophones natifs, mais c'est une plaie pour le reste du monde. Mon propos est tout simplement de dire qu'une langue internationale doit être accessible de la manière la plus simple possible à une majorité de gens. Pour cela, la création d'une langue artificielle n'est peut-être pas une mauvaise idée. J'ai parlé de l'espéranto car c'est la plus connue. Mais cette langue pourrait certainement être améliorée.

            ça résoudra quoi de leur imposer un apprentissage plus difficile ?

            Je ne vois pas en quoi demander aux anglophones natifs d'apprendre une autre langue est un apprentissage difficile. Tout le monde le fait... avec l'anglais.

            si c'est de faciliter l'accès à la connaissance alors c'est loupé (tu la dégrades, certes pour une minorité seulement mais tu ne fais que la dégrader)..

            Je ne vois pas en quoi utiliser une langue de communication internationale qui soit plus simple à apprendre et à utiliser que l'anglais est une mauvaise idée.
            • [^] # Re: Toujours les langues

              Posté par (page perso) . Évalué à 1.

              Si c'est pour mettre une langue plus neutre et plus simple alors pourquoi pas (même si je n'y crois pas concernant l'esperanto, dès qu'elle sera largement usitée elle aura elle-même ses exceptions, ses expressions et ses connotations de termes, c'est le lot de toute langue 'vivante').

              Mais dans le commentaire auquel j'ai répondu ça ne parlait pas de simplicité mais d'égalité. Pour moi c'est nettement différent.
              Faire en sorte que la langue soit étrangère à tout le monde pour ne pas que ce soit plus facile à certains c'est nettement différent dans l'esprit que faire en sorte d'avoir une langue la plus simple pour faciliter l'apprentissage.
              • [^] # Re: Toujours les langues

                Posté par . Évalué à 3.

                Faire en sorte que la langue soit étrangère à tout le monde pour ne pas que ce soit plus facile à certains c'est nettement différent dans l'esprit que faire en sorte d'avoir une langue la plus simple pour faciliter l'apprentissage.

                Je suis d'accord avec toi, ce sont deux choses différentes. Ceci dit, je reste persuadé que l'anglais comme langue de communication internationale est une mauvaise chose tant par sa complexité que par son accès infiniment plus facile aux anglophones.

                À propos, l'adoption de cette langue (l'anglais) n'a pas été un choix, mais cela a été imposé petit à petit.
        • [^] # Re: Toujours les langues

          Posté par (page perso) . Évalué à 1.

          C'est d'accord, revenons au latin, ex-langue vernaculaire (c'est bien le mot) de la science, de la loi et du reste.
          Le latin a l'avantage (sur le finnois) d'être une langue figée dans sa grammaire et qui n'évolue plus, sauf par adjonction de mots nouveaux.
          Avantage aussi de disposer d'une littérature "classique" importante, qui permettra aux forts en thèmes de se perfectionner tout en se distrayant.
          Ah! et puis encore: l'avantage énorme d'être parlé dans à peu près tous les pays de la planète, et une bonne partie des terres émergées, grâce aux gens d'église.
          C'est décidé remettons nous au latin et lançons une grande campagne de sensibilisation de la recherche mondiale.

          "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

      • [^] # Re: Toujours les langues

        Posté par . Évalué à 5.

        Mais si tu publies dans la langue de Molière, quels chercheurs étrangers liront tes travaux?


        Les recherche en mathémétique a, parait il, encore l'habitude de publier en Français. Certains disent que c'est à cause d'une certaine renommée des mathématiciens français, historiquement. On peut aussi penser l'inverse, c'est à dire que l'école mathématique française est encore reconnue aujourd'hui car elle publie en français.

        La langue "vernaculaire" de la science est actuellement l'anglais, langue étudiée à l'école par à peu près tout le monde [...]

        Étudiée par presque tout le monde, en effet, mais pour quel résultat ? Au niveau du bac, 1% des élèves français peut tenir un conversation normale en anglais. C'est mieux que les indonésiens avec 1 pour mille, mais on peut pas vraiement dire que c'est une réussite. Il faut arrêter de croire ce que l'on nous rabache, sans preuve : "tout le monde parle anglais". Dans la communauté du LL, certes, un proportion plus grande que la moyenne sait lire l'anglais, et éventuellement écrire (bourré de fautes ?), des commentaires dans des programmes ou poser deux ou trois questions sur IRC.

        ça ne pose donc pas vraiment de problème à un scientifique francophone de lire des articles en anglais.


        Science et langue ne font, en général, pas bon ménage. On sépare d'ailleurs traditionnellement les filières scientifiques des filières littéraires (bac S et bac L). Un scientifique, sauf exception, n'est pas spécialement doué en langues, car un esprit scientifique procède par déduction logique, alors que l'apprentissage d'un langue procède par anihilation de reflexes : on dit "one hand, two hands" mais lorsque tu recontre "mouse", tu dois te défaire du reflexe "foots" pour apprendre "mice", etc. (Le français n'est pas mieux à cet égard).

        Pas de problème de lire un article en anglais ? Peut être, mais il me faut, en gros, tout de même au moins deux fois plus de temps pour lire un article scientifique en anglais qu'un article en français, sans parler des éventuelles erreurs de compréhension. C'est pas ce que j'appelle une absence de problème. De plus, Le fait de lire un article en anglais, alors qu'il a été rédigé par des Français est très frustrant, d'un part à cause de la difficulté de lecture qui pourrait être évitée, et d'autre part, car cela revient à déconsidérer sa propre langue, qui serait inapte a transmettre le savoir scientifique.

        Et même si, avec l'habitude, cette différence peut aller en s'estompant (moins de consultation dans le dictionnaire, ...), il restera toujours le problème de l'écriture d'articles directement en anglais. Nombre d'articles sont refusés par les éditeurs à cause d'un anglais trop mauvais.

        Après la guerre, l'industrie Japonaise a dépassé bon nombre d'industries eurpéennes, dans des domaines varriées (microscopes électronique, appareils de diffraction des Rayons X, etc.), car les japonnais ont publiés leur résultats de recherche en japonnais, facilitant ainsi l'accès au développement des nouvelles technologies dans leur propre pays. En France, pour qui travaille la recherche ? Pour les anglophones (américains, anglais, australiens, ...) qui seront ceux qui auront accès avec le moins d'effort au résultat de recherche ?
        • [^] # Re: Toujours les langues

          Posté par . Évalué à 3.


          mais lorsque tu recontre "mouse", tu dois te défaire du reflexe "foots" pour apprendre "mice", etc.


          mais lorsque tu recontres "foot", tu dois te défaire du reflexe "foots" pour apprendre "feet", etc.
          • [^] # Re: Toujours les langues

            Posté par . Évalué à 2.

            Oups, désolé, j'ai changé d'exemple en cours de route... justement parce que ce je n'étais plus certain du pluriel de "foot", plus exactement je ne savais plus si "feet" prenait un "s" à la fin ou pas ! Comme quoi !
            Merci pour la correction.
        • [^] # Re: Toujours les langues

          Posté par . Évalué à 2.

          Pas de problème de lire un article en anglais ? Peut être, mais il me faut, en gros, tout de même au moins deux fois plus de temps pour lire un article scientifique en anglais qu'un article en français, sans parler des éventuelles erreurs de compréhension.


          Pour le plaisir de te contredire, je peux t'assurer que dans des domaines de recherche totalement dominés par les anglophones (au hasard dans l'informatique), il peut se produire la situation inverse : les gens (moi par exemple) se sont formés en lisant des articles et des livres en anglais, et quand ils doivent lire un article sur un sujet qu'ils connaissent mais en français, ils sont perdus, parce qu'ils ne connaissent pas le vocabulaire technique.

          On sépare d'ailleurs traditionnellement les filières scientifiques des filières littéraires (bac S et bac L). Un scientifique, sauf exception, n'est pas spécialement doué en langues, car un esprit scientifique procède par déduction logique, alors que l'apprentissage d'un langue procède par anihilation de reflexes

          L'apprentissage d'une langue se fait comme tout apprentissage par l'acquisition de réflexes. L'habitude d'utiliser la langue crée les réflexes utiles. Tu peux leur reprocher de ne pas suivre une logique à laquelle tu es habitué, mais il n'y a rien à annihiler.
          La séparation en filières peut aussi être interprétée comme le résultat d'une certaine pression sociale et éducative qui habituerait les enfants à raisonner d'une certaine façon dès leur plus jeune âge. La répartition selon les sexes dans ces filières me donne en tout cas cette impression.

          Pour les afficianos de l'esperanto, c'est gentil mais utiliser une langue que vraiment personne ne comprend ni n'utilise, ça ne va rien améliorer. Ne me dites pas que c'est une langue simple que n'importe qui peut maîtriser rapidement, cela n'est potentiellement vrai que pour les latins. Bref, ça ne ferait que déplacer le problème.
          • [^] # Re: Toujours les langues

            Posté par . Évalué à 4.

            Pour le plaisir de te contredire, je peux t'assurer que dans des domaines de recherche totalement dominés par les anglophones (au hasard dans l'informatique), il peut se produire la situation inverse : les gens (moi par exemple) se sont formés en lisant des articles et des livres en anglais, et quand ils doivent lire un article sur un sujet qu'ils connaissent mais en français, ils sont perdus, parce qu'ils ne connaissent pas le vocabulaire technique.


            Oui, c'est effectivement un risque : la langue qui ne diffuse pas le savoir finit par être une langue en danger. C'est d'ailleurs de cette manière que l'état français a essayé de faire disparaitre les langues régionales, en interdisant son usage à l'école.

            Tu peux leur reprocher de ne pas suivre une logique à laquelle tu es habitué, mais il n'y a rien à annihiler.


            A moins d'être ethymologiste, et encore, va trouver une logique à la conjugaison française du simple verbe "être". Apprendre a conjuger ce verbe à toutes les personnes, rien qu'au présent, nécessite d'apprendre 6 formes ("suis, es, est, sommes, etes, sont"). En anglais, c'est "seuelement" 3 formes différentes ("am, are, is"). Tout ceci doit s'apprendre, et seule l'apprentissage par coeur et l'habitude permet d'éviter les erreurs. Quelqu'un parlant parfaitement le français, mais qui découvre pour la première fois le verbe "prédire", dira imanquablement "vous prédites", sur le modèle de "vous dites", alors qu'il faut dire "vous prédisez". S'il y a une logique, ce n'est en effet pas la mienne, et il faut bien annihiler les reflexes par un apprentissage pour éviter les reflexes appris ailleurs, et même si c'est inconscient, un enfant de langue maternelle effectue cet apprentissage et ce détournement de reflexes lors de l'apprentissage de sa langue. Certes, cela mets en place d'autres reflexes, qui annulent, ammendent, par l'apprentissage des exceptions les reflexes appris précédement.

            Pour les afficianos de l'esperanto, c'est gentil mais utiliser une langue que vraiment personne ne comprend ni n'utilise, ça ne va rien améliorer. Ne me dites pas que c'est une langue simple que n'importe qui peut maîtriser rapidement, cela n'est potentiellement vrai que pour les latins. Bref, ça ne ferait que déplacer le problème.


            Encore les vieux ragots sur l'espéranto... Il serait interessant, pour une fois, que ceux qui se permettent de le critiquer prennent la peine de savoir de quoi ils parlent.

            personne ne comprend ni n'utilise


            Les 2 à 15 millions de locuteurs (le nombre exact est inconnu) te remercient, il s'agit surement de "personne". Les 21643 articles de Vikipedio (http://eo.wikipedia.org)(...) ont également été écrit par personne.
            Pour comparer, d'après Wikipedia, il y 12 millions de locuteurs de Tchèque, mais pardon, sans doute que personne ne parle le tchèque, puisque c'est à priori moins que rien, le nombre d'espérantophones.

            Ne me dites pas que c'est une langue simple que n'importe qui peut maîtriser rapidement, cela n'est potentiellement vrai que pour les latins.


            C'est pour cela qu'en 1922, c'est la délégation iranienne qui a proposé l'utilisation de l'Espéranto à la SDN. C'était surement un acte de masochisme, mais heureusement, la France et le Royaume Uni ont réussi a créer une commission qui a étudié le problème. La dite commission a produit un rapport, qui concluait sur une recommandation : l'usage de l'Espérnato serait bénéfique. Ce rapport à été mis en bas de la pile, trop dangereux pour la suprématie de la langue française de l'époque (ou comment des choix patriotiques se retournent contre nous même).
            On a constaté que pour un Japonais typique, à raison du même nombre d'heures d'étude hebdomadaire, une année d'espéranto permet d'atteindre le niveau de communication équivalent à 8 à 10 ans d'anglais. Le succès inégalé des Asiatiques aux concours littéraires espérantistes prouve année après année que ces peuples se sentent à l'aise en espéranto, puisque son fonctionnement interne leur est familier.

            Bref, ça ne ferait que déplacer le problème.


            En quoi passer d'un problème de diffuculté N à un autre problème, de difficulté N/10 est il stupide ?

            Petit proverbe pour terminer :-)
            Les seuls combats perdus d'avance sont ceux qu'on ne livre pas


            L'Espéranto n'a pas échoué, comme certain semblent le penser. Au contraire, par rapport aux obstacles qu'il rencontre (tabou médiatique, ragots, sorte de malaise quant à l'aveu de notre incapacité à parler correctement anglais), c'est plutôt une grande réussite, et grâce à internet, le nombre de personnes qui 'apprennent est de plus en plus grand.
      • [^] # Re: Toujours les langues

        Posté par (page perso) . Évalué à 2.

        les clitiques c'est les mots à la con qui « amusent » beaucoup les chercheurs en TALN (Traitement Automatique des Langues Naturelles).

        Exemple : Je le lui ai donné.

        On vois bien que le et lui son à des endroits non triviaux, ce qui rend certains modèles de grammaire théorique non utilisable dans ce cas.

        Je peux le lire ton article?
        • [^] # Re: Toujours les langues

          Posté par (page perso) . Évalué à 2.

          Oui, bien joué!
          L'article n'est pas de moi, je crois qu'elle ne l'a pas encore publié. C'est un mémoire sur une comparaison des clitiques dans les langues latines européennes.
          Je n 'en avais pas perçu l'intéret pour les TALN.

          "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

      • [^] # Re: Toujours les langues

        Posté par . Évalué à 1.

        La langue "vernaculaire" de la science est actuellement l'anglais, langue étudiée à l'école par à peu près tout le monde


        Je n'ai jamais vu d'arguments aussi fallacieux, sachant que si l'on étudie l'anglais à l'école, c'est précisément parce qu'il s'agirait de la langue la plus utilisée (dans les pays occidentaux).

        Donc, en gros, on doit parler anglais parce qu'on l'a appris à l'école, et on l'apprend à l'école parce que c'est la langue la plus parlée, bref, le serpent qui se mord la queue.

        Ma théorie personnelle, c'est que si l'anglais est aussi répandu aujourd'hui, c'est bien parce que les États-Unis l'ont imposé comme tel, et que le reste du monde à moutonnement suivi !

        J'estime moi aussi que des recherches financées par les impôts des français devraient être publiées en français, et libre aux gens qui le souhaitent d'en faire la traduction dans la langue qu'ils désirent.

        Au moins, ça éviterait à la moitié de la planète d'avoir à apprendre l'anglais (ainsi que bien souvent une autre langue complémentaire), tandis que les étudiants États-Uniens ne connaissent en grande majorité aucune autre langue que la leur !

        Cette prédominence de la langue anglaise est un avantage certain pour les États-Unis, et ce dans tous les domaines (économique, politique, scientifique, etc.), et nous l'entretenons en ne faisant pas l'effort de ne pas nous soumettre à la dictature de l'impérialisme idéologique.

        Désolé, mais si mes enfants doivent apprendre une langue étrangère, je souhaite que cela le soit par esprit culturel, et non par obligation commerciale !
        • [^] # Re: Toujours les langues

          Posté par (page perso) . Évalué à 4.

          Je trouve que c'est absurde. Il y a eu d'autres langues prédominantes par le passé (latin, français, ...). Cette hégémonie est criticable, soit. Reste qu'elle permet à un chercheur français de lire un article publié par un sri-lankais, un bengali, un algérien... Si j'étais rêveur, je me demanderais ce qu'il serait advenu des importants résultats de recherches de mon père s'ils avaient été publiées en arabe...
          Bref, que seraient nos échanges, sans langue commune ?

          "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

  • # Des effets négatifs ?

    Posté par (page perso) . Évalué à 0.

    Je salue moi aussi cette nouvelle, mais n'y a-t-il pas des effets négatifs possibles ?
    Le fait que la publication d'un article ait un coût jouait un rôle dans la limitation du nombre de publications, en les sélectionnant par l'argent. Si la publication se fait à coût zéro, cela permettra certes à plus de gens de publier, mais ne risque-t-il pas d'y avoir une explosion des publications ? Et chacun sait que la profusion de publications nuit à la diffusion de l'information.
    D'accord, il reste les comités de lecture qui, dans les conférences, décident quels articles sont acceptés et lesquels sont refusés, et jouent donc aussi un rôle dans cette limitation (les conférences ont une notoriété et un niveau d'autant plus élevé quel leur taux d'acceptation est faible). Mais, si les conférences elles-aussi disparaissent, remplacées par des conférences électroniques, ne risque-t-on de voir proliférer des petites conférences, par exemple sur des thématiques très pointues, avec une foultitude d'articles, plus ou moins bien rédigés, avec des idées plus ou moins intéressantes ?
    Cette profusion d'informations risque d'étouffer les scientifiques. Peut-être qu'un système de classification universel (utopique, bien sûr) serait nécessaire pour permettre aux chercheurs de trouver les articles de leur domaine, sans les empêcher de picorer dans les autres domaines.
    Voyez-vous d'autres risques ?
    • [^] # Re: Des effets négatifs ?

      Posté par (page perso) . Évalué à 2.

      Un peu comme Internet, quoi... Un bon outil de recherche et le problème est contourné.
      • [^] # Re: Des effets négatifs ?

        Posté par (page perso) . Évalué à 1.

        Parce que tu trouves qu'il existe de bons outils de recherche, toi ?
        Tu as le choix entre :
        - les indexeurs automatiques couvrant bien (tout ?) le web qui se basent sur des correspondances de chaînes de caractères : tu parles d'une affaire ! Avec tous les progrès effectués en analyse de la langue, on pourrait proposer un outil de meilleure qualité, qui accède au moins en partie à la sémantique. Toute recherche produit énormément de bruit (=page inutiles) et de silence (=pages non trouvées); le premier défaut est en partie comblé en utilisant des astuces de recherche (par exemple termes qui précisent le domaine), et surtout en se tapant plein de lectures de pages inutiles; pour le second défaut, on compte sur la redondance informationnelle : si on loupe une page, ce n'est pas grave, on trouvera probablement ce que l'on cherche ailleurs.
        - les répertoires remplis manuellement (=humainement) couvrant un trop petit nombre de sites qui se basent sur une ontologie (=une hiérarchie de concepts) qui est forcément discutable (et très discutée).

        Il me semble que je passe plus de temps à chercher qu'à lire !
    • [^] # Re: Des effets négatifs ?

      Posté par . Évalué à 5.

      C'est idiot, la sélection par l'argent n'est *jamais* une bonne chose, quoi qu'il arrive. Dans n'importe quel domaine.
      • [^] # Re: Des effets négatifs ?

        Posté par (page perso) . Évalué à 0.

        Primo, je n'ai pas prétendu que la sélection par l'argent était une bonne chose. J'ai seulement dit qu'il existait une sélection, de fait en partie celle de l'argent, et que cette sélection allait disparaitre. Je cherchais à trouver les effets négatifs de cette disparition. C'est tout.
        Secondo, ta remarque est pleine de bons sentiments, mais les "jamais", "quoi qu'il arrive", et "dans n'importe quel domaine", c'est plutôt pour les voeux pieux que pour la réalité. Peux-tu démontrer ton assertion ?
    • [^] # Re: Des effets négatifs ?

      Posté par . Évalué à 2.

      T'as la réponse après. C'est un truc commun pour référencer.
  • # Excellente nouvelle!

    Posté par (page perso) . Évalué à 3.

    J'attends avec impatience les résultats concrêts, ça va être top!

    Ceci étant un autre truc qui serait bien serait que les *cours* des diverses prépas et autres universités ou écoles d'ingénieurs. Fondamentalement je n'ai toujours pas compris pourquoi l'école où j'ai fini mes études (ECL) ne diffuse pas librement sur le Net tous les cours qui sont déjà sur support informatisé. Et en 1999 il y en avait déjà pas mal... ...les supports de cours manuscrits ou dactylographiés à la machine mécanique n'étaient pas légion. Or en allant sur http://www.ec-lyon.fr/(...) (je ne fais pas un procès à mon école, c'est juste que c'est celle que je connais alors je parle de celle-là...) on peut avoir le programme des cours, mais pas le cours lui-même. C'est dommage.

    Que perdrait-on si le cours était disponible en ligne? Un peu de bande passante? Et on risquerait que certains puissent suivre le cours de l'ECL sans y être admis? Sans avoir assisité au cours? Quand bien même cela arriverait, est-ce grave? Si un internaute lit le cours et n'y panne rien du tout, est-ce que ça lui fera du "mal"? Si un internaute lit le cours le comprend, l'assimile, et le met en pratique, est-ce grave? La notoriété de l'école sera-t-elle dégradée si on n'apprend qu'elle dispense des cours sans le savoir bien au delà du campus d'Ecully? Et si une autre école repompe les cours et les dispense elle-même, est-ce un mal?

    Et au final, quel est le but de ces écoles publiques : former des ingénieurs pour améliorer le niveau de formation global de la population, ou bien défendre son p'tit pré carré avec toutes les prérogatives du genre "c'est mon cours, NA! Il est à moi, n'y touchez pas!!!".

    J'espère qu'un jour ma petite personne, ainsi que tout le monde sur cette bonne vieille planète, pourra accéder au *contenu* de ces cours et pas à leur intitulé, sans avoir à farfouiller dans des cartons et des vieux dossiers poussiéreux.

    PS: accessoirement je soupçonne, mais là je m'égare, qu'une des raisons pour lesquelles ce n'est pas disponible, c'est que si ça l'était, un nombre encore plus grand (il est déjà conséquent il me semble) des étudiants admis dans l'école "sècherait" les cours, ce qui n'arrange pas vraiment les affaires de l'école. Et cet absentéisme nuit, il est vrai, à l'image de sérieux inébranlable qu'elle voudrait donner. Enfin je persiste et signe: quel est le but? Faire bonne impression ou propager le savoir?

    PPS: si les cours sont disponibles, méa culpa, c'est juste que je les ai pas trouvés 8-)
    • [^] # Re: Excellente nouvelle!

      Posté par . Évalué à 1.

      au moins pour la prépa, il y a des profs qui mettent leurs cours en libre accès sur internet:

      Par exemple: http://perso.wanadoo.fr/lavau/(...)

      Ceci dit, ca ne remplace pas un vrai cours
    • [^] # Re: Excellente nouvelle!

      Posté par (page perso) . Évalué à 0.

      C'est plutot HS, mais bon.

      Je sais que dans mon école, nous avons souvent acces aux cours en formats informatique, mais uniquement en interne. Les profs m'ont expliqué qu'il y avait des problème de droit d'auteur qui ne le sont plus si ce n'est pas difusé en dehors de l'école pour des raisons de « cercle privé » en gros.
  • # Le "scoop" ;)

    Posté par . Évalué à 2.

    Vers un accès libre aux résultats de la recherche…


    Nombre de publications sont déjà accessibles depuis les pages des équipes de recherche. Je vois plutôt l'initiative comme un moyen de "centraliser" l'information et de faciliter la publication et la recherche d'information.

    Ce n'est en rien une libération de quoi que ce soit, les résultats des travaux restants soumis à leurs accords respectifs (faut pas s'attendre à ce qu'on publie des résultats soumis à NDA, pour cause de partenariat avec des industriels).

    Ca ne remplacera en rien les éditeurs, mais d'autres ont déjà répondu à ce sujet ;)

    Enfin, c'est encore à l'état de projet, il n'y aura rien de concret avant un bail.

    Désolé de modérer un peu l'enthousiasme, mais il faut redescendre un peu sur terre :)
  • # Le rapport du parlement anglais

    Posté par . Évalué à 1.

    Le lien ne marche pas très fort, alors que le rapport est très intéressant : Bonne lecture.
  • # Plus d'infos concernant le format ?

    Posté par (page perso) . Évalué à 1.

    Dans les liens qui sont donnés, je nai pas trouvé d'infos concernant le format d'enregistrement des publications.
    Ce serait interressant que les "réunions internationales" aboutissent à plus de concret... Même ci c'était des pre-specifications, cela donnerai une idée de vers où s'orienter.

    Disons qu'aujourd'hui je suis chercheur, j'écrit des travaux, je me demande dans quel format je devrais les écrire pour leur pérénité (sachant qu'un jour on pourra tout rentrer dans une super base de données).
    Pour l'instant, Latex semble être un standard de fait, mais tout le monde n'aprécie pas.
    • [^] # Re: Plus d'infos concernant le format ?

      Posté par . Évalué à 1.

      Je crois avoir lu quelque part que l'archivage respecterait le standard OAI [http://www.openarchives.org/(...)], dont une des implémentations connues est GNU EPrints [http://www.eprints.org/(...)]. Ce serait étonnant si ça n'était pas le cas.

      Bref, dans ce système, ce n'est pas tant le format de la publication elle-même qui est standardisé, que les méta-informations entourant ladite publication : auteurs, versions, thèmes, mots-clefs etc. Ceci pour faciliter la recherche d'une publication.

      En général, l'archivage est en PostScript ou en PDF.
      • [^] # Re: Plus d'infos concernant le format ?

        Posté par . Évalué à 1.

        > En général, l'archivage est en PostScript ou en PDF.

        Il me semble que les serveurs du CCSD ( ccsd.cnrs.fr ) (donc les archives ouvertes de l'inria et du cnrs) sont compatibles ArXiv et donc l'archivage suit les memes regles :

        si le doc de base est un .doc (ou equivalent) tu propose le pdf ou le ps. Le .doc n'étant pas ouvert ils n'en veulent pas.

        si c'est un Latex alors tu fournit les sources et comme ca ils peuvent le recompiler correctement en ps, dvi, et pdf.

        après si tu veux pas, tu fournit rien et il n'y a que les méta données sans le document.
        • [^] # Re: Plus d'infos concernant le format ?

          Posté par (page perso) . Évalué à 1.

          Et justement, est-ce qu'ils donnent un caneva Latex (une classe , ou autre feuille de style), pour mieux exploiter les meta-données de ton document ?
          Un peux comme ils ont fait avec Docbook pour le Xml si je ne me trompe.

          Bon, en attendant je vais voir le lien vers l'OAI.
          • [^] # Re: Plus d'infos concernant le format ?

            Posté par . Évalué à 1.

            Tiens, tu peux aller voir celle ci sur la soumission d'article Tex :
            http://arxiv.org/help/submit_tex(...)

            et en fait, pour les feuilles de styles, généralement, tu prends celle que l'éditeur te fournit donc généralement, ils ont déjà la feuille de style qui correspond, sinon, tu leur envoie et c'est bon.

            Après, ils exploitent les métas qui correspondent à ton type de document (si c'est un article de conférence ou de journal c'est différent) donc c'est pas un souci.

            Faut pas croire, ArXiv n'est pas un trucs d'amateur fait à la va vite, ca a commencé en 1991 et ca n'a fait que grossir depuis, il y a maintenant pleins de miroirs, des interfaces spécifiques à un domaine ou une institution, que ce soit pour le dépot ou la recherche. C'est LE serveur d'archive. A tel point que des éditeurs de revues commencent à déposer eux-memes l'ensemble de leur nouveaux numéros comme par ex http://www.imstat.org/publications/eaccess.htm(...)
            Concernant l'usage des méta, le protocole OAI est plus maitre dessus puisque c'est lui qui les définis de manière a ce qu'on puisse facilement faire des méta-recherche sur des serveurs d'OA avec des résultats comme http://www.oaister.org(...) qui montre bien la puissance du protocole.

            voilà, c'était mes deux cents juste pour dire " ArXiv, c'est bon, mangez en !"
  • # Projet similaire à l'échelon européen

    Posté par (page perso) . Évalué à 2.

    Il existe un projet à l'ambition similaire: SCIX. http://www.scix.net/(...)
    Initié par Ziga Turk (c'est qui ? mais si, remontez dans vos souvenirs, les années 90: le ftp réparti de la Virtual Shareware Library - shareware.com (racheté par CNET) c'est lui!), il a mobilisé pas mal d'universités européennes pendant un an.
    SciX Open Publishing Services (SOPS) http://www.scix.net/sops.htm(...) permet en gros de créer des médias de publications en ligne.
    Le système permet de proposer un article, d'en attribuer la révision, de le publier puis de le discuter, le noter (rating semi public)... L'utilisation est aussi très bien pensée. Par exemple on peut sélectionner des articles, enregistrer cette sélection puis la partager (ou non) avec d'autres lecteurs. Enfin les interfaces sont très simples.
    Il y a eu une grosse réflexion derrière tout ça. Cf les comptes rendus mensuels dispos sur le site de SCIX. Le projet est venu d'universitaires gérant des répertoires d'articles sur le web (comme Cumincad). C'est dommage que ce ne soit pas plus connu.

    Le bidule est très rapide à mettre en place, c'est fiable, ça coûte pas cher en matériel puisque ça repose sur Woda http://www.ddatabase.com(...) un système de base de donnée pensé pour le web (aussi écrit par Ziga Turk). Woda tourne parfaitement (c'est à dire très vite) avec Perl 4 (ou plus) sur un 486 16 Mo de Ram.

    Bref un outil (SCIX / sops) qui pourrait être plus utilisé par les communautés de chercheurs.

    Ah oui, Woda n'est plus libre depuis la version 4 (Artistique et GPL jusque là) mais ça changera je pense... (j'espère).

    La présentation de Woda en français est sur mon site. Je connais très bien Sops et Woda. Donc si vous voulez essayer et avez besoin d'un coup de main, pas de problème, interrogez moi.

    "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

  • # Une initiative bienvenue de la part d'institutions hypocrites

    Posté par . Évalué à 3.

    Tant que les "inventions" ou "découvertes" faites par ces instituts seront susceptibles d'être brevetées avant leur publication, c'est une initiative franchement hypocrite.

    Et, à ce que je sais, l'un au moins de ces instituts - l'INRIA - a une politique active de depôt de brevets (logiciels). Donc, pour l'accès libre aux résultats de recherche financés par l'argent public, on repassera ; certes on a le droit de les lire, mais pas de les exploiter. Super non ?

    (voir : http://www.inria.fr/valorisation/brevets/(...) )
    • [^] # Re: Une initiative bienvenue de la part d'institutions hypocrites

      Posté par (page perso) . Évalué à 2.

      Oui super parce que les royalties de ces brevets constituent des recettes pour l'IRIA et aident donc à financer la recherche.
    • [^] # Exemple de brevet

      Posté par . Évalué à 3.

      Un exemple magnifique :

      http://www.inria.fr/valorisation/brevets/fiches/FR0002656.html(...)

      Parcourez un peu le PDF du brevet : on y décrit purement et simplement un algorithme mathématique à base de calculs matriciels... Les pages 9 et 10 valent leur pesant de cacahouètes : elles essaient de replacer cet algorithme dans un contexte "technique" en décrivant la structure de l'ordinateur chargé de l'appliquer (grosso modo, il est constitué d'une carte-mère, de RAM et de ROM, d'un clavier, d'une souris et d'une carte réseau - ça ne s'invente pas !).

      Le savoir confisqué par ce brevet concerne un protocole standardisé extrêmement répandu (TCP), dont l'implémentation est critique pour le bon fonctionnement des systèmes - y compris open source.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.