Journal Décentraliser Wikipédia

Posté par  (site web personnel) .
Étiquettes :
6
20
déc.
2010
Bonjour,

Comme d’habitude je fais un journal pour poser une question de béotien… désolé.
Puisqu’ayant déjà fait des dons à Wikipédia, j’ai reçu un nouvel appel pour aider à boucler les comptes de l’année. Et ça semble compliqué. J’en parle à des connaissance responsable de bibliiothèque : dans des institution comme ça, il n’y a même pas de ligne budgétaire dans laquelle un don à Wikipedia serait possible. Alors que leurs usagers passent forcément pas Wikipédia.

Suivant un peu l’« aventure » wikileaks et les moyens mis en œuvre, je me demande s’il ne serait pas possible de décentraliser Wikipédia.
Ne serait-ce pas un moyen d’économiser de l’argent ?
J’ai essayé de googeliser l’idée, mais comme je ne connais pas les termes techniques derrière, j’ai fait chou blanc. Alors que la question a forcément du se poser…

Qu’en pensez-vous ? C’est idiot ? Techniquement trop compliqué ? Risque de « corruption » du contenu ?
  • # Quelques liens

    Posté par  . Évalué à 3.

    Bonsoir,

    J'avais regardé vite fait cela il y a quelques temps.

    Il y a différentes propositions à ce sujet sur wikipedia [https://secure.wikimedia.org/wikipedia/strategy/wiki/Proposa(...)], mais je n'ai pas trouvé de code pour l'instant.

    Pour info, les mots clefs qui vont bien (ou dû moins ceux que j'ai utilisé :-) sont "distributed" et "p2p".

    Marc

  • # Décentralisation chez l'utilisateur?

    Posté par  . Évalué à 6.

    Si tu parle de décentralisation chez l'utilisateur, c'est plus que compliqué. Le web n'a pas été conçu pour que les liens des serveurs sur lesquels sont hébergés le contenu changent à la volé.
    ça pose des problèmes de rapidité pour retrouver qui héberge quoi, pour synchroniser les duplicata entre eux (pour assurer la fiabilité), pour gérer les conflits d'édition, pour qu'un utilisateur télécharge son article rapidement.
    Par exemple le p2 c'est rapide, mais pas au démarrage. Le démarrage d'une session de p2p demande de faire des centaines des requêtes pour trouver l'information, puis la rapatrier.
    Le temps de chargement d'une page web serait trop long. La décentralisation est plus adaptée pour de grandes données, des temps de latences pas important, et des données statiques.
  • # Techniquement possible

    Posté par  . Évalué à 5.

    Déjà, on pourrait décentraliser Wikimedia Commons (images, vidéos, sons, …), je pense que c'est ce qu'il y a de plus lourd pour Wikipédia.

    Stratégiquement, ça va encore dégrader l'image de Wikipédia sur la fiabilité, mais ça permettrait d'économiser beaucoup.

    Techniquement, on crée un réseau de confiance de serveurs partenaires [1], on y met les médias et un serveur de Wikipédia s'occupe de la répartition de charge [2].

    [1] : Avec accès ssh chrooté dessus (comme Wikileaks) ? Ça permettrait de faire des vérifications (par hash ?) pour voir si on peut avoir confiance en chaque serveur.
    [2] : "Toi tu vas sur 12.30.10.20, toi sur 20.101.02.20, … etc", en gardant une cohérence entre les gens pour avoir un minimum de possibilité de cache.

    « En fait, le monde du libre, c’est souvent un peu comme le parti socialiste en France » Troll

    • [^] # Re: Techniquement possible

      Posté par  (site web personnel) . Évalué à 2.

      >> [1] : Avec accès ssh chrooté dessus […] pour voir si on peut avoir confiance en chaque serveur.

      T'as un troll de barbus récemment qui disait « si tu crois que chroot ça sert à la sécurité, t'es qu'un idiot. » Et donc, qu'on devrait pas avoir confiance comme tu le suggères.

      Le mieux ne serait-il pas le louer de l'espace virtuel chez Amazon ?
      • [^] # Re: Techniquement possible

        Posté par  . Évalué à 2.

        La décentralisation à base de cloud, c'est pas mieux que l'histoire du chroot hein...
        • [^] # Re: Techniquement possible

          Posté par  . Évalué à 4.

          Je pense qu'il était ironique :).

          Le mieux serait que des entreprises (OVH, Gandi, Free, …) laissent gratuitement des serveurs à Wikipédia mais c'est pas vraiment décentralisé là.

          « En fait, le monde du libre, c’est souvent un peu comme le parti socialiste en France » Troll

          • [^] # Re: Techniquement possible

            Posté par  . Évalué à 6.

            Le problème de cette idée, c'est que ces entreprises pourraient modifier l'encyclopédie de façon discrète sur leurs miroirs.
            Et comme un client Free tombera très probablement sur le miroir Free...

            Mais en parlant d'entreprises qui pourraient aider il y en a une qui y aurait tout intérêt : http://wikipedia.orange.fr/
    • [^] # Re: Techniquement possible

      Posté par  . Évalué à 2.

      [1] : Avec accès ssh chrooté dessus (comme Wikileaks) ? Ça permettrait de faire des vérifications (par hash ?) pour voir si on peut avoir confiance en chaque serveur.

      Qu'est-ce qui te prouve que le fichier auquel tu accèdes par SSH - tout immuable qu'il peut être - correspond bien à ce qui est servi par le serveur web?
  • # Une combi-taxe sur les supports d'enregistrement...

    Posté par  . Évalué à 2.

    Pour tout achat d'un disque de 1To ou plus, obligation d'héberger 200Mo de contenu libre reconnu d'utilité publique.

    Ensuite, tu enregistres les articles par groupes en paquets .deb (en fait, je dis deb, c'est pour multiplier les opportunités de Trolls) et tu mets à jour comme si c'était une Sid (et pas une Ubuntu hein! cf parenthèse sur les .deb).

    Enfin, chaque article est stocké en local avec un torrent associé.

    Le but est de télécharger le torrent de l'article avant que le .deb soit mis à jour et le torrent obsolète.

    Suis dans une forme olympique ce matin, d'ailleurs je vais aller me recoucher...
  • # je me posais la même questions

    Posté par  . Évalué à 2.

    Il existe beaucoup de sites miroirs de Wikipedia, en règle générale des sites proposant de bannières de pub et qui essayent de squatter les bonnes places dans les moteurs de recherche, mais je pense que c'est devenu compliqué pour ces sites de rester à jour avec l'encyclopédie tellement celle-ci est devenue active.

    Le problème justement avec wikipedia, c'est que l'activité y est très forte, il serait difficile de synchroniser les différentes bases de données entre-elles, à moins de les segmenter sur différents thèmes.

    Moi je ne serais pas contre, ne serait-ce qu'à cause des admins nazi qui passent leur temps à vandaliser l'encyclopédie et à bloquer des ip uniquement parce que ça leur donne des impressions de diriger quelque chose... (non ce n'est pas un troll, c'est juste que les ip de mes proxy sont blacklistées en permanence sous wikipedia, même avec un compte, et que c'est toujours le fruit d'imbéciles qui se croient utiles).
    • [^] # Re: je me posais la même questions

      Posté par  (site web personnel, Mastodon) . Évalué à 6.

      Les proxy sont bloqués par des bot, de façon automatique et industrielle. Ce n'est donc pas la peine d'accuser les administrateurs et d'imaginer des raisons farfelues.

      http://fr.wikipedia.org/wiki/Utilisateur:Proxybot
      • [^] # Re: je me posais la même questions

        Posté par  (site web personnel, Mastodon) . Évalué à 1.

        Va falloir m'expliquer l'intérêt d'empêcher les gens qui sont derrière des systèmes de censure d'utiliser wikipedia... C'est vraiment devenu une oligarchie dictatoriale wikipedia.

        « Je vois bien à quels excès peut conduire une démocratie d'opinion débridée, je le vis tous les jours. » (Nicolas Sarkozy)

        • [^] # Re: je me posais la même questions

          Posté par  . Évalué à 4.

          Ils peuvent accéder à l'ensemble du contenu de Wikipédia, via leur proxy.

          La seule différence est qu'il n'est pas possible de modifier les pages via un proxy ouvert. Le problème des proxys c'est que les plus vilains nuisibles de Wikipédia (les gros lourds qui nécessitent plusieurs bénévoles à plein temps pour corriger leurs vandalismes, insultes ou autres) utilisent des proxys dès que leurs IP habituelles sont bloquées, dès que leurs dizaines de comptes dormants sont bloqués. C'est très dommage que les personnes vivant dans des dictatures ne puissent éditer Wikipédia, mais des fois ça devient trop chiant de trier le bon grain de l'ivraie. Toutefois, un contributeur sérieux qui aurait vraiment besoin d'un proxy peut demander une exemption de blocage de proxy valable uniquement pour son compte particulier. Il peut pour cela contacter les administrateurs par mail.
      • [^] # Re: je me posais la même questions

        Posté par  . Évalué à 3.

        Non, je confirme que tout les blocages de mon serveur ont été le fruit d'admin humain, et aucunement de bot, justement parce que je me connecte à ce proxy avec un tunel ssh et qu'il n'y a aucun port de proxy d'ouvert, c'est une machine normale, et pour être bloqué, les admins doivent intervenir.

        En gros, des mecs qui n'ont vraiment rien d'autre à faire, mon serveur n'a jamais posé de problème, jamais aucun vandalisme venant de lui, mais juste des mecs qui passent leur temps à regarder des ip uniquement pour trouver des machines qu'ils pourraient bloquer, juste pour faire chier leur monde et enculer à sec la neutralité des réseaux par la même occasion (qu'est-ce que ça peut leur foutre qu'une ip soit celle d'un serveur ou d'un particulier, dès l'instant que cette machine ne fout pas de grabuge ?)

        Au début je râlais, certain admin ne voulaient rien entendre, je devais écrire à 50 personnes, j'ai finit par en avoir marre.

        J'ai juste arrêté de donner, alors que je le faisais régulièrement avant.
    • [^] # Re: je me posais la même questions

      Posté par  . Évalué à 4.

      [...]l'encyclopédie tellement celle-ci est devenue active.[citation requise]

      Ah bon, j'avais plutôt lu que le nombre de contributeurs actifs et de pages modifiées et crées avaient baissé. Ton expression laisse sous entendre que ça a augmenté de façon conséquente. T'as une source?
    • [^] # Re: je me posais la même questions

      Posté par  . Évalué à 2.

      Moi je ne serais pas contre, ne serait-ce qu'à cause des admins nazi qui passent leur temps à vandaliser l'encyclopédie et à bloquer des ip uniquement parce que ça leur donne des impressions de diriger quelque chose... (non ce n'est pas un troll, c'est juste que les ip de mes proxy sont blacklistées en permanence sous wikipedia, même avec un compte, et que c'est toujours le fruit d'imbéciles qui se croient utiles).

      Je me suis moi même fait bloquer parce que j'hébergeais un serveur tor.
      J'ai contacté l'admin qui a bloqué mon ip, je lui ai expliqué que j'étais en middle node (donc aucun risque) et il m'a débloqué car il n'y avait aucun vandalisme venant de mon ip. Si tu ne peux plus t'exprimer sur les pages de discussions, essaye sur irc.
      Si des utilisateurs du proxy vandalise sur wikipédia un peu trop violemment, évidemment, ça risque de moins bien se passer.

      Au hasard, lis ça :
      http://fr.wikipedia.org/wiki/Utilisateur:Proxybot
      et ça :
      http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Requ%C3%AAte_aux(...)

      Si tu as une meilleure idée pour gérer les vandales que de bloquer par ip, n'hésite pas à la proposer.

      Sinon tu peux aussi venir faire un tour sur les projets type LiveRC pour proposer ton aide et essayer de tout gérer sans jamais faire de demande de blocage, avec des vandales qui ne sont pas capables de lire leur page de discussion et la dizaine d'avertissements laissés avant blocage...

      Le délire sur les admins nazis qui aiment exercer leur pouvoir, on le lit souvent de la part de personnes qui n'ont pas compris le fonctionnement de base de wikipédia (neutralité, copyvio, sources), après si tu as des preuves tangibles à apporter...
      • [^] # Re: je me posais la même questions

        Posté par  . Évalué à 3.

        Je vais pas m'amuser à poster des liens vers les discutions, mais quand on voit des mecs bloquer des ip de serveur qui ne vandalisent pas, je me pose des questions sur les méthodes des admins de wikipedia.
  • # Ce n'est pas une question de serveurs

    Posté par  . Évalué à 9.

    Selon moi, le problème de wikipedia n'est pas un problème de serveurs. Décentraliser n'apporterait pas grand chose :

    Wikipedia a lancé un appel aux dons de 16 millions de dollars récemment. Cela donne à peu près 12 millions d'euros.

    Si l'on regarde le compte rendu financier de l'année dernière, les frais d’hébergement s'élèvent à 1 million de dollars, soit 760 000 €.

    Au passage, 760 000 €, ça fait 3 000 dedibox pendant un an, sans négociation.

    Selon moi, ils pourraient peut-être chercher à réduire les sorties au lieu d'augmenter les entrées d'argent.

    Schéma de l'infrastructure des serveurs, ou l'on constate qu'il sont loin d'avoir 3000 petits serveurs :
    http://upload.wikimedia.org/wikipedia/commons/4/4f/Wikimedia(...)

    Bilans financiers : http://wikimediafoundation.org/wiki/Financial_reports

    Envoyé depuis mon lapin.

    • [^] # Re: Ce n'est pas une question de serveurs

      Posté par  (site web personnel) . Évalué à 1.

      Comme si on pouvait tout faire avec des dedibox, faut arreter de rever l'archi de wikipedia est sacrement complexe, et les equipements en jeux pour faire communiquer tout ces serveurs coutent rapidement une petite fortune (router, NAS, ...)
      • [^] # Re: Ce n'est pas une question de serveurs

        Posté par  . Évalué à 0.

        Super compliquée ?

        Regardons le schéma de 2009 en détail :

        4 serveurs de base de données principaux, qui possèdent des esclaves pour la répartition de charge. Ça fait 20 serveurs de base de données.

        Il y a 18 serveurs pour la recherche textuelle.

        Une dizaine de serveurs d'outils (les bots, les scripts, et autres outils).

        Il y a 3 serveurs de stockage pour les sauvegardes.

        Il y a 6 serveurs qui servent au redimensionnements d'images.

        Il y a 182 serveurs apache (là oui, ça fait beaucoup).

        Il y a 48 serveurs de reverse proxy (partage de bande passante, et mises en cache).

        Ça donne environ 300 serveurs, au total. Ça peut paraître beaucoup, mais c'est juste 2 baies de dedibox V3.

        Évidemment qu'il faudrait des machines adaptées pour le stockage, pour le redimensionnement d'images, pour les bases de données… Les dedibox, c'était juste pour donner une comparaison chiffrée.

        Mais je pense qu'il est possible de dire que l'on peux fournir le même service avec un coût au moins deux fois plus faible.

        Envoyé depuis mon lapin.

        • [^] # Re: Ce n'est pas une question de serveurs

          Posté par  . Évalué à 2.

          Tu devrais leur envoyer un mail. Ça devrait les intéresser.
          • [^] # Re: Ce n'est pas une question de serveurs

            Posté par  . Évalué à 2.

            J'ai le droit d'envoyer un mail à Microsoft pour leur dire qu'il serait mieux selon moi de mettre le code de leurs produits sous licence libre ?

            Quand ils ont lancé wikipedia, les offres à bas coûts n'existaient pas. Ils ne doivent certainement pas avoir envi de refaire leur infrastructure.

            Envoyé depuis mon lapin.

            • [^] # Re: Ce n'est pas une question de serveurs

              Posté par  . Évalué à 2.

              Et donc toi qui ne connaît rien de leur infra, de leurs coûts, de leurs besoins, de leur contraintes budgétaires, organisationnelles ou technique, de leur historique, du degré de liberté dont ils veulent disposer, des accords de trafic qu'ils ont hormis un schéma de 2009 sur lequel tu as pu lire le nombre de serveurs; tu te trouves bien placé pour affirmer de manière péremptoire: "Mais je pense qu'il est possible de dire que l'on peux fournir le même service avec un coût au moins deux fois plus faible. "

              Maintenant si t'es si sur de toi, tu envois un mail avec le même discours sur leur mailing list en leur expliquant que louer des dédibox répondrait à tout leurs besoins pour deux fois moins cher. Et tu nous posteras la réponse.

              C'est toujours plus simple d'expliquer que les autres ont pas penser à un truc trivial quand ils sont pas là...
              • [^] # Re: Ce n'est pas une question de serveurs

                Posté par  . Évalué à 2.

                Excuse moi, mais je gère DEUX serveurs web, avec plusieurs visiteurs par jour, donc je sais de quoi je parles !



                Plus sérieusement, je pense sincèrement qu'ils ont une infrastructure qui leur convient, mais qui coûte assez cher par rapport à ce qui ce fait aujourd'hui. Changer d'infrastructure représente un coût et un risque qui les font certainement rester sur leur solution actuelle.

                Pour ma part, je pense que c'est leur problème. Me ramener sur la mailing list en disant «et au fait, vous êtes des nuls, si vous étiez hébergé en france comme wikileaks, ça vous coûterez deux fois moins cher», n'est peut-être pas la bonne solution.

                Envoyé depuis mon lapin.

    • [^] # Re: Ce n'est pas une question de serveurs

      Posté par  . Évalué à 4.

      Les dépenses de wikipedia c'est pour les chiffres les plus gros :
      - 3,4 Million de $ en salaires pour 59 employés d'après le site de wikimedia
      - 1,8 Million de $ en contractuels extérieurs
      - 1 Million de $ pour l'agrandissement de l'infrastructure d'hebergement
      - 1 Million de $ pour l'hébergement
      - 690 000 $ pour la location des bureaux et les fournitures/matériel pour les employés
      - 424 000 $ en déplacement. des employés
      - 233 000 $ pour faire les campagnes de dons
      - 180 000 $ pour les réunions/formations des employés.

      En gros ce qui coute à mort, ce sont les employés et tout ce qui en dérive...j
      • [^] # Re: Ce n'est pas une question de serveurs

        Posté par  . Évalué à 3.

        Peut être que les travailleurs pour Wikipédia n'ont pas envie de perdre leur emploi sous l'effet de la décentralisation.

        Systemd, the bright side of linux, toward a better user experience and on the road to massive adoption of linux for the desktop.

  • # Le ver est dans le fruit.

    Posté par  . Évalué à -2.

    C'est tout de même curieux, ce projet qui vise à centraliser le savoir encyclopédique du monde derrière un même nom de domaine.

    Il me semblait que le Web était fait pour, justement, permettre un réseau de connaissance où chaque site pointe vers d'autres sites, où chacun apporte sa contribution à l'édifice, non pas en se pliant aux règles de Wikipedia mais en utilisant les moyens à sa disposition (qu'il s'agisse des pages perso chez son FAI ou d'un serveur dédié).

    Le projet Wikipedia est bizarre et, j'oserais dire, contre-nature. Si je veux des infos sur la physique nucléaire, je préfère les lire sur la page perso d'un spécialiste du domaine (qui mettra son nom, son prénom, son CV et me permettra de juger de la pertinence des infos) plutôt que sur une encyclopédie à côté de la liste des films pornos de Maria Ozawa et de la liste des unités de Word Of Warcraft.

    THIS IS JUST A PLACEHOLDER. YOU SHOULD NEVER SEE THIS STRING.

    • [^] # Re: Le ver est dans le fruit.

      Posté par  (site web personnel) . Évalué à 10.

      Le projet Wikipedia est bizarre et, j'oserais dire, contre-nature. Si je veux des infos sur la physique nucléaire, je préfère les lire sur la page perso d'un spécialiste du domaine (qui mettra son nom, son prénom, son CV et me permettra de juger de la pertinence des infos)

      On ne le répétera jamais assez : Wikipedia est une base de départ pour les recherches, et après on va en savoir plus sur les références fournies par l'articles, qui pointent vers la "page perso d'un spécialiste du domaine" (sic, pas sûr qu'une page perso soit mieux...) si celle-ci vaut le coup. C'est un point d'entrée, rien de plus, et ce point d'entrée a pour objectif de te fournir plein de points de sortie pour approfondir.

      Donc la critique que tu fais me semble basée sur une mauvaise utilisation que tu fais de Wikipedia, pas de Wikipedia en lui-même.

      non pas en se pliant aux règles de Wikipedia

      Rien que ça... Je te sens bien amer sur le sujet.
      Dans la vraie vie, je dois me plier aux règles qui m'interdisent de tuer mon voisin, et je trouve ça tout à fait normal, c'est pour vivre ensemble. Pareil pour Wikipedia : ceux qui critiquent sont très souvent des gens qui n'ont pas aimé que le "juge" leur donne tord, et crient à qui veut entendre "la justice c'est pourri" (tient, comme dans la vraie vie aussi, comme quoi le virtuel ne change pas les gens).
      L'avantage par rapport à la vraie vie est que tu n'es pas obligé d'aller sur Wikipedia, et en bonus tu peux forker et faire ta propre encyclopédie (à toi de montrer que moins de règles fera une meilleur encyclopédie).
      La critique est facile, l'art plus difficile.
    • [^] # Re: Le ver est dans le fruit.

      Posté par  . Évalué à 5.

      et je trouverais le lien vers cette page perso du dit spécialiste grâce à Wikipedia. La plupart des réticences envers wikipedia viennent d'un manque de connaissance de l'outil, la première règle de wikipedia étant la sourcologie. Il ne faut pas s'arrêtait à l'article en lui même, mais suivre les liens qui sont fournis par l'article. Et vu dans cette optique la, quand je dois faire des recherches sur un sujet précis je préfère autant parties de wikipedia comme base que de google.
    • [^] # Re: Le ver est dans le fruit.

      Posté par  . Évalué à 8.

      Wikipédia est juste **un** projet d'encyclopédie du Web. Son succès seulement a dépassé toutes les prévisions et toutes les attentes de son fondateur. Il n'y a pas eu de tentative de tout centraliser. Au début (après Project Xanadu et Interperdia), Jimmy Wales a voulu fonder Nupedia, une encyclopédie normale, classique (articles signés, relus par des universitaires, etc.) où les contributions étaient envoyées par mail. Comme il n'avait que peu de contributions, il a développé un wiki (la technologie était nouvelle) pour permettre de faciliter la soumission des pages. Les contributions ont été si nombreuses, qu'en 10 ans on en est arrivé à la plus grande somme de texte disponible au monde.

      > Il me semblait que le Web était fait pour, justement, permettre un réseau de connaissance où chaque site pointe vers d'autres sites,
      1) La notion d'hypertexte est à la base de Wikipédia. Les liens internes sont les plus nombreux, mais chaque page est accompagnée de références et parfois de liens externes.
      2) La notion de projet de collaboration de masse n'était pas prévisible quand Tim Berners-Lee a inventé le web. Le succès de Wikipédia a surpris tout le monde. Même la licence retenue initialement (GFDL) était inadaptée et la FSF a publié une version spéciale de la GFDL 1.3 pour permettre de re-licencier tous les wikis sous Creative Commons by-sa, avec des clauses valides uniquement entre aout et novembre 2008.

      Quant aux actrices porno et WoW, trop gros, passera pas... Mais tu as oublié de mentionner les articles sur les personnages de Pokémon. La réponse standard est que si tu n'aimes pas ces articles, tu n'es pas obligé de les lire, ni même de cliquer dessus, ni même de payer pour leur impression (comme ce serait le cas pour une version papier). Tu peux extraire de Wikipédia une encyclopédie de la physique nucléaire, tu peux aussi extraire une encyclopédie des actrices de charme ; ces deux mondes peuvent coexister sans se rencontrer.
      (En outre tous les articles sont catégorisés, si tu souhaites p. ex. que tes enfants n'aient pas accès à certains contenus, tu peux le plus simplement du monde mettre en place un filtrage sur mot-clef.)

      > je préfère les lire sur la page perso d'un spécialiste
      On est tous d'accord, Wikipédia ne devrait pas fonctionner. Comment des anonymes qui ne se connaissent pas et sans garantie de diplômes pourraient-ils écrire le moindre article spécialisé ? Comment éviter que des adolescents à l'âge bête caricaturent n'importe quel sujet ? Mais faut se rendre à l'évidence, Wikipédia va contre les modèles de pensée qui la précédaient mais Wikipédia marche, et ce sont les modèles qui étaient erronés.
      • [^] # Re: Le ver est dans le fruit.

        Posté par  . Évalué à 10.

        Quant aux actrices porno [...] trop gros, passera pas.
        Mais si, elles ont l'habitude.

        THIS IS JUST A PLACEHOLDER. YOU SHOULD NEVER SEE THIS STRING.

      • [^] # Re: Le ver est dans le fruit.

        Posté par  . Évalué à 2.

        > > je préfère les lire sur la page perso d'un spécialiste

        > On est tous d'accord, Wikipédia ne devrait pas fonctionner.

        ça semble pas trop mal marcher. apparement.

        > Comment des anonymes qui ne se connaissent pas et sans garantie de diplômes pourraient-ils écrire le moindre article spécialisé ?

        euh, genre les Bogdanov ?

        > Comment éviter que des adolescents à l'âge bête caricaturent n'importe quel sujet ?

        euh, genre les Bogdanov ?

        > Mais faut se rendre à l'évidence, Wikipédia va contre les modèles de pensée qui la précédaient mais Wikipédia marche, et ce sont les modèles qui étaient erronés.

        Wikipedia fonctionne mais avec une exception "Bogdanov". parmi tant d'autres.
        • [^] # Re: Le ver est dans le fruit.

          Posté par  . Évalué à 2.

          > Wikipedia fonctionne mais avec une exception "Bogdanov". parmi tant d'autres.
          Quelle est l'analogie ? Les diplômes des Bogdanov ne garantissent pas qu'ils n'écriront pas de bêtises (je comprends que tu fais référence à la controverse autour de leurs travaux) ; c'est justement un écueil que Wikipédia ne peut pas avoir, évacuant complètement la notion de reconnaissance universitaire pour l'accès à la rédaction des articles. Je ne comprends pas ton argument.
    • [^] # Re: Le ver est dans le fruit.

      Posté par  (site web personnel) . Évalué à 6.

      Il me semblait que le Web était fait pour, justement, permettre un réseau de connaissance où chaque site pointe vers d'autres sites.
      Oui, d'une certaine manière, mais il y a un mais.
      La décentralisation de l'internet concerne le réseau : tu peux aller d'un noeud à un autre par de multiples chemins. Les chemins sont redondants, les noeuds sont redondants en tant que chemins, pas en tant que source d'information. Internet est un énorme réseau qui permet d'accéder à des centres d'informations. La conception d'Internet fait que la route vers une information est redondante, pas que cette information est redondante. Le web est construit sur internet, et met les liens dans le texte (lien hypertexte). L'information n'est pas décentralisée, elle a de multiple centres. Chaque page est un centre, non redondant. La redondance du contenu doit être faite manuellement, Internet et le web n'ont pas été prévu pour cela.

      C'est peut-être un défaut de conception, mais cette conception fait qu'il est inévitable de voir certains de ces multiples centres devenir des centres privilégiés. C'est peut-être dommage mais c'est inévitable. Chaque point d'information est un LAN en puissance, Internet permet de se connecter aux vitrines de ces LAN.
      Il est inévitable que des "Gros" surgissent comme Wikipedia ou Facebook, et là encore Internet fait son boulot : le chemin pour se connecter à ces "Gros" est redondant.

      Pour Wikipedia ce n'est pas gênant : l'information est publique, éditable, recopiable... Tout un chacun peut faire une impression papier de tout ou partie de Wikipedia. L'information est publique, la logique est publique. Wikipedia tombe ? Tu peux le relancer et rendre le même usage, comme si de rien n'était.

      Pour Facebook c'est gênant parce que cela concerne des informations privées, il vaut mieux que tout un chacun ne puisse pas faire une impression papier de tout Facebook.
      L'information doit être privée, et la logique est en grande partie privée (non reproductible). Facebook tombe, tu ne peux rien faire.

      Mais ce n'est ni le problème d'Internet ni du web. Internet permet les deux cas.
      Cette décentralisation et redondance de l'information sur Internet, je la voudrais aussi, c'est un idéal, mais Internet n'a pas été conçu pour cela. Freenet en partie, pas complètement, Internet pas du tout.

      Le projet Wikipedia est bizarre et, j'oserais dire, contre-nature.
      Ce n'est pas contre nature, c'est contre idéal, même si avec toi je pense que cet idéal est légitime : il serait mieux que le réseau prenne en charge la redondance de l'information, mais ce n'est pas la réalité.

      En fait aujourd'hui, avec un peu de recul on peut redéfinir le besoin auquel devrait répondre Internet :
      * Une décentralisation et une redondance des routes.
      * Une décentralisation et une redondance de ce qui passe sur ces routes (paquets).
      * Une décentralisation et une redondance de l'information.

      Internet n'a été pensé que pour la décentralisation et la redondance des routes.
      La décentralisation et la redondance des paquets, c'est venu comme un rustine, avec le peer to peer.
      La décentralisation de l'information elle-même, on l'attend encore.

      Dans le peer to peer, l'information partagée est figée, les paquets qui proviennent de multiples sources et qui passent par de multiples chemins sont les paquets d'un document figé, d'un seul message, même s'il fait 600go. Un document disponible en peer to peer, c'est un message qui a un timeout inconnu, mais c'est un message, ce n'est pas la source d'information.

      Wikipedia est modifiable, c'est la source d'information, et ça on ne sait pas décentraliser, Internet n'a pas été conçu pour ça, Freenet non plus n'est pas conçu pour cela. Sur Freenet on publie des informations figées, donc des messages. L'information n'est pas dans Freenet, dans Freenet il n'y a que des instantannés.

      Si Facebook est un exemple des mauvaises chose que permet la coneception d'Internet, le fonctionnement de Wikipedia est peut-être l'exemple du meilleur compromis, celui qui montre le mieux qu'on sache faire. Le chemin est redondant et décentralisé (Internet), l'infrastructure source ne l'est pas, mais elle est rendu possible grâce à un rustine qui se situe au niveau humain, sur le plan légal : ce sont les différentes licences permissives utilisées sur le code et sur l'information. La redondance est manuelle, mais sa possibilité elle est garantie par contrat.

      Le projet Wikipedia est bizarre et, j'oserais dire, contre-nature.²
      Si Wikipedia est contre idéal, Wikipedia est complètement dans la nature de l'homme. L'homme a besoin d'une autorité, d'une référence. Lors que l'on souhaite se documenter (par exemple), on va chercher une première personne, un premier ouvrage de confiance, en sachant pertinemment que ce ne sera qu'une étape.
      Je ne connais aucune autorité en physique nucléaire, mais je sais que sur Wikipédia je pourrais peut-être trouver des autorités, ou au moins une vulgarisation pleine de bêtise qui fera référence à des autorités. Si Wikipedia a eu un tel succès, c'est que le projet a réussi à gagner dans la conscience d'une masse critique d'internautes ce statut d' "autorité perfectible mais acceptable".
      C'est donc dans la nature de l'homme de s'y référer pour se documenter, et aussi dans la nature de l'homme d'y contribuer lorsqu'il souhaite publier sur un media considéré comme autorité.

      On peut souhaiter que chaque page de wikipedia soit sur un serveur différent, hébergé par une personne différente, il reste vrai que la pensée humain a besoin d'un point d'entrée pour appréhender cette information et initier sa réflexion : il lui faut une autorité, un nom. Une autorité pour lire, et pour publier.

      Ce qu'il y a de beau avec Wikipedia c'est le système moral qui est autour, comme pour le logiciel libre, qui permet aux hommes de faire ce que la technique ne fait pas.

      On pourra peut-être réinventer Internet, mais l'homme on ne pourra pas :).

      ce commentaire est sous licence cc by 4 et précédentes

    • [^] # Re: Le ver est dans le fruit.

      Posté par  (site web personnel) . Évalué à 4.

      J'ajouterai encore

      Si je veux des infos sur la physique nucléaire, je préfère les lire sur la page perso d'un spécialiste du domaine (qui mettra son nom, son prénom, son CV et me permettra de juger de la pertinence des infos)

      le nom, prénom, cv, etc. te permettent d'évaluer la pertinence de l'information, après avoir trouvé l'information. Pour accéder à cette information, il te faut un moyen d'accès. Dans l'immense réseau internet, il te faut un point d'entrée qui te donnera un premier chemin.

      Sur internet il y a deux modèles qui ont émergés :
      * le moteur de recherche (qui indexe le contenu et fourni un résumé)
      * l'encyclopédie (qui digère le contenu et joue en partie le rôle d'annuaire)

      Le moteur de recherche est régi principalement par une logique, cette logique est déjà le fruit d'une réflexion humaine. De plus, cette logique doit être affinée, et cet affinement ne peut être fait que de manière humaine.

      L'encyclopédie est régi humainement, c'est le fruit d'une pensée humaine, la logique n'est là que pour permettre l'expression de la raison humaine.

      Très vite les deux modèles sont obligés de se rejoindre, un moteur de recherche doit prendre un minimum en compte la sémantique, et une encyclopédie se doit d'inclure un moteur de recherche.

      Dans les deux cas il y a un nom, cela peut être par exemple Google, ou Wikipedia.
      Lorsque tu ouvres un navigateur, la page par défaut est une page blanche, tu vas devoir commencer par fournir une première url, ce sera peut-être https://linuxfr.org, ce sera un nom.

      Donner autorité à Google est pire que la donner à Wikipedia, le besoin d'un moteur de recherche décentralisé est réel, et il est nécessaire que le processus d'affinement soit décentralisée. Wikipedia a montré que donner ce rôle aux masses était possible.

      ce commentaire est sous licence cc by 4 et précédentes

      • [^] # Re: Le ver est dans le fruit.

        Posté par  (site web personnel) . Évalué à 3.

        • [^] # Re: Le ver est dans le fruit.

          Posté par  (site web personnel) . Évalué à 2.

          d'où le "en partie"
          L'analogie est perfectible, mais quand tu as ouvert un article et cliqué sur un "lien externe" dans Wikipedia, tu es plus proche de l'annuaire que du moteur de recherche. Wikipedia n'est pas un annuaire car il n'a pas vocation à faire une liste exhaustive de lien, par contre tu sais que sur Wikipedia tu auras au moins une piste, et cette piste tu ne la trouveras pas en faisant un select dans une base de donnée, mais en cherchant dans la catégorie adéquat, cette catégorie a été établie par un homme.

          En effet, le mot exact est "encyclopédie"
          Il aurait fallu que j'écrive : "Comme point de départ d'une documentation, deux modèles ont emergés, le moteur de recherche et l'encyclopedie", mais c'etait un peu trop flatter Lapalisse. :p
          J'avais plus à coeur d'essayer de cerner les usages que de définir Wikipedia.
          Ta remarque est tout à fait pertinente. :) il va me falloir accomplir une BA sur Wikipedia pour me repentir !

          J'avoue aussi avoir succombé à la tentation de citer le modèle de l'annuaire trop vite enterré. ;) Ce n'est pas le rôle de Wikipédia, mais cette encyclopédie répond malgré elle à ce besoin insatisfait.

          Récemment je suis retombé sur un annuaire façon web 0.1 pre-alpha, avec un top et un flop, ça m'a fait une drôle d'impression. Mais en fait après la première nostalgie, je suis tombé sur des sites super intéressants, le genre de trucs qui sont passé à la trappe avec l'avènement du blog (lorsque ce n'était pas encore l'actualité et/ou l'émotion qui structuraient l'information), et avec la personnalité de l'auteur (qui est assez diffuse sur Wikipedia, de fait).

          ce commentaire est sous licence cc by 4 et précédentes

  • # Décentralisation chez l'auteur ?

    Posté par  . Évalué à 0.

    Bonjour,

    après avoir regardé comment les arguments des uns et des autres se rencontrent, je pense en fait que le mieux pour Wikipedia, serait qu'elle propose aux auteurs des pages de s'auto-héberger.

    Comme cela, le modificateur d'une page web a une proposition d'auto-hébergement. C'est très facile pour celui qui modifie une page web d'être de bonne foi. C'est un rôle qui lui revient de droit après tout parce que c'est quand même des données qui sont créées qu'il a publié.

    Évidemment, l'hébergement se ferait sans contrôle à priori. Si une personne héberge une page et son historique, ça n'empêche en rien n'importe quel tiers de la modifier. À fortiori, quelqu'un qui modifie une page reçoit également une information sur l'hébergement actuel de cette page et une proposition d'auto-hébergement.

    Les « guerre d'édition » seraient ainsi réglées, parce que si un tiers décide d'héberger une page dont les administrateurs ont pertinemment compris qu'elle contient des données non objectives, ils n'auront plus qu'à mettre l'IP du serveur sur une liste noire.

    Ainsi le fonctionnement est quand même moins centralisé, et c'est clair que cela ferait économiser des millions à Wikipédia.

    Pour ce qui est de l'infrastructure technique, je laisse les plus geek s'en occuper.

    Qu'en pensez vous ?

    Systemd, the bright side of linux, toward a better user experience and on the road to massive adoption of linux for the desktop.

    • [^] # Re: Décentralisation chez l'auteur ?

      Posté par  . Évalué à 0.

      Qu'en pensez vous ?

      Que les contributeurs vont tirer une drole de tronche quand leur freebox va fondre suite au 500 000 hits/jour des gens qui essaient de voir leur page.
      Et que ya 500 000 mecs qui vont faire la tronche en se disant "'tin, c'est lent wikipedia aujourd'hui".

      Plus serieusement, t'entends quoi par auto hebergement?

      Sinon, quitte a aborder le sujet serieusement, je suggere de regarder ce que font par exemple twitter ou facebook.
      Il parait que ce sont des incompetents d'apres certains, mais les deux gerent un site a tres fort traffic constamment raffraichi, doivent avoir queques idees sous le coude.
      Je doute que wikipedia ait un taux de rafraichissement aussi important que les susmentionnes, et surtout la latence n'est pas aussi importante (ie, on peut attendre 5 ou 10 minutes que ca soit propage, pas la peine d'avoir l'update la main'nant toussuite).

      Ca peut donner des idees, en tout cas, bon courage, ca va pas etre facile.

      If you can find a host for me that has a friendly parrot, I will be very very glad. If you can find someone who has a friendly parrot I can visit with, that will be nice too.

      • [^] # Re: Décentralisation chez l'auteur ?

        Posté par  . Évalué à 2.

        Que les contributeurs vont tirer une drole de tronche quand leur freebox va fondre suite au 500 000 hits/jour des gens qui essaient de voir leur page.
        Et que ya 500 000 mecs qui vont faire la tronche en se disant "'tin, c'est lent wikipedia aujourd'hui".

        Ma réflexion venait justement du fait, que pour un langage en particulier, certains articles ne doivent pas être si consultés que ça.

        Par exemple, j'ai contribué à la page [http://fr.wikipedia.org/wiki/%C3%89chantillonnage_pr%C3%A9f%(...)]. Cette page ne doit pas être très consultée à mon avis, tenir la charge sur une seule page telle que celle ça ne doit pas être trop compliqué.

        Après peut être que je peux me tromper...

        Systemd, the bright side of linux, toward a better user experience and on the road to massive adoption of linux for the desktop.

        • [^] # Re: Décentralisation chez l'auteur ?

          Posté par  . Évalué à 1.

          Ben apres, faut voir la disponibilite et la latence aussi...
          Autant de l'auto hebergement pour un site perso ou la disponibilite est pas trop genante, tres bien.

          Pour un truc de la taille de wikpedia, ca me ferais chier de me taper des 5 secondes au premier byte envoye parce que le mec qui heberge ca est aussi en train de downloader comme un cochon sur bittorrent et que sa connexion est en train de mourir.

          If you can find a host for me that has a friendly parrot, I will be very very glad. If you can find someone who has a friendly parrot I can visit with, that will be nice too.

          • [^] # Re: Décentralisation chez l'auteur ?

            Posté par  . Évalué à 2.

            ... Tout à fait. Peut être qu'une connexion fibre est plus intéressante dans ce cas.

            Systemd, the bright side of linux, toward a better user experience and on the road to massive adoption of linux for the desktop.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.