Journal CopiePress contre l'internet bis le retour....

Posté par  (site web personnel) .
Étiquettes : aucune
0
12
oct.
2006
Et voilà, après avoir gagné le procès contre google (qui doit quand même être rejugé d'ici la fin de l'année), CopiePress le regroupement de plusieurs quotidiens belge à mis en garde msn et son moteur de nouvelles équivalent à google.

A qui le tour après???
(http://www.canalz.be/fr/Belga/BelgaNieuws.asp?ArticleID=6824(...) )
a croire qu'il veulent vraiment aller contre le fonctionnement des moteurs de recherche, et quelque pars aussi de l'internet...Peut-être ne veulent-ils plus être référencé dans les moteurs de recherches.....

notez bien leurs urls, car p-e dans quelques temps il sera impossible de les trouver.

déjà je serait curieux de voir les stats des visites depuis leur procès!

lesoir.be
www.ladh.be
www.lalibre.be
.....
  • # Ils ont raison

    Posté par  . Évalué à -4.

    Tant que les gros sites de news ne rétribuerons pas leurs sources, je vois mal les dites sources accepter d'être publiées par des géants informatiques dont le beurre se fait uniquement sur la masse d'internautes qui surfent sur leurs portails...

    Ces procès sont le mal necessaire pour rééquilibrées les choses, comme avec la musique, la vidéo, les livres et maintenant les news
    • [^] # Re: Ils ont raison

      Posté par  . Évalué à 10.

      leur beurre ?
      tu veux rire j'espère !
      vas sur le site de news.google.fr
      dis moi où sont les fameuse pubs!
      Dis moi ou sont les 'articles complets'.
      Dis moi où ils ne donnent pas de liens vers les sites qui eux sont bourrés de pubs !


      Ce qui était reproché à google c'est
      1°) le manque a gagner (dis explicitement dans le procés) (manque à gagner aussi illusoire que celui de la riaa quand ils condamment un internaute qui a récup des chansons qu'il n'aura jamais payé)
      2°) le systeme de cache de google (pour eux ils veulent bien etre referencé , mais pas qu'on puisse lire ou stocker leur pages , alors qu'on en a besoin pour faire le calcul de pertinence de la page)
      3°) le fait de rediriger directement sur la page (principe de l'hyperlien) et non pas sur la page principale (alors que la mise en place d'un tel système par les plaignants est ENFANTIN (cf referer) )

      Bref du foutage de gueule grandeur nature, et en aucun cas une tentative de 'faire son beurre sur le dos des autres' de la part des revues de presses.
      • [^] # interview sur groklaw

        Posté par  . Évalué à 5.

        Un membre de Groklaw a fait une interview de quelqu'un de CopiePress:

        http://www.groklaw.net/article.php?story=2006101108382797

        (la version originale en Français est visible apres la traduction en anglais)

        On remarque que bien que robots.txt et les champs Meta "noarchive" existent, cette solution n'est "pas acceptable" pour elle. Mais pas plus de justification... effectivement, c'est un peu de la mauvaise foi.
        • [^] # Re: interview sur groklaw

          Posté par  (site web personnel) . Évalué à 7.

          Un peu de mauvaise foi ? Soit elle ne comprends rien à Internet, soit elle est à fond de mauvaise foi, soit les deux , et je pencherais plutôt pour cette dernière solution :-)

          Dire que le robots.txt et les meta tags ne sont pas acceptables car ils ne sont pas dans une loi ... euh ... C'est une idée originale de mettre les standards dans des lois, mais pourquoi pas, les gens seront obligés de les respecter ;-)

          Non, en lisant l'interview on voit très bien où elle veut en venir, tout ce qu'elle veut c'est faire cracher Google, c'est tout.
      • [^] # Re: Ils ont raison

        Posté par  . Évalué à -1.

        j'ai pas vraiment d'avis sur la question, divise que je suis entre l'acces a l'information et le respect des conditions d'utilisation du service des quotidiens de gelbique.

        Ce que je note c'est que google soutient que sisi ils ont le droit de le faire alors qu'eux meme interdisent ce genre de pratique sur leurs services a eux (interdiction d'automatiser les requetes de rechercher etc.)

        Et la pour le coup, ca fait un peu foutage de gueule.

        Bref, paille poutre, hoptial charite tout ca.

        /me, perplexe.
      • [^] # Re: Ils ont raison

        Posté par  (site web personnel) . Évalué à 3.

        3°) le fait de rediriger directement sur la page (principe de l'hyperlien) et non pas sur la page principale (alors que la mise en place d'un tel système par les plaignants est ENFANTIN (cf referer) )

        Alors il n'y a pas de SALOPERIE de script que je déteste autant que ce genre de pratique !!!

        Si je clique pour un article c'est pour aller cash a cet article ET PAS me retrouver a chercher dans leur site infesté de flash/javascript/popup under en tous sens !
        • [^] # Re: Ils ont raison

          Posté par  . Évalué à 3.

          sauf que si l'article devient payant, il est normal d'interdire l'accés par hyperlien
          C'est leur contenu et leurs serveurs, ils en font ce qu'ils veulent.

          Si ils veulent faire un site pleins de popups auxquel on est obligé de passé par l'interface principale; c'est leurs décision, et elle n'appartient qu'a eux !
          Rien ne t'oblige non plus à utiliser leurs sites.
          • [^] # Re: Ils ont raison

            Posté par  (site web personnel) . Évalué à 4.

            Alors qu'ils fassent comme le monde.fr a savoir quand l'article est devenu payant, mettre une page avec un résumé et la boite d'achat de ticket de consultation pour l'article en question...

            Mais ne me pas me demander mon avis et m'envoyer paître sur la page de garde y a rien de plus insultant, c'est comme si un propriétaire d'autoroute te télé-portais a ta ville de départ parce que tu a utilisé une branche d'autoroute qui est trop vielle (ui je sais c'est pas top comme comparaison)....
            • [^] # Re: Ils ont raison

              Posté par  . Évalué à 2.

              Et ben t'sais quoi?
              Tes news tu peux aller les lire ailleurs, s'tu veux.

              Personne ne te doit quoi que ce soit, si tu trouves qu'ils se foutent de ta gueule, tu vas t'informer ailleurs, c'est tout.

              C'est leurs sites, ils en font ce qu'ils veulent, s'ils veulent aller dans le mur, ils y vont.
  • # Nouveau procès en perspective...

    Posté par  . Évalué à 10.

    J'attends avec impatience le procès que ces groupes de presse vont intenter aux marchands de journaux qui affichent leurs couvertures dans leur magasin.
  • # euh ...

    Posté par  (site web personnel) . Évalué à 1.

    Aller contre le fonctionnement des moteurs de recherche ?
    Ce n'est pas le moteur de recherche qui est en cause, c'est la partie actu, où google propose des compilation et plus toi qui recherche.

    Aller contre internet ?
    Ben dis donc, rien que ça. Internet pour toi c'est la possibilité de tout recopier et tout utiliser sans accord ? on ne doit pas voir le même Internet et le leur m'a l'air quelque part plus censé.

    > déjà je serait curieux de voir les stats des visites depuis leur procès!

    Ca ce sont encore les mêmes arguments que le p2p, les "ils y gagnent alors qu'ils ne ralent pas". Peu importe qu'ils y perdent et que leurs stats de visite baisse, c'est leur choix, fait sur leur contenu. Même s'ils y gagnent tu n'as pas à leur imposer. Puis bon, les stats de visite c'est franchement loin d'être l'élément qui doit les intéresser, au contraire. Plein de gens qui passent sans rien d'autre c'est de la bande passante consommée qui coute cher. La question c'est plus de connaitre la pertinence et l'utilité pour eux des visites qu'ils recoivent de Google, et ça bien malin celui qui pourra répondre à leur place.

    > notez bien leurs urls, car p-e dans quelques temps il sera impossible de les trouver.

    Ca (la désindexation du moteur de recherche) par contre ça me parait bien plus gamin est vachement moins justifié. Enfin bon, là aussi Google fait ce qu'il veut tant que c'est clair, mais il ne faudra plus parler du gentil google (bon, ça fait un moment qu'il ne fallait plus en parler de toutes façons).
    • [^] # Re: euh ...

      Posté par  . Évalué à 4.

      comme dis plus haut ce sont eux qui veulent pas respecter les regles qu'utilisent internet et veulent imposer la leur.
      (cf le probleme de robots.txt , metatag et autre qui ne sont pas 'intéressants' pour eux)

      Ca (la désindexation du moteur de recherche) par contre ça me parait bien plus gamin est vachement moins justifié.
      Renseigne toi deux sec avant de dire n'importe quoi : c'est EUX qui l'ont voulu.
      Ils veulent pas etre dans le cache. Sauf que google a besoin du cache pour les calculs de pertinence.
      Donc pas de calcul de pertinence, et qui dis pas de calcul de pertinence dis pas de référencement.
      Mais bon c'est forcément google le gros méchant dans cette affaire et copiepresse (alors qu'ils disent tout haut qu'ils veulent bien donner leurs autorisation contre rétributions) le grand gentil qui pense qu'aux droits de ses journalistes...
      • [^] # Re: euh ...

        Posté par  (site web personnel) . Évalué à 0.

        > comme dis plus haut ce sont eux qui veulent pas respecter les regles qu'utilisent
        > internet et veulent imposer la leur

        La leur, la leur, c'est vite dit. Ils veulent imposer la loi, ce qui me semble la "règle" la plus objective à faire respecter.

        Quant au metatag et autres, tu me trouve le meta qui permet l'indexation mais pas la reprise des actualités dans google news ?
        Parce que pour moi le boulot et la pertinence un service d'indexation ou d'un portail d'actualité ça n'a un peu rien à voir.

        > Ils veulent pas etre dans le cache. Sauf que google a besoin du cache pour les
        > calculs de pertinence.

        C'est n'importe quoi. D'ailleurs il y a plein de sites qui n'ont pas le lien "cache" dans Google, et qui sont tout de même bien référencé. Dans les concours de référencement il y en a plein qui n'ont pas le lien de cache (pour ne pas montrer ce qu'ils font aux concurrents) et qui arrivent pourtant à se placer aussi bien que les autres.
        Il n'y a aucune raison technique qui ferait que Google a besoin de *publier* un cache pour faire une indexation. Lier les deux c'est du pur marketing.

        Et la plainte des belges au départ c'est surtout la reprise dans les pages d'actus, pas le moteur de recherche. Google, et ce n'est pas la première fois, utilise simplement la désindexation comme moyen de pression.
        • [^] # Re: euh ...

          Posté par  . Évalué à 4.

          C'est n'importe quoi. C'est CopiePresse qui a demandé d'être enlevé des moteurs de recherche de Google. D'ailleurs, ils ont même réclamé parce qu'ils sont encore référencés dans les autres moteurs internationaux de Google. Et Google est prend le risque de se voir astreindre de nouvelles pénalités de retard. Je ne trouve pas cela très gamin comme attitude.
          D'autre part pour indexer un site, il faut bien mettre en cache tous les mots de la page dans un base de données sinon comment veux-tu pouvoir les retrouver et les remettre dans leur contexte.
          Le problème vient aussi du fait qu'il n'y a pas de date d'expiration sur les articles du Soir. Donc, les pages restes dans les caches de Google, un certains temps après leur retrait du site. S'ils suivaient un peu mieux les normes du web, beaucoup de leurs problèmes trouveraient réponses. Et si les solutions actuelles, (robot.txt, meta tags, etc...) ne sont pas suffisantes, on se met autour de la table pour construire de nouvelles normes au lieu de lancer des procès pour essayer de sous-tirer de l'argent.
          Une autre contre-vérité propagée par CopiePresse. C'est qu'ils disent qu'au USA certains journaux ont reçus de l'argent suite à la publication d'articles par Google. Ce qui est vrai et normal. Mais ce que CopiePresse ne dis pas c'est que c'était pour pouvoir publier des articles en entiers et pas simplement 2 lignes ou une vignette dans Google News.
        • [^] # Re: euh ...

          Posté par  . Évalué à 4.

          Parce que pour moi le boulot et la pertinence un service d'indexation ou d'un portail d'actualité ça n'a un peu rien à voir.
          La pertinence a BESOIN du cache c'est pas compliqué.
          Et le jugement demande de ne pas mettre les pages en cache.

          La leur, la leur, c'est vite dit. Ils veulent imposer la loi, ce qui me semble la "règle" la plus objective à faire respecter.
          La loi ?
          Il y a une loi qui dis que les moteurs de recherches n'ont pas le droit d'accéder aux pages sans demander l'autorisation avant, mais que les lecteur n'en ont pas besoin ?
          Il y a une loi qui dis que le contenu PUBLIQUE des pages web ne doit pas etre accesible via un hyperlien ?
          Je reconnais que c'est pas parce que tout le monde fait comme ci que ca fait office de loi, toutefois ca fait office de standard (standard de facto) et qu'AUCUNE loi ne considère ce standard comme illégal.
          Si c'était le cas tu pourrais condammner TOUT le web...

          C'est n'importe quoi.
          Tu sais comment s'effectue le calcul de pertinence monsieur je sais tout ?
          Tu sais par exemple qu'ils utilisent des chaines de markov sur les liens, et que donc quand ils lancent leurs calculs ils ont besoin des pages par exemple.

          d'ailleurs il y a plein de sites qui n'ont pas le lien "cache" dans Google, et qui sont tout de même bien référencé.
          Mais c'est sites sont soient des 'feuilles' (cad pas de lien dans leurs pages) soient qu'ils restent sur le précédent calcul de référencement, mais qu'ils évacuent les pages de cache.
          Ce qui semble d'ailleurs logique : on garde en cache le temps de faire le calcul. On vide le cache une fois que c'est fait et que le contenu est un peu vieux, mais la 'pertinence' une fois calculé est conservé plus longtemps que le cache. Ca permet de ne pas à avoir tout le web en cache, et donc de faire un roulement.


          Il n'y a aucune raison technique qui ferait que Google a besoin de *publier* un cache pour faire une indexation. Lier les deux c'est du pur marketing.

          La publication est une aide pour les lecteurs rien de plus.
          Mais devoir appliquer un cache spécifique à chaque site peut trés bien etre tres/trop) lourd à gerer.


          De toute facon google n'as aucune obligation de référencement.
          Tu es patron d'une entreprise.
          Tu offre un service gratuit de backup de cvs public pour que tous les codes soient dispo facilement.
          La vient une entreprise qui te fait un procés pour une autre raison.
          Tu vas continuer a faire le backup de la société qui te fais un procés pour essayer de te soutirer plus d'argent.
          C'est pas du give & take dans ce cas! c'est du give & be fuck! je prend tout mais je donne rien.
          Tient ca me rapelle certains comportement avec la gpl , et bizarrement la tout le monde est d'accord pour trouvé que c'est de l'abus.


          Tu veux que je te dise, je serais google, je les aurais pas virer que du be, je les auraient virer de TOUT le moteur de recherche.
          Non pas par vengeance , mais simplement que j'ai aucune raison de me faire chier pour quelqu'un qui essaie d'imposer sa vision des choses. Si elle est pas contente de ce que je fais , alors que je lui ai laissé les moyens de résoudre facilement les problemes (robots.txt, metatag, url sur google pour enlever le site ...), qu'elle parte, mais qu'elle compte pas sur moi pour l'aider à coté de ca!
          • [^] # Re: euh ...

            Posté par  (site web personnel) . Évalué à 3.

            > La pertinence a BESOIN du cache c'est pas compliqué.
            > Et le jugement demande de ne pas mettre les pages en cache.

            Dites, ne nous faisons pas plus idiots qu'on ne l'est. Nous savons tous très bien que ce qui est visé c'est la publication du cache.

            D'ailleurs non, la pertinence n'a pas besoin d un cache, elle a éventuellement besoin d'un extraction des mots clés et de ce genre d'infos après analyse mais certainement pas d'un cache.

            >Tu sais par exemple qu'ils utilisent des chaines de markov sur les liens

            Et avoir extrait tout leurs liens, les avoir reliés à la position dans le document et les mots clés environnants ça suffit très bien à faire ton calcul.
            Mais encore une fois, il est quand même vachement évident que ce qui les gêne c'est uniquement le coté publication.

            Et encore une fois, le jugement ne concerne pas la partie recherche. Je cite l'article qui est en lien dans la news :
            """
            de vider de sa partie "actualités" tous les articles des journaux de ses membres, à savoir ceux relatifs à l'actualité et ceux mis en archives
            """
            On vise uniquement les news.google.*, les *.news.yahoo.com et équivalent. Ce qui les gêne c'est la reprise dans un portail de presse, pas l'indexation en tant que recherche.


            > Il y a une loi qui dis que ..

            hé ! Le juge ne regarde que la loi. S'il a donné faveur au plaignant, c'est bien que oui, il a la loi de son coté. Affirmer le contraire c'est tout de même être vachement présomptueux vis à vis de la justice.

            Google fait de l'extraction automatisée d'une base de donnée en face, il republie tout chez lui avec l'intention manifeste de servir de portail pour les visiteurs. Désolé mais c'est bien illégal.

            Et non, je ne te parle pas du moteur de recherche qui accède aux liens sans demander, ni qu'on n'a pas le droit de faire un hyperlien.
            Je te parle de l'interdiction de republier un contenu sous droit d'auteur chez toi. Je te parle de l'interdiction de reprendre tel quel une base de donnée originale (oui, c'est interdit) en faisant une extraction de tout le contenu et le reproposant à la publication.

            Google n'a pas le droit de copier un livre papier récent et de le mettre en ligne sans accord des ayants droits pour faire un livre.google.com (exemple pas si fictif que ça). C'est du pur droit d'auteur. Et bien c'est la même chose quand c'est juste deux pages de textes et pas un livre. C'est aussi la même chose quand c'est en ligne au lieu d'être sur papier. Pour republier un contenu sous droit d'auteur tu as besoin d'un accord.

            Google n'a pas non plus le droit de prendre les dictionnaires, les scanner et extraire automatiquement tous les mots pour créer un dictionnaire.google.com. Encore moins s'il fait les mises à jour de son site dès qu'une nouvelle version du dico sort. Les mots appartiennent à tout le monde mais la liste de mot est elle une création originale protégée en plus par un droit spécial souvent appeler droit sur les bases de données (là je parle coté français mais c'est probablement similaire en Belgique). Et bien là aussi, c'est la même chose si ce n'est pas une liste de mots mais une liste de dépeches d'actu. C'est la même chose si cette liste d'actu est en ligne au lieu d'être en papier.

            Faudrait pas voir à croire que d'un coup parce qu'on est sur Internet les lois de base ne s'appliquent plus.

            > mais simplement que j'ai aucune raison de me faire chier pour quelqu'un qui
            > essaie d'imposer sa vision des choses.

            Encore une fois, vu qu'on passe par la justice, ce n'est pas "sa vision des choses" mais "les lois de la communautés".
            Ce qui reviendrait à dire "si tu essayes de faire respecter tes droits légaux, alors je te retire toute existance et te traite différement". Tu trouves ça vraiment "bien" ? Je me demande dans quel monde tu vis.


            > Si elle est pas contente de ce que je fais , alors que je lui ai laissé les moyens
            > de résoudre facilement les problemes (robots.txt, metatag, url sur google
            > pour enlever le site ...), qu'elle parte, mais qu'elle compte pas sur moi pour
            > l'aider à coté de ca!

            Sauf que, encore une fois, rien ne permet de refuser via des mots clés la reprise sur google news sans refuser l'indexation dans un moteur de recherche.

            Je ne dis même pas qu'elle est "correcte" vis à vis de ces sujets, elle devrait effectivement définir des meta données, MAIS ce n'est pas à l'auteur de protéger ses contenus, c'est à celui qui veut les recopier d'obtenir une autorisation explicite. Google est assez gros pour le savoir, et c'est vrai sur papier comme sur Internet.
            Faire de l'indexation c'est certainement acceptable, republier du contenu dans leur portail c'est clairement franchir la ligne et avoir assumé "ils vont être d'accord ou en tout cas ils ne vont pas oser raler longtemps", ce qui là est anormal.
            • [^] # Re: euh ...

              Posté par  . Évalué à 2.

              D'ailleurs non, la pertinence n'a pas besoin d un cache, elle a éventuellement besoin d'un extraction des mots clés et de ce genre d'infos après analyse mais certainement pas d'un cache.
              Et avoir extrait tout leurs liens, les avoir reliés à la position dans le document et les mots clés environnants ça suffit très bien à faire ton calcul.
              Oui mais donc tu leur paie le surcout pour le faire 'au moment du rapatriement de la page' et pas après , quand les machines ont a nouveau de la puissance dispo ? Ou d'autres traitement qui demande à ce que la page soit dispo en grande partie, (vérfications des mots clés entre les != pages pour voir si elles sont proches ou pas ... etc)


              Google fait de l'extraction automatisée d'une base de donnée en face, il republie tout chez lui avec l'intention manifeste de servir de portail pour les visiteurs. Désolé mais c'est bien illégal.
              Intention manifeste de servir de portail ?
              Tu es DEJA allé sur news.google.fr ?
              Il y a un entrefilet de 2 lignes, JAMAIS d'article complet.
              Quand au moteur de recherche tu dis toi meme que c'est différent :
              On vise uniquement les news.google.*, les *.news.yahoo.com et équivalent. Ce qui les gêne c'est la reprise dans un portail de presse, pas l'indexation en tant que recherche.
              Faudrait savoir, important ou pas important ?

              Bon le probleme de cache est vraiment un probleme technique, et comme ils gardent leurs algos secret on ne peut savoir si il peuvent s'en passer avec un surcout important ou pas .

              Supposons que le probleme de cache réglé (encore une fois il est tout a fait possible de demander à google de ne PAS visiter les sites sans aller jusqu'a un procés!)


              Pour le portail de news :
              Google fait de l'extraction automatisée d'une base de donnée en face, il republie tout chez lui avec l'intention manifeste de servir de portail pour les visiteurs. Désolé mais c'est bien illégal.
              Google fait une extraction automatisée de PAGES WEB PUBLIQUES, et VERIFIE l'AUTORISATION IMPLICITE qu'est donné par le robots.txt.

              C'est exactement la meme chose que si tu fais un discours sur une place publique, en criant bien fort, en disant que c'est publique , et que quand quelqu'un publie 'monsieur à dis : <ici 2 lignes sur un discours de150 lignes >' tu trouve ca illégal ?
              Sachant que tu peux trés facilement mettre une affichette que TOUTE personne faisant ce genre de boulot respecte et qui dis 'ne recopiait pas ce discours' (qui s'apelle le robots.txt) .
              Désolé mais ca tiendra jamais dans un tribunal : si tu déclare quelquechose publiquement , tu ne peux empecher le droit de citation.


              Sauf que, encore une fois, rien ne permet de refuser via des mots clés la reprise sur google news sans refuser l'indexation dans un moteur de recherche.

              Ben tu veux le beurre et l'argent du beurre ?
              Tu veux bien mettre des pubs sur ton site (et les sites de copies presse en sont remplis) , tu veux bien que google te rapporte des visites, mais tu veux pas qu'il puisse faire son beurre lui aussi (d'autant qu'il y a pas de pub sur news.google.fr, contrairement a ce qui est affirmé).
              c'est vraiment du Give & be fuck !

              MAIS ce n'est pas à l'auteur de protéger ses contenus, c'est à celui qui veut les recopier d'obtenir une autorisation explicite.
              C'est aussi à l'auteur de ne pas mettre a disposition PUBLIQUEMENT ses données, et ensuite ralé parce que quelqu'un à utilisé le droit de citation pour faire une revue de presse (le droit de citation, dans la convention de berne est définie EXPLICITEMENT pour une revue de presse ! ).
              Faut pas se foutre de la gueule du monde non plus !


              et c'est vrai sur papier comme sur Internet.
              Et c'est complétement faux.
              J'ai tout a fait le droit de faire une revue de presse avec 2 lignes par articles pour ma revues de presses.
              C'est reconnu par l'article 10 de la convention de berne !


              Faire de l'indexation c'est certainement acceptable, republier du contenu dans leur portail c'est clairement franchir la ligne et avoir assumé "ils vont être d'accord ou en tout cas ils ne vont pas oser raler longtemps", ce qui là est anormal.
              Si on parle toujours du portail de news, il n'y a pas de republication, il y a juste un court entrefilet !



              Encore une fois, vu qu'on passe par la justice, ce n'est pas "sa vision des choses" mais "les lois de la communautés".
              Moi je me rapelle des != lois qui ont été votés, dadvsi par exemple.
              Des jugements débiles qui allait contre la loi (juge de proximité qui demande de rendre l'ordinateur si on accepte pas la cluf windows par exemple).
              Bref c'est pas parce que c'est 'la loi de la communauté' qu'elle est forcément hyper top méga génial.


              Ce qui reviendrait à dire "si tu essayes de faire respecter tes droits légaux, alors je te retire toute existance et te traite différement". Tu trouves ça vraiment "bien" ? Je me demande dans quel monde tu vis.

              Ce qu'il faut pas entendre.
              Elle veux JUSTE dire 'si tu me fais chier, il y a aucune raison pour que je t'aide'.
              Depuis quand google controle le web et les registrar ?
              Depuis quand google peut 'retirer toute existence à un site' ?
              Bref du beau FUD pour faire comprendre que copiepresse ce sont des pauvres petits et google le gros méchants... Assez pitoyable comme facon de faire amha.


              Encore une fois : rien n'oblige google a référencer un site.
              Et rien n'oblige d'utiliser google pour faire des recherches (d'ailleurs je ne l'utilise pas )
              Ce que tu dis c'est exactement la meme réaction de gamins avec le gars qui envoie une publication, elle est refusé et il dis 'ils ne reconnaissent pas mon génie, ils veulent me retirer toute existence ...'
              Bref du beau n'importe quoi.

              Ils ont voulu joueur au plus fort et au plus malin , et ce sont fait avoir. C'est leur probleme, je vais pas les plaindres. Les personnes qui font des procés pour un rien juste pour récupérer plus d'argent ca m'horripile passablement.
              • [^] # Re: euh ...

                Posté par  (site web personnel) . Évalué à 2.

                > Tu es DEJA allé sur news.google.fr ?
                > Il y a un entrefilet de 2 lignes, JAMAIS d'article complet.

                Oui oui, c'est bien ce qu'on appelle un portail. Le résultat c'est que les gens ont l'impression d'"être sur Google" et pas sur le site de X ou Y. C'est aussi cette page qui est la plus visitée. C'est aussi cette page qui a des chances de drainer vers des ressources annexes, par exemple via la pub, et pas les pages "profondes".

                Pour donner un exemple, si un site propose des articles de fond payants et des dépeches gratuites. Les deux sont annoncés sur la page d'actu du site. Google ne reprendra que les dernières dans son portail, normal. La personne qui passe par google aura d'autant plus de mal à percevoir et se montrer attiré par les articles de fonds payants. Ils ne percevra peut être même pas le site d'actu comme de la valeur ajoutée en associant son nom au fait qu'il lit de l'actu (c'est plutot google qu'il associera comme nom).
                Pour le site en question c'est de la bande passante perdue, des visiteurs détournés et des ventes en moins.

                > Google fait une extraction automatisée de PAGES WEB PUBLIQUES, et VERIFIE
                > l'AUTORISATION IMPLICITE qu'est donné par le robots.txt.

                "autorisation implicite" ça n'existe pas. La loi dit au contraire que c'est l'interdiction qui est implicite. A la limite je suis même sur que tous les sites dont on parle mettent *explicitement* un copyright avec un "tout droits réservés" et peut être même une page dédiée disant qu'il est interdit de reprendre leur contenu. Tout ça c'est de l'interdiction explicite.

                Ajouter des sites dans Google News c'est fait manuellement. Il serait donc normal qu'ils vérifient ce genre d'informations et qu'ils demandent explicitement une autorisation. On n'est plus dans le cas de l'indexation de millions de sites là.

                Mais, encore une fois, même si l'indexation était implicite, la reprise dans un portail ne l'est pas. Le robots.txt ne permet pas de faire ce genre de règles. Du coup il n'est franchement pas pertinent d'opposer à ça le robots.txt.

                > J'ai tout a fait le droit de faire une revue de presse avec 2 lignes par articles
                > pour ma revues de presses. C'est reconnu par l'article 10 de la convention de
                > berne !

                Oui, ce n'est pas interdit coté copyright / droit d'auteur.
                Par contre, tu n'as pas le droit de faire un papier qui reprend systématiquement les titres et les accroches de ton site internet favoris. C'est interdit, par une législation spécifique, annexe aux droits d'auteurs.


                > Bref c'est pas parce que c'est 'la loi de la communauté' qu'elle est forcément
                > hyper top méga génial.

                Là dessus je suis tout à fait d'accord avec toi. Mais le temps qu'on la change il est normal et souhaitable qu'elle soit respectée, par Google aussi. Et il n'y a rien à reprocher à une entreprise qui cherche à faire respecter les droits qu'elle a de part la loi.


                > C'est aussi à l'auteur de ne pas mettre a disposition PUBLIQUEMENT ses
                > données

                Rooh, sur un site comme celui ci il y a encore des gens qui confondent "publication" et "autorisation de tout faire" ? C'est avec des reflexions comme ça que j'en viens presque à comprendre les gens qui font du DRM.


                > Encore une fois : rien n'oblige google a référencer un site.

                Certes, ceci dit en déréférencant un site pour l'unique raison qu'il fait respecter ses droits légaux, on est à la limite du chantage. Google reste certainement dans ses droits là dessus, et je n'ai pas sous entendu le contraire, mais c'est à mon avis vachement moins "bien" que ce que fait Copypress.

                > Les personnes qui font des procés pour un rien

                Faudrait pas inverser les situations non plus. Copypress était dans le droit légal (c'est le juge qui le dit). Il est normal qu'il aille en procès si Google refuse de changer de position. Les justices de nos pays sont même là pour ça.
                Si on ne voulait pas de procès pour rien il aurait plutot fallu faire respecter les lois dès le départ. Celui qui est à la cause du procès c'est quand même à la base celui qui viole les lois hein ...
                • [^] # Re: euh ...

                  Posté par  . Évalué à 2.

                  ouais visiblement on est plus ou moins d'accord sur le fond du probleme, mais pas totalement sur la forme , ni sur le comportement de chacun ;)

                  Pour donner un exemple, si un site propose des articles de fond payants et des dépeches gratuites. Les deux sont annoncés sur la page d'actu du site. Google ne reprendra que les dernières dans son portail, normal. La personne qui passe par google aura d'autant plus de mal à percevoir et se montrer attiré par les articles de fonds payants.
                  Perso (mais bon c'est bien entendu qu'un cas particulier :)) j'évite autant que faire se peu les contenus 'payant'.
                  Par contre des qu'un article m'intéresse sur news.google.fr ou autre, je clique pour en savoir plus. Sachant que sinon je ne vais PAS sur leurs sites, on peut raisonnablement dire qu'au contraire de retirer du manque à gagner, ca leurs à rapporter des soussous.

                  Pour le site en question c'est de la bande passante perdue, des visiteurs détournés et des ventes en moins.
                  Plutot une mauvaise organisation (les articles 'superficielles doivent etre reliés aux articles de fond sinon ca sert à rien de dispersé les infos n'importe ou, meme si le 'client' vas sur le site, il sera perdu).
                  Et la bp perdu, chaque fois que je vais sur un site d'actu pointé par news.google.fr (meme directement) , j'ai des pubs partout ! donc je dirais argent gagné plus que bp perdu !


                  Ajouter des sites dans Google News c'est fait manuellement.
                  Ca j'en sais rien, si c'est le cas effectivement la demande d'autorisation peu aller en meme temps.

                  Par contre, tu n'as pas le droit de faire un papier qui reprend systématiquement les titres et les accroches de ton site internet favoris. C'est interdit, par une législation spécifique, annexe aux droits d'auteurs.
                  Pourtant c'est plus ou moins le principe de la revue de presse (papier ou electronique).

                  il y a encore des gens qui confondent "publication" et "autorisation de tout faire" ? C'est avec des reflexions comme ça que j'en viens presque à comprendre les gens qui font du DRM.
                  J'ai pas dis que ca donner le droit de tout faire, mais ca donne le droit, reconnu par la loi : de le lire , d'en faire une copie A TITRE PRIVEE (donc je parle pas de la publication du cache google ;)) , et de l'utiliser comme matière à citation.


                  Certes, ceci dit en déréférencant un site pour l'unique raison qu'il fait respecter ses droits légaux, on est à la limite du chantage. Google reste certainement dans ses droits là dessus, et je n'ai pas sous entendu le contraire, mais c'est à mon avis vachement moins "bien" que ce que fait Copypress.
                  Faire un procés pour essayer de récupérer de l'argent et montrer qu'on a la plus grosse, c'est pas ce que j'apelle 'achement bien'

                  "autorisation implicite" ça n'existe pas. La loi dit au contraire que c'est l'interdiction qui est implicite. A la limite je suis même sur que tous les sites dont on parle mettent *explicitement* un copyright avec un "tout droits réservés" et peut être même une page dédiée disant qu'il est interdit de reprendre leur contenu. Tout ça c'est de l'interdiction explicite.
                  Oh si elle existe bel et bien.
                  Par exemple 'tout ce qui n'est pas interdis par la loi est autorisé' ;)
                  Et l'autorisation légale prévaut par rapport aux conditions abusives.
                  Si une page est publique, il est implicitement autorisé de la lire.
                  Mais copiepresse, d'apres ce que je vois, veux bien que les lecteurs la lise, mais pas que google puisse la lire, ni essayer , de part un portail regroupant aussi ses concurrents de présenter un éventail de la disponibilité des infos (et de leurs présentations différente !).
                  Bref pour moi ca reste de la capture du client , ni plus ni moins.



                  Faudrait pas inverser les situations non plus. Copypress était dans le droit légal (c'est le juge qui le dit). Il est normal qu'il aille en procès si Google refuse de changer de position. Les justices de nos pays sont même là pour ça.
                  Si on ne voulait pas de procès pour rien il aurait plutot fallu faire respecter les lois dès le départ. Celui qui est à la cause du procès c'est quand même à la base celui qui viole les lois hein ...

                  Tiens donc si je fais un procés à Ms pour vente lié, je suis forcé de gagné (le viol de la loi est manifeste et reconnu par une lettre officielle d'un ministre) .
                  Marrant c'est pas ce qu'a décidé un juge ;)
                  Copiepresse rapporte à la belgique, il est fort probable que ca a jouée une part non négligeable dans le procés.
                  D'ailleurs si tu le lis, Google est accusé de manque à gagner (sic) et l'argumentation de tout le procés se base dessus, sans jamais le montrer.
                  Le coup de droit d'auteur est qu'un prete nom, c'est assez flagrant quand on lis le compte rendu du procés (enfin moi j'ai trouvé ca flagrant).
                  Bref ca reste pour moi une tentative de protection économique , et pas de respect des lois.
                  Je peux me tromper (et j'espère me tromper) mais ....
                  • [^] # Re: euh ...

                    Posté par  (site web personnel) . Évalué à 2.

                    > D'ailleurs si tu le lis, Google est accusé de manque à gagner (sic) et l'argumentation de tout le procés se base dessus

                    Je ne connais pas la structure de la justice belge, mais si ellle ressemble à ce que je connais de la française, c'est normal. Dans une procédure au civil le but c'est justement de montrer ce en quoi le gars d'en face te gêne en outrepassant la loi, et pas uniquement le fait qu'il outrepasse la loi.
                    • [^] # Re: euh ...

                      Posté par  . Évalué à 2.

                      Ca d'accord, mais ce que je voulais dire c'est qu'il l'accuse de manque a gagner (supposons, meme si jusqu'a présent la concurrence a jamais été interdis par la loi et entraine un manque à gagner aussi, donc faudrait etre plus précis que simple 'manque à gagner', ce qui ne semblait pas etre le cas dans le compte rendu, mais peut etre est ce précisé dans les minutes ? ) mais ils ne démontrent à aucun instant (ou alors je l'ai pas vu en lisant le compte rendu) qu'il y a bien un manque à gagner.
                      Ils n'ont par exemple JAMAIS pris en compte que google leur rapporte des visites (ben oui , quand on veut etre objectif, il faut regarder et les mauvais et les bon cotés d'un problème ;)).
                      C'est ca que je reproche au 'procés' ;)
                      (encore une fois c'est pe dans les minutes, mais ca ne ressors pas du tout dans le compte rendu)
                      • [^] # Re: euh ...

                        Posté par  . Évalué à 2.

                        je constate a mon tour que j'ai fait de l'imprécision ;)
                        donc je complète :
                        donc faudrait etre plus précis que simple 'manque à gagner', ce qui ne semblait pas etre le cas dans le compte rendu,
                        J'entendais par la qu'ils ont dit que le cache entrainait un manque à gagner objectif car permettait de by passer le passage en mode payant. Ca ok je comprend, mais c'est pas le seul argument !
                        -Ils n'ont jamais dis en quoi le portail portait un manque à gagner (ie en quoi le fait de mettre un entrefilet de 2 lignes était plus préjudiciables que les visites rapporté par cet entrefilet de deux lignes).
                        -Ils ont aussi accusé google de manque à gagner et de se 'nourrir sur leurs dos' a cause de la pub que google fournissait mais ils n'ont jamais montré en quoi google récupérer des sous-sous avec son portail de news.
                        Etc...

                        Oui google doit bien récupérer ses billes qq part, mais c'est loin d'etre une affaire simple et clair.
              • [^] # Re: euh ...

                Posté par  . Évalué à 2.

                On vise uniquement les news.google.*, les *.news.yahoo.com et équivalent. Ce qui les gêne c'est la reprise dans un portail de presse, pas l'indexation en tant que recherche.
                Attention, ne pas confondre Google et Yahoo.
                Yahoo achète ses infos aux agences de presse (Reuters et AFP).
                Google collecte les nouvelles sur les sites des journaux qui ont acheté les infos aux agences de presse.

                Dailleurs, AFP est aussi en procès contre Google.

                Et il faut bien rappeler que l'information de qualité coûte cher.
                C'est tellement vrai que si on trouve 53 sujets dans GGnews, dans 50 cas c'est une reprise quasiment à l'identique de la mêm dépêche d'agence.
            • [^] # Re: euh ...

              Posté par  (site web personnel) . Évalué à 3.

              hé ! Le juge ne regarde que la loi. S'il a donné faveur au plaignant, c'est bien que oui, il a la loi de son coté. Affirmer le contraire c'est tout de même être vachement présomptueux vis à vis de la justice.

              Euh, le fond n'a pas encore été jugé car le procès a été gagné par CopyPress parce que Google ne s'était pas présenté à l'audience.
              Maintenant, Google a fait appel, et ça permettra de juger réellement cette affaire, donc pour l'instant on se sait pas si la loi est pour Google ou CopyPress.
              • [^] # Re: euh ...

                Posté par  (site web personnel) . Évalué à 2.

                Je ne sais pas comment ça se passe en Belgique mais en France il ne suffit je pense pas que le gars d'en face soit absent pour gagner (même si ça doit aider énormément).
                Et bon, si Google avait confiance dans son droit, il serait venu. Créer un précédent lui coute plus cher qu'un avocat.
                Faut croire qu'eux sont moins sûrs que toi d'avoir raison.
                • [^] # Re: euh ...

                  Posté par  . Évalué à 2.

                  ah moins qu'il était sur d'etre dans leurs bon droit et que copipresse allait etre debouter , donc pas besoin de se déplacer.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.