Guillaume Knispel a écrit 2474 commentaires

  • [^] # Re: Effectivement

    Posté par  . En réponse à la dépêche Rendre GNOME rapide. Évalué à 6.

    Nan mais en fait il était sérieux mon commentaire (malgré le smiley). Bon ok j'accorde qu'il était inutile aussi :)

    Sur nos machines de fous actuelles attendre + de .1s juste pour voir le contenu d'un repertoire, c'est ... lent.

    Et je parle même pas des attentes de plus de 1s décrites plus haut.
  • # Effectivement

    Posté par  . En réponse à la dépêche Rendre GNOME rapide. Évalué à 0.

    L'auteur (se) donne également certains buts, comme de lancer le sélecteur de fichiers de Gtk et une fenêtre de Nautilus en moins de 0.1s, et également d'améliorer Pango et le widget d'arborescence de Gtk (GtkTreeView).

    Ça se lance en plus de 0.1s ? Effectivement ya du boulot à faire :)
  • [^] # Re: A la limite du sujet

    Posté par  . En réponse à la dépêche DMCA français : lettre à Dominique de Villepin. Évalué à 5.

    Si tu fais ca tu passes par une etape analogique pour revenir au numerique, et tu perds enormement. Quand tu copie un CD, c'est de la copie numerique, du clonage en quelque sorte. L'encodage de mp3 se fait aussi avec du numerique de bout en bout.

    Faut arreter de vénérer aveuglement le Dieu numérique des fois. Une sortie analogique et une entrée analogique de bonne (voir moyenne) qualité avec des niveaux bien (voir pas trop mal :) reglés va provoquer des pertes infiniments moins lourdes qu'un encodage MP3. C'est moins accessible à l'utilisateur final que de cliquer sur un bouton "RIPPER LE CD EN MP3 GRACE AU SUPER FRONT END DE LA MORT QUI TUE" mais avec quelques softs intelligements choisis pour la calibration ca peut être fait facilement par quiquonque à encore un peu de cerveau disponible non monopilisé par TF1 ;)
  • # Discours à retourner

    Posté par  . En réponse au journal BSA : l'Europe victime de taxes injustes. Évalué à 1.

    Leur discours est interressant mais interressé

    Taxes ou DRM il faut choisir <= on peut difficilement critiquer.

    Ils choisissent le DRM. Si vous estimez que les taxes sont plus interressantes à vous d'expliquez pourquoi les taxes présentent un avantage (en premier plan pour l'accès à la culture et l'interropérabilité, si association avec un système à licence légale)

    Personnelement je suis confronté à un problème difficile à résoudre. Le DRM ne me convient pas pour toutes les raisons qu'on connait. Les taxes non plus parce qu'elles sont mal prélevées, parce que dans le contexte législatif elles ressemblent à une presomption de culpatibilité, et parce qu'elles sont TRÈS mal reparties.
  • [^] # Re: Mouaif ...

    Posté par  . En réponse au journal Le BSA serre la vis sur la contrefaçon de logiciels. Évalué à 6.

    Il y a de fortes chances pour que ce genre de clause soit illégal (et plus probablement pour que tout le monde se foute completement de son application, MS en tout premier).
  • [^] # Re: bsa puxor

    Posté par  . En réponse au journal Le BSA serre la vis sur la contrefaçon de logiciels. Évalué à 3.

    Mauvaise SSII. Pointer toutes les conneries qu'ils racontent, leur balancer à le gueule et changer de SSII :)

    C'est pas interdit de mentir ouvertement comme ça ?
  • [^] # Re: bsa puxor

    Posté par  . En réponse au journal Le BSA serre la vis sur la contrefaçon de logiciels. Évalué à 6.

    Pour régulariser quoi ?

    Ca sent très fort la lettre générique. Il y a absolument rien de personnalisé. Tout est vague, flou et destiné à faire peur. Ca sent mauvaiiiiiiiiiiiiiiiis le FUD. Bref ce papier peut servir tout au plus de papier toilette.
  • [^] # Re: bsa puxor

    Posté par  . En réponse au journal Le BSA serre la vis sur la contrefaçon de logiciels. Évalué à 4.

    Si je recevais ça, n'aillant rien à me reprocher, je me ferais un malin plaisir à leur envoyer une réponse bien sanglante (sans dépasser aucune borne).

    Ca pue la lettre générique envoyée en masse.

    Deux phrases sont intolérables mais habilement tournées pour éviter les problèmes (après tout ce sont des avocats... :/

    BSA nous a indiqué que des copies de logiciels créés et édités par ses membres pourraient êtres installées et utilisées sur les ordinateurs de votre sté sans que celle-ci n'ait acquis les licences nécessaires.

    et

    Dès lors, et en l'état actuel de ce dossier, nos clientes ne nous ont pas demandé d'engager une action à l'encontre de votre sté

    Ça pue tellement que jme servirais certainement d'un lettre comme celle là pour inciter les gens à passer au LL (ou pour me torcher le cul si c'est impossible / ca porte pas ses fruits).
  • [^] # Re: Avis différent

    Posté par  . En réponse au journal Accessibilité : la Culture s’emmêle. Évalué à 2.

    BrailleNet et moi-même participont aux réunions de travail à l'ADAE mais la discussion y est tout aussi impossible que sur la page de discussion de l'article sur Wikipédia...

    Si BrailleNet prone que le test automatique est une abomination qu'il faut éliminer je comprend que le dialogue est impossible.

    Un petite question : comme garantir l'interropérabilité préalable à l'accessibilité si les normes ne sont pas respectées ?

    Deuxième petite question : qu'a à voir le débat sur le professionalisme des archiveurs concernant les champs qu'ils remplissent ? Il s'agit d'un autre problème et on ne peut pas argumenter sérieusement que les tests c'est mal parce que des fois les champs sont mal remplis. Ce n'est pas le but d'un outil de vérification ne non incompatibilité technique, qui ne détectera pas plus les fautes de grammaires ni l'inversion de deux images ni etc...

    En fait cet article a plus un problème de non traitement des mises à l'échelle qu'autre chose et il conviendrait de préciser que certaines méthodes ne sont pas applicable selon les sites et leur tailles, et qu'elle est le domaine dans lequelle une méthode apporte un plus : vérification de contenu ou vérification technique.
  • # Avis extérieur

    Posté par  . En réponse au journal Accessibilité : la Culture s’emmêle. Évalué à 6.

    Un avis perso totalement extérieur à l'affaire :

    143.126.201.200 me semble dire des choses très sensée et je ne vois pas en quoi on pourrait critiquer des tests automatisés, qui, s'il ne sont pas une garantie de résultats, sont inconstestablement un plus en terme de compatibilité technique.

    Comment garantir l'interopérabilité, prélude à l'accessibilité, si on a pas des normes et des moyens de tests de conformance à ces normes ?

    Le test automatique de conformité est indispensable, mais comme tout test automatique il ne peut pas suffir en tant que garantie car sa couverture est insuffisante. Néanmoins c'est le propre de beaucoup d'autre labels (certains font pire et ne sont que des déclarations d'intentions) et il convient juste de le préciser dans sa description.

    Rejeter en bloc les outils de tests automatiques me semble, selon mes yeux d'informaticien, une aberration dans le sens ou un test automatique ne peut pas apporter un moins mais seulement un plus et que interpreter un test automatique comme une fin en soit et une mauvaise interpretation puisque dans 99% des cas les tests automatique n'apportent jamais de preuve, mais que la encore dans 99% des cas (le 1% restant et même moins étant une défaillance des tests eux mêmes) le non passage des tests apporte une preuve de non conformité aux normes, qui je me répète sont un préalable à la compatibilité technique.
  • # Marrant

    Posté par  . En réponse au journal Wikipedia vu par Schneidermann. Évalué à 3.

    Ça me fait toujours marrer les gens qui analysent un truc avec leur propre grille de lecture totalement inaplicable (cf dernier paragraphe de Schneidermann qui se pose plein de question qui, au vu du contexte, non absolument pas lieu d'être).

    On se croirait revenu au temps ou MS découvrait le LL et déblatérait des conneries dessus pour essayer de le combattre, avec les pietres résultats qu'on connait.

    Ici Schneidermann agit bien plus intelligement et à un début de comprehension du phénomène wikipédia, mais insuffisant. Certaines choses ne lui ont apparement même pas traversé l'esprit, et il résonne comme si wikipédia était juste une future version papier en développement, qui allait être définitive à un moment ou à un autre. D'autres choses s'apparentent plus à de la mauvaise fois pure (comment peut-on se demander "Qui donc travaille dans l'ombre à la rédaction des versions définitives ? Quelle autorité supérieure arbitrera ? Mystères." alors que ça n'a aucun sens dans un contexte wikipédien (même en oubliant le mot "définitives") ou tout le monde peut-être acteur... mystères :)

    Ce qui est marrant aussi, c'est qu'on retrouve dans ce paragraphe l'idée de l'autre n1 de charlie hebdo (me rappelle plus qui c'était) qui argumentait que finalement le nom des auteurs (que l'on peut entendre par substitution de transpostition "des éditeurs" dans le monde logiciel) était plus important que le contenu. Drôles de façon de voir les choses... mais totalement conforme à un monde propriétaire en devenir de libération, ou les idées retrouvent leur statuts naturels évolutif et non rival.
  • [^] # Re: Fonctionne-t-il comme client X ?

    Posté par  . En réponse à la dépêche Linux sur le NCD Explora 401. Évalué à 5.

    Ben c'est un peu le but des TX :) (qui sont d'ailleurs à peu près tous fournis avec un petit système proprio qu'il faut généralement mettre sur un TFTPD pour qu'ils le téléchargent au boot)
  • [^] # Re: Meilleur Intégration ?

    Posté par  . En réponse à la dépêche Les nouvelles de KDE. Évalué à 1.

    Je me suis vraissemblablement exprimé en une langue étrangère. La preuve tu réponds à coté de la plaque.

    Désolé la prochaine fois je structurerais mieux mes propos et idées.

    (quand je parle de boite noire je parle du comportement des IHM actuelles et des environnements graphiques, les applis dont on parle je suis quand même relativement au courant qu'elles sont libre et que je peux lire leur code source merci)
  • [^] # Re: live cd solaris

    Posté par  . En réponse au journal BeleniX, un autre LiveCD OpenSolaris. Évalué à 2.

    Alors si tu pouvais baisser ton taux de SMSisation de tes posts, mettre des apostrophes là ou il en faut et ne pas ponctuer de LOL à la place de points, on arriverait surrement mieux à te lire. Merci.
  • [^] # Re: [Solaris] Pour quels publics, pour quels usages ?

    Posté par  . En réponse au journal BeleniX, un autre LiveCD OpenSolaris. Évalué à 2.

    C'est sûr que Solaris sur PC ça risque de régler tous les bugs de non gestion d'endianess ;))

    Ceci étant c'est sûr qu'un développement mono OS n'implique pas les mêmes choses qu'un développement portable.
  • [^] # Re: Meilleur Intégration ?

    Posté par  . En réponse à la dépêche Les nouvelles de KDE. Évalué à 5.

    Déjà ce que tu sors est une super généralité dont on ne connaitra même pas les répartition en gens qui se comportent comme tu dis /vs gens qui pourrait quand même envi d'avoir de vagues notions.
    Je ne sais pas moi, tout le monde à de vagues notions de l'effet d'un ABS et du fonctionnement des pistons concernant une voiture.

    Ensuite ce que je propose n'a absolument rien de génant dans le sens ou seul ceux qui sont interessés par une infos ont accès à l'info et les autres ont le même comportement par défaut classique et prévu par le système qui les interressent. Il n'y a donc pas de perdant, que des gagnants.

    Enfin je ne suis absolument pas certain que ce que tu décris là est un comportement naturel (au vu des notions que tout le monde à dans les autres domaines) ou est impliqué par les modèles des autres systèmes majoritaires qui à mon avis induisent un mode de pensée chez l'utilisateur qui le décourage à tout jamais de ne serais ce que tenter de résoudre un problème par lui même, même si par ailleurs il à l'ame d'un bricoleur.

    Pour conclure c'est pas en créant une convergance de toutes les interfaces vers un modèle ou on ne peut même plus soulever le capot pour voir ce qui se passe qu'on va au final pouvoir vérifier mon hypothèse ou pas. Et je ne demande même pas des changements radicaux ! Je souhaiterais que les gens qui ont envi d'avoir accès à l'information puissent accéder à l'information le plus simplement possible.
    Que cela représente 1% ou 10% des utilisateurs, je m'en fiche completement.

    À titre d'exemple si un système tel que je l'imagine était foutu partout dans win, je pense que je pourrais, vu le nombre d'heure tout de même non négligeable que j'ai passé dans cet environnement par le passé, bien mieux comprendre le système et résoudre extremement facilement 95% des problèmes que je considère insurmontables, ignorant totalement leur provenance. Maintenant si tu fous un utilisateur sous un bureau moderne sous nux, qu'il vienne de windows, mac ou rien du tout, si il utilise cette environnement très longtemps sans jamais être informé que ce qui s'affiche sur l'écran est le résultat de telle et telle action, et bien il est evident qu'il ne deviendra pas plus autonome et pas plus apte que moi a résoudre les problèmes qu'il rencontre par rapport à ceux que je peux rencontrer sous win. Et l'autonomie de l'utilisateur c'est extremement important pour qu'il soit efficace (et pour la tranquilité des informaticiens).

    Voici le fond de ma pensée. Je ne crois pas qu'elle soit plus l'oeuvre d'un illuminé que la pensée consistant à vénérer les boites noires comme summum de l'ergonomie.
  • # Lire la doc d'Intel et d'AMD merci

    Posté par  . En réponse au journal La mémoire, goulot d'étranglement : optimiser le cache processeur.. Évalué à 10.

    Toutes les réponses sont dans les docs d'Intel et d'AMD, néanmoins pour pas avoir l'air trop méchant (quoique ? :P) :

    Soit une fonction quelconque appelée par un call [ptr], si toutes les données utilisées par cette fonction sont, en terme d'adresse mémoire physique, contigües, alors le prefetch cache hardware aura tendance à charger ces données, au moins dans le cache L2 (?)

    Je vois pas le rapport avec un call [ptr]. Si les données utilisées par la fonction sont contigues et si la fonction les utilisent dans l'ordre ou du moins dans un ordre régit par quelques fonctions affines adresse = f(numéro de l'acces mémoire) potentiellement entrelacées (si il n'y en a pas trop), alors le proc detecte qu'il peut etre judicieux de prefetcher et ce met à le faire tout seul comme un grand.
    La chargement dans le cache L2 ou L1 est indépendant de lorigine de la décision de mise en cache (conseil de prefetching ou pas, prefetching automatique, mise en cache classique, etc...).
    Il y a principalement 2 systèmes : inclusif ou les données de L1 sont obligatoirement aussi dans L2 et exclusif, ou les données de L1 ne sont pas dans L2 (sur certains proc il y a moins de L2 que de L1 donc dans ce cas l'exclusivité est obligatoire).
    Les niveaux de cache ont des temps d'accès et potentielement un tas d'auters paramètres qui diffèrent (associativité, taille de lignes, ...).
    Le choix de l'emplacement dans le cache à utiliser pour stocker un truc dans le cache dépend de l'adresse mémoire du truc à stocker, de l'associativité, et généralement d'un algorithme de type pseudo-LRU.

    La mémoire est une matrice, et le temps d'accès à tel ou tel endroit de la mémoire est le même, j'ai donc du mal à comprendre pourquoi les données doivent être absolument alignées pour être chargé dans le cache ?

    Déjà le temps d'accès n'est pas le même pour des accès contigus ou aléatoire. En contigu ca va plus vite, parce que tu n'a pas à transmettre la nouvelle adresse que tu veux charger / stocker et que ya surrement du matos de prefetching aussi dans les controleurs de RAM.

    Et alignées comment ? Alignées de sorte à bien tenir dans un registre 32/64 bit ou aligné à plus grosses granulités, par exemple deux grosses chaînes de caractères de 16 Ko ?
    Et qu'est-ce que veut dire contigues ?


    Les données doivent en général être alignées sur la taille du registre dans lesquels elles vont attérir pour que ca aille plus vite, sinon le proc doit utiliser une unitée de décalage binaire pour les remettre ou il faut. Certains jeu d'instruction (principalement sur RISC et le SIMD de nos braves x86) n'acceptent même pas les accès non alignés (sauf des fois avec des instructions spéciales qui rament encore plus).
    Il y a aussi le problème de la disposition en mémoire (faut-il faire un tableau de structures ou une structure de tableaux ?) et de l'associativité du cache (n-voix, full associative ?) mais j'ai pas spécialement le temps de détailler tout ca.

    Prenons un exemple :
    Imaginons qu'à partir de deux images on veuille obtenir une seule qui soit la première plus l'autre en transparence (un calque sous gimp en qq sorte).
    Pour stocker mon image de manière contigu, Je peux les stocker les unes à côté des autres. Mais si elles font plus de 512 Ko, c'est comme si elle n'étaient pas contigûes : elles ne tiennent pas dans le cache (moins d'un Mo à l'heure actuelle).


    Le cache n'est pas obligé de sotcker des données contigues, y a toutes les notions de tailles de lignes et d'associativité qu'il faut connaitre. Pour une zone mémoire données de la taille d'une ligne, il y a plusieurs lignes de cache dans lesquelles tu peux la stocker (ou tu peux eventuellement la mettre n'importe ou si tu a un cache pleinement associatif).

    Je peux aussi décider de les découper "ligne à ligne" et mettre les lignes des 2 images 2 à 2 contigües : 1024 octet de l'une et à côté je stocke 1024 octets de l'autre, "ligne par ligne". Là peut-être que ça passe ?

    Je me met dans un cadre où je ne veux pas toucher aux instructions prefetch des processeurs récent.

    Sur deux gros blocs comme ça soit contigus soit entrelacés je present que le stockage en ram ne va pas changer grand chose. Le prefteching automatique est capable de gerer plusieurs flux d'accès simultannément. Les problèmes d'associativité ne joueront pas si lalgo accède aux mémoires une seule fois puisque seul leffet de prefetching va apporter une acceleration. Si par contre une succession d'algo est appliqué sur plusieurs images, il peut être interressant de découper en morceau le traitement de l'image pour que les données sur lesquels vont s'appliquer tous les traitements successifs restent en cache. Selon les cas et selon l'associativité une reorganisation en mémoire peut parfois etre necessaire mais c'est rare (c'est surtout lorganisation en arborescences des données multidimensionneles qu'il faut optimiser, nottement en SIMD).
  • [^] # Re: Meilleur Intégration ?

    Posté par  . En réponse à la dépêche Les nouvelles de KDE. Évalué à -2.

    Le problème, c'est que quand il y en a justement un de problème tu te retrouve perdu. L'automatisme, OK, très bien, c'est un progrès. Mais il faut à tout prix arreter de cacher les mécanismes de fonctionnement interne et permettre à tous d'apprendre ce qu'il ce passe dans ce cas, via des liens explicatifs ou un bouton permettant de lire les commandes équivalentes.

    Ce n'est pas en cachant tout qu'on éduque les utilisateurs finaux à agir intelligement en face d'un ordinateur, et le modèle windowsien montre clairement ses limites quand il s'agit de faire un chose n'appartenant pas aux 80% de cas standards prévus par le système.
  • [^] # Re: Meilleur Intégration ?

    Posté par  . En réponse à la dépêche Les nouvelles de KDE. Évalué à 2.

    Pas du tout , on peut imaginer ( j'ai bossé dans une config comme ça pendant 2 3 ans ). 2 ou 3 TX qui se connectent sur une machine qui est utilisée elle même par une personne.


    C'est un cas de figure très utile et la puissance des machine aidant on va bientôt pouvoir faire la même chose avec des KDE chez tout le monde.

    Dans mon école on avait une batterie de plusieurs dizaines de terminaux X qui accèdent à un serveur loin d'être démeusuré (avec window maker comme WM)
  • [^] # Re: Meilleur Intégration ?

    Posté par  . En réponse à la dépêche Les nouvelles de KDE. Évalué à 3.

    >>Et si tu fais ls, ça fait quoi ?
    >Une erreur d'entrée sortie.

    Trop intelligent. Quand je suis passé à Linux j'ai tout de suite remarqué que le blocage du CD en cours d'utilisation apportait un réel plus puisqu'on avait alors plus les vilains message d'erreurs de DOS/Windows whatever, les crashages d'appli, sans compter les écrans bleus. Et voilà qu'un distri tentant vainement d'imiter Windows (<-- faut vraiment être desespéré pour faire ça quand meme) s'amuse à copier les pires idées (en oubliant certainement les meilleurs vu que le temps n'est pas extensible).
    J'espère qu'elle propose aussi un bouton dans le bureau pour dire au kernel d'oublier tous les disques durs histoire d'être en cohérence globale avec elle même... :/
  • [^] # Re: arf

    Posté par  . En réponse au journal Le retour de la vengeance d'Arthur Dupré. Évalué à 2.

    Bah le premier site était clairement un fake (ou alors l'oeuvre d'un abruti fini), il la donc retravaillé pour que ca semble plus crédible. Je trouve le résultat assez réussi, on se demande si c'est vrai ou pas :)

    En tout cas si ça l'est ... NC
  • [^] # Re: Brevets ?

    Posté par  . En réponse au journal Quand les sociétés sensées lutter contre la contrefaçon sur le P2P s'accuse mutuellement ... de contrefaçon. Évalué à 2.

    Après une nouvelle lecture attentive de l'article, je me rend compte que en plus de doute sur l'article, j'ai maintenant des doutes sur ce que tu raconte et c'est génant parcequ'il va falloir que je discrimine l'article pour savoir ce qui est douteux de ce qui ne l'est pas pour pouvoir utiliser ce qui est dedans pour contre argumenter à ton post. Conciderons que l'énoncé de la loi elle même n'est pas douteux :

    "Ne sont pas considérés comme des inventions ... notamment :
    c) Les plans, principes et méthodes dans l'exercice d'activités intellectuelles, en matière de jeu ou dans le domaine des activités économiques, ainsi que les programmes d'ordinateurs ; "

    Tu as lu le brevet en question dans ce journal ? Parce là on tombe totalement sous le coup du "principes et méthodes dans l'exercice d'activités intellectuelles dans le domaine des activités économiques, ainsi que les programmes d'ordinateurs". Et l'exception du "Les dispositions du paragraphe 2 n'excluent la brevetabilité des éléments énumérés auxdites dispositions que dans la mesure où ... le brevet européen ne concerne que l'un de ces éléments, considéré en tant que tel."

    Alors je veux bien qu'en considérant cette phrase avec une interprétation (contestable) la plus laaaaaaaaaaaaaaaaaaaaarge possible (comme le fait notre cher avocat en "propriété intellectuelle") on puisse aller aussi bien vers l'algorithme que vers le dispositif intégrant un logiciel, mais là pas d'échappatoire. A moins de considérer l'ordinateur qui sert à utiliser le tout comme un invention, mais bizarrement j'ai de gros doute sur un tel argument devant un juge... (ou devans n'importe qui en fait)

    Donc je persiste et signe, ce brevet est trivialement invalide et l'OEB / l'INPI / whatever fait un boulot de sagouin en ne vérifiant strictement RIEN (a part certainement le respect des procédures administratives et le paiement du droit de monopole)
  • [^] # Re: Brevets ?

    Posté par  . En réponse au journal Quand les sociétés sensées lutter contre la contrefaçon sur le P2P s'accuse mutuellement ... de contrefaçon. Évalué à 4.

    Il y a deux manières d'interpreter autre chose que du logiciel en temps que tel. La premiere est d'élargir et effectivement on arrive à la notion de bidule contenant entre autre du logiciel. La seconde est de restreindre et on arrive aux algorithmes. Il y a un certain concensus comme quoi les algorithmes ne sont pas brevetable dans l'état actuel de la législation. Et la ce monsieur vient nous expliquer (entre autre) que finalement ben si, les algo sont brevetable... Si c'etait le cas on en aurait rien à battre des futurs lois liberticides de brevets logiciels, on serait déjà dans la merde. J'ai donc la légère impression que l'auteur confond tout et son contraire, ce qui est génant.

    D'autre part concernant les logiciels incluent dans des dispositifs, il y a la encore deux possibilités : soit le logiciel est totalement protégé en lui même des l'instant ou il est dans le brevet décrivant un tout plus grand (une manière ultra classique de procéder est de dire tout simplement que le logiciel est dans un ordinateur...) et meme si ca peut sembler aberrant c'est d'hors est déjà la manière de procéder dans d'autres domaines (brevet sur le vivant possible grâce à la description de n'importe quel procédé incluant par exemple un gène : au final les tribunaux décideront que tout autre procédé utilisant le même gène sera illégal. On a donc en pratique les memes effets que si on avait breveté le gène lui même. Peut être que les tribunaux sont totalements cons vis à vis de la loi en décidant ca, j'en sais trop rien, mais quoiqu'il en soit le résultat montre bien les dangers). Soit le logiciel est protégé que lorsqu'il est employé dans le cadre du brevet. En utilisant les armes juridique de contournement qu'il faut les avocats (comme lui) ont dans les fait un pouvoir égal à la première solution et non la seconde. Énoncer une interprétation qui détruirait son pouvoir sur son propre site, peut-il faire ça ? Je ne répond pas necessairement par la négative faute d'élément, mais j'estime que la question mérite vraiment d'être posée.

    Quand au fait qu'il à le même avis que l'OEB, je dis simplement que ca n'est pas vraiment étonnant vu qu'il en sort. A ce titre j'estime qu'il n'a réellement de légitimité au titre de l'estimation du concensus, vu sa non absolue indépendance.
  • [^] # Re: Brevets ?

    Posté par  . En réponse au journal Quand les sociétés sensées lutter contre la contrefaçon sur le P2P s'accuse mutuellement ... de contrefaçon. Évalué à 2.

    Et c'est bien le problème : le texte est flou. Si c'était aussi simple que quasiment tout le monde le croit dans la communauté (c'est à dire que le logiciel est interdit) ça ne poserait quasiment aucun problème chez nous.

    Ma compréhension est aussi que le texte est absolument flou, sur ce point on est d'accord. Par contre ce que raconte le bonhomme c'est son interpretation a lui, (cf les threads qu'on trouve sur google en cherchant son nom) or il la présente comme la vérité absolue et c'est en plus parrallèlement la position de l'OEB dont il faisait parti. Étonnant non ?
  • [^] # Re: 120 euros sans 3D ?

    Posté par  . En réponse à la dépêche Projet Open Graphic : les premières cartes de test avant la fin de l'année !. Évalué à 2.

    Euh la carte a base de FPGA coutera en gros 550 euros.... ce qui est vraiment pas cher en fait vu que le plus proche compétiteur est 2x plus cher.
    La carte a 120 euros est une simple ASIC, marché premièrement visé == l'embarqué ou elle pourrait fort bien convenir (mais avec evidemment des versions PCI pour les libristes).