marzoul a écrit 47 commentaires

  • [^] # Re: Maximisation du bonheur global

    Posté par  . En réponse au journal De la démocratie et des systèmes de vote. Évalué à 1.

    Il ne fallait pas voir une quelconque pub politique dans mon message. C'est une illustration pour une technique de vote alternative.

    Autre exemple très courant qui fait beaucoup parler à chaque élection : la fragmentation des partis politiques. on dit la droite est segmentée ça va favoriser la gauche, et vice-versa selon les années.
    Ça, c'est l'exemple le plus flagrant des effets de bord indésirables du système premier tour / deuxième tour (pour les partis en question, hein, pas pour les partisans des partis non fragmentés…).

    En pouvant indiquer une préférence pour toutes les options 2 à 2, on peut dire que globalement on préfère le courant politique A au courant B, même si chacun est complètement fragmenté.

  • # Maximisation du bonheur global

    Posté par  . En réponse au journal De la démocratie et des systèmes de vote. Évalué à 2.

    Le problème du second tour qui mène à des représentants qui représentent mal a été étudié à propos d'un précédente présidentielle. En un seul tour, si on pouvait indiquer qui on préfère pour tous les candidats pris 2 à 2, Bayrou aurait maximisé le bonheur général, ou au moins minimisé la déception globale :

    http://images.math.cnrs.fr/Et-le-vainqueur-du-second-tour-est.html

    Remarquez que, tel quel, ça deviendrait lourd avec plus que 4-5 options. Mais on peut résoudre ce problème facilement en permettant de marquer certaines options comme non désirées tout court. Et le vote traditionnel, avec une seule option dans l'enveloppe, est toujours disponible car il suffit de ne conserver qu'une seule option.

    Cette amélioration du système de vote apporterait beaucoup à ce que les représentants élus nous représentent réellement. Le seul frein actuel est la réticence à l'utilisation de l'informatique dans le vote…

  • # C'est bien d'avoir écrit tout ça !

    Posté par  . En réponse au journal Comment mon expérience Linux est en train de tourner au fiasco. Évalué à 6.

    Moi je dis merci d'avoir passé tout ce temps à décrire de façon détaillée les points importants de ce qui a évolué.

    Je suis d'accord sur le fait que, si des changements structurels majeurs doivent être faits à un logiciel, alors on devrait le faire dans un fork de ce logiciel. À la manière du bureau Mate, quand suffisamment de gens motivés n'ont pas apprécié les changements majeurs et la "simplification" démesurée de Gnome.

    Il est étrange de rencontrer autant de plantages majeurs, par contre. Je suis sur ArchLinux depuis bien des années, je ne suis pas incommodé par Systemd ni par PulseAudio. Même si c'est une rolling distrib, pas de souci, donc tes soucis viennent êut-être de la distro. Mais il est vrai que je ne suis pas un fervent utilisateur de Wine.

    Le gestionnaire de packages, pacman, couplé avec le gros repo de packages user AUR, est formidable. Pour la légèreté du bureau, j'utilise Enlightenment. Explorateur de fichiers : pcmanfm. Éditeur de texte et de code pour tous les jours : geany. Pas de fond d'écran, inutile puisque puisque j'ai toujours des tas de fenêtres ouvertes dans tous les bureaux, et par conséquent pas besoin d'icônes sur le bureau :-)
    Et 180 Mo de RAM utilisée au démarrage.

  • # Suite fondeur : si, ça marche

    Posté par  . En réponse au journal Enfin une chaîne de développement complètement open source pour un FPGA. Évalué à 10.

    outils horribles des fondeurs (archive de plus de 10Go buggés qui s'intègrent mal aux distributions Linux et je ne parle même pas de l'éventualité de les porter sur d'autres plate-forme que x86)

    C'est quand même vachement partial. Exemple chez Xilinx : depuis au moins 6 ans, ça marche impeccable sur GNU/Linux, parfaitement intégré, autant en 32 qu'en 64 bits.
    Les 10 Go et plus ne viennent pas (forcément) d'une volonté gratuite de flooder les disques du monde, il suffit de regarder la masse de références de FPGA supportées par la suite de dev, chacune livrée avec les biliothèques calibrées pour générer des choses optimisées pour la clible en question.
    Pour les bugs, quand il y en a (quand ils sont remontés) ils sont corrigés dans la version suivante. L'apparition de nouveaux bugs n'est pas une caractéristique du monde non-libre…

    Ce qui est embêtant est surtout que la suite de placement-routage est payante pour tous les FPGA de taille à peu près supérieure à zéro (chez la majorité des fondeurs, je crois). Pour ce qui est de la synthèse logique ou d'un front-end HLS, il y a des outils libres assez génériques, mais le placement-routage est bloquant.

    Sinon, la nouvelle est de très bon augure ! Ce qui serait bien serait d'arriver à un outil de palcement-routage aussi générique que possible, pour faciliter le portage pour les FPGA d'autres fondeurs.

  • [^] # Re: La pire nouvelle pour l'internet depuis longtemps

    Posté par  . En réponse au journal HTTP poussé vers la sortie ?. Évalué à 4.

    Le ralentissement vient effectivement des opérations de chiffrement et déchiffrement, mais pas que.
    Négocier une connexion sécurisée demande plusieurs échanges, invisibles pour l'internaute, avant même de parler du contenu de la page demandée. Ça coûte de la bande passante et surtout de la latence, augmente le nombre paquets à router, fait chauffer les routeurs.

    Quand charger une page prend 10s parce que google-analytics ne répond pas ou que la page charge 20 régies de pub par-dessous le tapis, je ne voudrais pas voir ce que ça donnerait en chiffré.

    Je n'ai rien contre le chiffrement en lui-même, d'ailleurs j'y tiens pour certains sites. Cependant le chiffrement généralisé est une méthode inappropriée au vu des problèmes qu'elle prétend résoudre. Il est encore plus dangereux de faire croire aux gens que chiffrement = sécurité (en tous cas avec les méthodes de chiffrement actuelles et les gouvernements qui vont avec).

  • # La pire nouvelle pour l'internet depuis longtemps

    Posté par  . En réponse au journal HTTP poussé vers la sortie ?. Évalué à 4.

    Moi touriste sur le web, je REFUSE d'être obligé de rouler avec une voiture qui décrète CONTRE MON GRÉ que je n'ai pas envie d'aller sur cette route avec la fenêtre ouverte.
    C'est aussi ubuesque que de dire : il est interdit de construire des maisons sans mur de 15m de haut autour du jardin, parce qu'un voisin risquerait de regarder par mégarde.

    Le chiffrement ralentit internet et augmente sa consommation en énergie. Et ça va couper l'envie à 99% des gens de faire la moindre page web perso. Et je REFUSE de rentrer dans ce jeu-là.

    C'est aux sites internet eux-mêmes de proposer gentiment de passer sur la version sécurisée s'il y en a une. Ou au navigateur, s'il voit que le site a déclaré une version sécurisée.

    J'espère fortement que Mozilla annonce ça juste pour l'effet choc que ça produit, et qu'ils n'ont en aucun cas l'intention de mettre cette menace à exécution.

  • # Je plussoie

    Posté par  . En réponse à la dépêche Livre papier, livre numérique, TVA et DRM. Évalué à 4.

    Si je comprends bien, l'Espagne et la France doivent appliquer la TVA normale jusqu'à ce qu'on arrive à faire changer d'avis Commission européenne ? -_-
    En tous cas je soutiens cette proposition. Elle est parfaitement juste et équilibrée.

  • # Peu argumenté

    Posté par  . En réponse au journal Tagger efficacement son Ogg-thèque. Évalué à 5.

    La partie argumentation, du pourquoi les logiciels de tag existants ne conviennent pas, est plutôt faiblarde. Vu que je suis pleinement satisfait d'Easytag par exemple, et que je trouve qu'il répond bien aux points mentionnés, je n'ai pas compris ce qui est reproché aux logiciels existants.
    Quelques explications précises et des exemples seraient bienvenus.

  • # Nom des marqueurs

    Posté par  . En réponse à la dépêche Sortie d’Inkscape 0.91. Évalué à 7.

    Le formulaire de sélection des marqueurs a été amélioré afin de prendre moins de place.

    Mais il n'y a plus les noms des marqueurs ! Avant on pouvait facilement harmoniser les marqueurs utilisés dans un document en sélectionnant systématiquement par exemple le marqueur nommé "Arrow2MEnd".
    Maintenant, la seule solution que j'ai trouvée c'est de passer par l'éditeur XML… il y a un autre moyen ?

  • [^] # Re: Et System C?

    Posté par  . En réponse au journal Le VHDL prend-il l'eau ?. Évalué à 3.

    Quid de System C? C'est toujours pas synthétisable?

    Si, mais à ma connaissance seuls Catapult et les logiciels de Synopsys savent manger ça en entrée pour la synthèse. Je ne sais pas si j'ai assez de doigts pour compter le prix.

    De mon point de vue, en tant que développeur d'un logiciel de HLS (AUGH), ce n'est qu'une histoire de front-end du logiciel. J'ai un front-end pour le langage C, mais on peut en faire un tout pareil pour le C++, donc le SystemC. Ce n'est qu'une affaire de conversion vers les structures de données du logiciel de HLS. Faut juste que quelqu'un s'y mette un jour, un bon coup de Clang… (on y mettrait bien un stagiaire si on en avait un bon motivé, éternel problème ;-))

  • [^] # Re: Logiciels de HLS

    Posté par  . En réponse au journal Le VHDL prend-il l'eau ?. Évalué à 1.

    Hum… déjà que ce n'est pas toujours évident d'estimer la complexité de ce qui va être généré par un synthétiseur à partir d'un HDL (VHDL, Vérilog, etc.), avec ça, on risque d'aller au carnage. Surtout qu'avec l'apparence de langages classiques qui camouflera quasi-totalement ce qu'on génère, on risque d'y coller des purs softeux qui n'ont aucune idée de la nature et des contraintes sous-jacentes : autant dire qu'on n'a pas le cul sorti des ronces.

    C'est pas faux, mais juste en théorie.
    À mon avis, en pratique, la nature des FPGA fait qu'ils resteront des accélérateurs matériels. Là, vu leur prix, le choix sera vite vu : un pur softeux qui n'arrive pas à accélérer l'appli sera vite remplacé.

    Même avec des logiciels de HLS, la suite de synthèse indique toujours le temps d'exécution, la surface, parfois la puissance, et bien sûr la routabilité. Un truc codé avec les pieds a toujours tout ça de chances d'être retoqué dès les premières lignes de code.

    Le seul truc qui m'embête c'est la diversité des langages d'entrée utilisés en HLS. C'est souvent un logiciel = un langage (sur-ensenble de sous-ensemble du C, du C++, du python, de Matlab, des trucs complètement ad-hoc…). Avec juste VHDL et Verilog, on était vernis. Mais là, ça va faire mal. Autant que sur CPU, toutes les libs de tout existent en C, C++, python, java, vala et j'en passe.

  • [^] # Re: Logiciels de HLS

    Posté par  . En réponse au journal Le VHDL prend-il l'eau ?. Évalué à 4.

    Autant que je me souvienne, le Verilog est surtout répandu aux US et le VHDL c'est surtout en Europe, et sans précision pour le reste du monde.
    Question de masse de travail les développeurs isolés choisissent de ne gérer qu'un langage, et ils prennent celui qu'ils ont vu à l'école. Je ne pense pas que ce soit approprié, globalement, de dire que Verilog ou VHDL est mieux juste au nombre de projets "ralliés" à un "camp".

  • # Logiciels de HLS

    Posté par  . En réponse au journal Le VHDL prend-il l'eau ?. Évalué à 6.

    Bonsoir,

    VHDL et Verilog seront toujours utilisés pour les interfaces/IP très optimisées. Pour le reste les techniques de HLS sont en train de les remplacer.

    Il est possible aujourd'hui (et mature avec des outils proprio) de generer son code vhdl ou verilog a partir de C.

    Savez vous s'il existe il des outils libres permettant de faire ca ?

    Il en existe. Certains ont une spécialisation dans des domaines précis, mais je ne les connais pas assez intimement pour en faire la pub (sauf AUGH).

    AUGH http://tima.imag.fr/sls/research-projects/augh/
    LegUp http://legup.eecg.utoronto.ca/
    GAUT http://hls-labsticc.univ-ubs.fr/
    ngDesign https://www.synflow.com/
    ORCC http://orcc.sourceforge.net/
    ROCCC http://www.jacquardcomputing.com/

    Moi je développe le logiciel AUGH :-) Je le fais aussi générique que possible.

    D'un autre cotés Altera a mis au point un traducteur OpenCL vers FPGA pour ces FPGA haut de gamme. Cela abaissera certainement la barrière pour les développeurs.

    Oui et non, leur outil n'est ni libre ni gratuit (1k€) et OpenCL impose des contraintes fortes sur les carte FPGA utilisées. Et c'est bloqué sur les technos Altera évidemment…
    Xilinx aussi s'y met. Vivado HLS est très bon, mais comptez 2k€.

  • # Souci d'autonomie

    Posté par  . En réponse à la dépêche Une calculatrice scientifique libre sous Linux (materiel). Évalué à 6.

    Cette "calculatrice" est un ordinateur. Elle va faire tourner des gros logiciels. Un truc qui me pète à la figure : l'autonomie risque d'en pâtir monstrueusement, non ?

    Ou alors il va falloir le recharger régulièrement. Mais on perd de toutes façons le super confort de mettre des piles dedans une fois par an et de les oublier le reste de l'année (sauf pour les utilisateurs de ti-89 à ce qu'il paraît).

    Ils ne donnent pas d'indication d'autonomie, c'est dommage. Sinon le projet est vraiment bien.

  • # Pas mérité

    Posté par  . En réponse au journal Lennart Poettering trouve la communauté Linux désagréable. Évalué à 10.

    Le problème n'est pas de savoir si telle invective ou si telle menace est vaguement sérieuse ou pas.

    Ce qui fait très mal et qui peut vous toucher jusqu'à la moelle c'est qu'où que vous soyez/alliez (boîte mail, irc, …), c'est dans une ambiance dégueulasse où on se complaît de vous pourrir. Sans compter les initiatives indépendantes qu'il relate (bt, videos, etc). Ce qui fait mal c'est de voir toute l'intention que ces gens ont de vous faire mal.

    Le tout est visiblement sur le seul fait qu'il a développé un logiciel. Il a choisi de le faire open-source et gratuit (pour son malheur, ironie). Il a cherché à nuire ? Imposé son soft par des moyens répréhensibles (même seulement moralement) ? Avait-il des objectifs cachés (style backdoor) ? Non.

    Ce n'est même pas de sa faute si son soft est utilisé. Le fait qu'il le soit a uniquement changé les habitudes de certaines personnes. Ces personnes devraient normalement se plaindre auprès de leur distrib, puisque c'est elle qui les "trahit". "Trahit" ? Il n'était écrit nulle part que l'écosystème logiciel était voué à stagner. Bref vu qu'ils n'ont pas été écoutés ils se passent les nerfs, purement et simplement, sur la personne (c'est plus pratique quand la cible est seule hein) dont la naissance à leurs yeux est à l'origine leur inconfort.

    C'est putride comme attitude.

  • # Et la lisibilité avec GIT ?

    Posté par  . En réponse au journal Comment vivre sans TODO list?. Évalué à 3.

    Ce journal m'intéresse ! Personne n'a abordé un aspect que je trouve indispensable : la compatibilité avec les gestionnaires de version.

    • le fichier data de la todo list doit être en texte
    • syntaxe claire pour pouvoir lire les changements ou éditer sans le client lourd
    • les changements effectués doivent être sauvegardés de façon propre : les lignes de texte restent au même endroit, etc
    • chaque tâche doit pouvoir avoir un identifiant précis, et court, pour marquer les commits avec l'identifiant de la tâche/fonctionnalité/bug auquel ils se rapportent. Comme tout est commis dans le même repo, ça serait super pour tout garder cohérent.

    Est-ce qu'un des softs mentionnés dans ce journal correspondrait ?

    PS : pour la magma zone, il suffit de faire une catégorie "magma", non ?

  • [^] # Re: Et les nouveaux langages de programmation...

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 3.

    La puissance des machines c'est fait pour être exploité, sinon autant revenir au 8086.

    Hum, pas d'accord, ne serait-ce que pour l'éducation des gens. On a des grands océans, est-ce qu'on serait donc supposer les utiliser comme poubelle juste parce que dans les îles pour touristes fortunés ça ne sa voit pas ?
    Ne serait-ce que pour le côté green et consommation en énergie raisonnable vu ce qu'on fait, ça fait mal de devoir changer de matos pour lire une page web et éditer un document (le matos neuf a coûté en énergie et matériaux à la fabrication, + ce qu'il va falloir pour recycler l'ancien…).

    Certains projets veulent plus d'efficience en étant plus rustique, c'est un choix et une alternative pour ceux qui ne bénéficient pas de la puissance.

    Oui, mais le problème devient visible quand on ne trouve plus, ou difficilement, de logiciel qui ait les fonctionnalités (la technique !) qu'on veut, mais sans les glouglouteries visuelles, les grosse fonctionnalités qui devraient être en option, et qui soit codé propre.

    Tu parles des appareil dont tu as souvent peu de contrôle avec une palanquée d'applications préinstallées qui te seront inutiles et dont celles tu voudras ont une bannière publicitaire ?
    Mouais, le téléphone portable est loin d'être un modèle d'efficience. Et avec la vitesse d'évolution que ça a connu comme secteur c'est pire que le PC en terme de course en avant.

    Je veux dire, les plateformes mobiles en général. Tablettes comprises. Ou dérivés : la board Odroid U2, c'est 4.5W 4coeurs arm 2Go ram, le chip est un Exynos4 donc ce qu'on trouve dans pas mal de smartphones. Comme PC léger et discret c'est vraiment super.

  • # Et les nouveaux langages de programmation...

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 10.

    Oui on n'est pas trolldi, mais y'en a sur qui c'est toujours aussi facile de taper :P

    Plein de composants des OS, environnements de bureau et applis sont recodés dans des langages en vogue (javaseries…), interprétés (python, javascript/css… oui il y a des jit mais tiens, ne serait-ce pas justement une dépendance bien bien grasse en plus?), ou en se jetant à l'excès sur les fonctionnalités les plus "dynamiques" (enfin mettez votre buzzword favori) des langages de programmation et de leurs dernières moutures (exemples C++: templates, méthodes virtuelles, opérateur .* et j'en passe).

    Le manque d'espérience joue. Au Google Summer Of Code, plein de stagiaires bossent sur des choses vouées à être utilisées par le grand monde.

    L'utilisation à outrance de machines surpuissantes joue. Un développeur qui teste une appli sur sa machine ne verra même pas les régressions sur la vitesse de l'appli.

    Ce qui joue aussi, c'est que beaucoup (trop) de développeurs sont en mode "il faut être ultra réactif pour rester in". Dès qu'un gusse dit que c'est bien d'utiliser CSS pour faire un thème de bureau, bim toute la planète shifte et flanque un moteur web (oh un buzzword) dans le login manager. Ça pousse à l'utilisation de buzz-langages aux performances à redire.

    Mais on a encore une chance que certaines choses reviennent au moins en partie dans l'ordre : le mobile. Peu de RAM et de cache, CPU moins puissant, et on vise une autonomie maximale, c'est heureusement un bon argument de vente. La bataille des benchmarks fait rage, certains trichent même. Alors, pour android, on commence à proposer la compilation à l'installation des applis, au lieu de jit par dalvik. Pour plein d'applis on fait une version pour PC, il faut bien en faire une pour mobile, et on va bien finir par se rendre compte que coder proprement dans des vrais langages compilés ça marche très bien partout (ben tiens si c'est pas ce qu'on a toujours fait du temps des pentium III…).

  • # Nouvelles versions de logiciels, toujours + lourds

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 2. Dernière modification le 01 juillet 2014 à 23:53.

    Il fut un temps où mon pentium III 450MHz avec ses 512ko de cache, et 768Mo de sdram, ça tournait du feu de dieu. clic sur l'icône firefox, lancé en une seconde. Les versions d'avant la 3.5…
    Maintenant, Core2 Duo 1.8GHz 2Mo de cache et de la mémoire hachement plus rapide, firefox met plusieus secondes.
    Ça part bien entendu d'un bon sentiment de rejouter de fonctionnalités de tueur, du truc d'introspection partout en cliquodrome et de tonnes de choses pour développeurs, mais quel est le pourcentage de gens concernés ? Kédal. Certaines choses devraient être séparées et optionnelles.

    Je remarque aussi que plus le temps passe, plus certaines libs sont forkées (ffmpeg/libav…), plus il existe de libs pour faire des choses de même finalité telle que vue par le quidam (json-c/jansson/glib-json, clang-llvm/gcc…), plus on doit faire cohabiter plusieurs versions d'une même lib parce que tout n'est pas mis à jour (gtk2/gtk3, les versions de python…), et ça participe au fait que l'installe système grossit très vite quand on installe des applis. Les développeurs choisissent selon leurs propres affinités/spiritualités de quelle lib et version leur logiciel va dépendre. Une fois qu'on lance tout ça, ça pollue la ram et le cache.

    Un pote a aussi installé KDE sur sa machine de tueur. Config par défaut, je ne sais plus quelle distrib, le process KDE sirote ses 800Mo de ram (réelle!) à lui tout seul. C'est franchement déplacé comme comportement, je pense que c'est la faute aux packageurs… mais bon que dire contre l'argument "ça ne se voit même pas sur les machines un tant soit peu récentes et c'est ce que veut la majorité des gens, du flashy, du wobbly, des glouglouteries en travers de tout l'espace visuel" ?
    => Là ma solution c'est d'utiliser Enlightenment (ou Gnome shell pour le portable où je dois pouvoir connecter des vidéoproj à chaud), les config ArchLinux par défaut d'Enlightenment et Gnome Shell sont raisonnables.

    À ma connaissance, les défauts de matériel, c'est ça passe ou ça casse. Le seul que je propose qui soit de nature à ralentir le système, c'est un défaut de pâte thermique ou une ouverture de ventilo bouchée par des poils de chat, pour un CPU qui est capable de faire du "throttle" en situation de surchauffe. Ceux qui ne font pas de throttle plantent tout simplement…

  • # Le pourquoi du comment

    Posté par  . En réponse au journal [+]. Évalué à 10.

    Les auteurs de ce genre d'étude éludent trop souvent l'identification de cause et des conséquences. Et ils les inversent.

    Le moinssé a une tendance naturelle à poster beaucoup de moinssures (s/n/si/ aussi) parce que le kikoolol il poste donc il est. Moinssage ou plussage, osef. Voire, plus c'est moinssé, plus y'a eu de l'audience. Et tfaçons les moinsseurs c'est les c**s qui n'ont rien compris au lolptdr du postage de moinssures, c'est même pas des gens, donc osef.

    Le plussé, il a une tendance naturelle à faire avancer le schmilblik, et sa modestie l'empêche d'inonder le monde avec sa Parole, si c'est fait par les autres c'est bien meilleur pour le karma.

    Mais c'est sûr que si on part sur ce principe-là y'a moins de choses à "étudier", donc moins de postage, ce qui démontre que l'étude est moinssable. En conclusion, il faut un net à deux vitesses, l'une pour les naturellement moinssables, et l'autre pour les naturellement plussables, comme ça y'aura plus ce genre d'étude à faire, et voilà.

  • # Obligation d'avoir acheté plusieurs fois pour un même foyer...

    Posté par  . En réponse à la dépêche La redevance pour copie privée : qui paie quoi ?. Évalué à 10.

    Bonjour, voilà mes 2 centimes.

    Moi dans la notion de copie privée j'y vois une gigantesque montagne de mauvaise foi de la part de ceux qui se disent lésés.

    Réparer un "manque à gagner" signifie tout de même que pour un même foyer, on considère que les gens sont censés acheter plusieurs fois la même chose s'il y a une petite différence dans la manière dont ils aiment l'utiliser.
    Mais on ne couvre qu'une seul situation, celle où on veut utiliser un autre support. Cas classique : j'achète un CD, mais j'écoute de la musique depuis ma playlist sur mon pc. Alors je copie le CD, et plus jamais après je ne le touche.

    Je ne suis pas en train de prêter le CD à mon voisin ou quoi, juste en train de lire ce que j'ai acheté. Moi tout seul. Le manque à gagner, c'est une pure invention de mauvaise foi que les fabricants de supports et ayants droit on réussi à faire passer aux législateurs à coups de lobbying. Z'ont même réussi à faire passer qu'on est tous coupables par défaut, vu que c'est sur tous supports, y compris pro (quelle est le proportion de supports pro que les employés peuvent emporter chez eux d'ailleurs ? kédal).

    On va bientôt avoir de la copie privée parce que j'ai 2 lecteurs CD dans ma maison et que changer de pièce c'est illégal. Comble de la filouterie, ces immondes citoyens ont aussi un autoradio CD ! C'est une faille du système ! Tatatatatataxxx !

    Il faut vraiment faire abroger toute ces co****ies rapidement avant que ça soit trop considéré comme légitime, y'a du lavage de cerveau de citoyen en cours.

  • # Farpaitement !

    Posté par  . En réponse au journal Dons, réductions d'impôts et brevets. Évalué à 3. Dernière modification le 27 novembre 2013 à 19:40.

    Le brevet interdit la libre utilisation de ce qu'il décrit. Je pense également que le brevet n'a pas sa place dans le contexte décrit.

    À la place, des publications (scientifiques ou non, dans des journaux spécialisés, conférences etc) peuvent être effectuées. Le public est beaucoup plus large.

    Le simple fait de choisir la voie de la publication plutôt que le brevet est nettement plus approprié quand on est supposé faire voeu d'ouverture, de philanthropisme, de non-lucrativité et de tout le tintouin. La voie du brevet est exactement le contraire.

    En conséquence, il serait absolument normal et raisonnable d'interdire la voie du brevet lors du recours aux réductions d'impôt, et je suis tout-à-fait d'accord avec l'auteur de ce journal.