NilugeKiWi a écrit 107 commentaires

  • [^] # Re: Ben voyons

    Posté par  . En réponse à la dépêche FLIF, un format d’image sans perte, intelligent et « performant », sous licence GPL. Évalué à 4.

    La comparaison lossy FLIF vs JPEG de la page citée montre que pour de très forts taux de compression FLIF est mieux (mais ça reste très moche) (1er exemple).
    Pour des taux de compression où JPEG est acceptable (dernier exemple), FLIF est nettement moins beau que JPEG…

    Après le mode progressif peut-être fort utile: pas besoin d'avoir 40 versions du même fichier.

  • [^] # Re: Manque un truc

    Posté par  . En réponse à la dépêche Atom 1.0.x : l'autre éditeur de code. Évalué à 2.

    CEDET n'a pas d'intégration d'outils modernes comme CMake, et est bien trop lent pour de gros projets (>10Mloc)…

    Un analyseur de code prometteur utilisable dans emacs: RTags, basé sur clang, on y gagne en robustesse d'analyse, architecture client/server qui permet d'utiliser plusieurs cœurs sans impacter emacs. Il avait des soucis de consommation mémoire il y a plusieurs années, ça a l'air d'avoir été corrigé depuis.

  • [^] # Re: Omnibus c'est hasbeen !

    Posté par  . En réponse au journal Gitlab: paquets Debian, intégration continue. Évalué à 1.

    Gitlab a des "system hooks" pour tout ce qui n'est pas directement lié à des évènements git: http://doc.gitlab.com/ce/system_hooks/system_hooks.html; y compris pour la création d'utilisateurs.

  • [^] # Re: systemd-analyze

    Posté par  . En réponse au journal Kubuntu 15.04 et Systemd : bof. Évalué à 5.

    Voire démarrer PostgreSQL à la demande, à la première connexion au serveur par un client, ce que permet systemd.

  • [^] # Re: Sympa, mais pas entièrement nouveau

    Posté par  . En réponse au journal Le Code Civil sur Github. Évalué à 5.

    C'est un bon début! git blame sur la loi c'est franchement mieux que Legi-France.

    Mais ce qu'il manque à tout ça ce sont les meta données associés aux commits:
    Qui est l'auteur réel du patch?
    Qui en est le commiteur?
    Qui a approuvé le commit? (des sign-off de chaque sénateur/député qui a voté pour ? il faudrait aussi les votes contres et blancs/absents cela dit…)
    Quelles sont les discussions associés au patch?
    Idéalement il faudrait aussi l'historique des amendements, sous forme de branche, et l'acceptation de l'amendement serait un merge.

    Évidemment tout n'est pas public, mais plus on rajoute d'information, mieux ce sera.

    Je pense qu'on peut stocker la plupart des informations dans git (à part les discussions complètes en séance, ou hors séance qui ne sont pas forcément publiques); le seul soucis c'est l'ajout rétro-actif de meta-données: git n'est pas fait pour ça et il faut refaire un nouveau dépôt git à chaque fois.
    Ou alors il faudrait un dépôt git données + un dépôt git meta données…

    Avec ce genre d'outils on comprendrait bien mieux la création et la maintenance de nos textes de loi.

    Vivement une meilleur traçabilité de la loi!

    Cela dit la fabrique de loi propose une interface vraiment intéressante aussi.

  • # "I don't care about cookies" browser extension

    Posté par  . En réponse au journal Marre des popups qui obligent à accepter les cookies. Évalué à 4.

    Quelqu'un a-t-il testé cette extension: I don't care about cookies ?

    Est-ce que ça ne serait pas mieux en étant intégré à adblock plus? (En tant que liste spécifique "anti avertissements sur les cookies qui ne sert à rien parce que mal implémenté" ?)

  • [^] # Re: malwares : remote lookup

    Posté par  . En réponse à la dépêche Firefox sur son 31. Évalué à 1.

    L'objectif de ces algos c'est de minimiser les faux positifs. Hors là il nous faut un minimum de faux positifs, sinon en face ils peuvent effectivement deviner quelle url est visitée.

  • [^] # Re: malwares : remote lookup

    Posté par  . En réponse à la dépêche Firefox sur son 31. Évalué à 1.

    Imaginons alors que la NSA Google veuille connaître la liste des visiteurs de wikileaks.org (au hasard). Il rajoute dans ses listes de préfixes celui de wikileaks.org, mais ne mets pas dans ses listes complètes le hash complet de l'url de wikileaks.org (il peut en mettre un autre qui ne correspond à rien de connu). Comme ça, on peut trouver les visiteurs de wikileaks en listant ceux qui ont requêté la liste de hashes complète concernant le préfixe de wikileaks.org, et les visiteurs ne s'en rendront pas compte…

    Correction: "Comme ça on peut trouver les visiteurs des sites qui ont un hash dont le préfixe est le même que pour wikileaks."

    Cette attaque sort potentiellement plein de faux positifs, n'envoyer que le préfixe à Google sert justement à se protéger contre cette attaque.
    Il faudrait cependant vérifier si la taille du préfixe est suffisamment petite pour avoir des collisions assez souvent; ce qui au passage entre directement en conflit avec l'optimisation de pas demander la liste complète trop souvent (le pire cas étant: demander tout le temps, ce qui correspond au cas taille de préfixe == 0).

  • [^] # Re: Super

    Posté par  . En réponse à la dépêche Sortie de PhotoShow 3.0. Évalué à 2.

    Autant exposer une api batch et utiliser bash que pour faire des wget, non? implémenter 2 fois la logique de création des miniatures n'est probablement pas idéal.

  • [^] # Re: Étiquettes

    Posté par  . En réponse à la dépêche Sortie de PhotoShow 3.0. Évalué à 3.

    La recherche par tag est un simple ls dans /tags//. C'est l'avantage du lien dans les 2 sens: de photo à tags et de tag à photos.

  • [^] # Re: NX

    Posté par  . En réponse au journal Wayland & Weston 1.5.0 sont publiés. Évalué à 2.

    Tunnel ssh + l'extension foxy proxy firefox en proxy socks sur les tunnels.

    Et si la configuration et le maintien des tunnels ssh à la main est fastidieux, il y a gnome SSH Tunnel Manager (gstm): http://sourceforge.net/projects/gstm/

    Testé et approuvé.

  • # Typos

    Posté par  . En réponse à la dépêche Sortie de Linux 3.14. Évalué à 3.

    Typo: AMD CPP -> AMD CCP

  • [^] # Re: Redistribution

    Posté par  . En réponse à la dépêche Les codes sources de Microsoft Word 1.1a et DOS 1.1 et 2.0 publiés. Évalué à 1. Dernière modification le 03/04/14 à 13:50.

    Probablement pas: un patch c'est probablement une œuvre dérivée, et donc couvert par les droits d'auteurs, et donc par la licence.

  • [^] # Re: Intérêt du JSON

    Posté par  . En réponse à la dépêche Publication de UA (Universal Aggregator). Évalué à 1.

    Il faudrait peut-être alors normaliser ce JSON, et/ou regarder ce qui existe déjà, comme (au hasard) JSON Activity Streams.

  • [^] # Re: Temps-réel?

    Posté par  . En réponse à la dépêche Publication de UA (Universal Aggregator). Évalué à 1.

    Donc pour la première question oui c’est possible, pour la seconde question (prévu à court terme) très certainement que non, vu qu’à ma connaissance les seuls services proposant pubsubhubhub sont des agrégateurs qui font eux-même du polling, ce qui limite fortement l’intérêt de la chose :)

    L'intérêt de PubSubHubhub (PuSH) c'est que c'est chainable: même si la source originelle n'est pas compatible, le next hop dans la chaine peut faire du polling une fois pour toutes: les autres acteurs pourront ensuite utiliser PuSH sur ce next hop, ou sur un suivant, et ne pas spammer à nouveau la source originelle à coup de polling. UA ressemble bien à un agrégateur, du coup je pense que c'est bien utile qu'il gère PuSH.

    Donc ça a l'air faisable, grâce aux pipes ou sockets qui peuvent marcher en mode stream. Parfait.

  • [^] # Re: Et vers rss?

    Posté par  . En réponse à la dépêche Publication de UA (Universal Aggregator). Évalué à 1.

    L'intérêt comme dit plus haut c'est 1/ de pouvoir générer des flux rss pour des sources qui n'en ont pas, et 2/ pouvoir enrichir, ou filtrer des items d'un flux rss, et 3/ avoir des flux rss en sortie, pour pouvoir brancher n'importe quel client rss, que je préfère pour l'instant encore à une sortie mail.

    L'output actuel c'est un maildir, avec un sous répertoire par input, par exemple. Je souhaitais en savoir plus sur comment les items d'inputs sont dispatchés dans tel ou tel répertoire du maildir, afin de savoir s'il était facile de faire pareil pour générer des sorties rss.

    Mon objectif global est de savoir si je peux remplacer mes scripts perso en python qui font de la création et modification de flux rss par UA, histoire de factoriser les efforts.

  • # Temps-réel?

    Posté par  . En réponse à la dépêche Publication de UA (Universal Aggregator). Évalué à 1.

    Les flux RSS/atom ont la possibilité de pusher en temps-réel les nouvelles entrées PubSubHubHub; assez souvent on perd ce genre de fonctionnalités dans tous les outils du genre qui essayent d'abstraire les flux RSS en une notion plus vague et générique.

    Tous les exemples montrent du polling bête et méchant sur les inputs. Une évolution future gérant des inputs en temps réel est-elle prévue? Ou bien est-ce que c'est fondamentalement incompatible avec les choix architecturaux de UA?

    De même une fois qu'on a des inputs en temps réel, on voudrait les outputs aussi (et dans le cas d'un output RSS, réimplémenter un serveur PubSubHubHub) (pour les output mails ce serait certainement plutôt au serveur imap de surveiller le FS je suppose).

  • # Et vers rss?

    Posté par  . En réponse à la dépêche Publication de UA (Universal Aggregator). Évalué à 1.

    Je suppose qu'il est ensuite relativement facile de créer un 2em "consommateur" qui génère des rss normalisés?
    Est-ce facile d'écrire une telle chose avec un flux rss par input? ou tag/catégorie que des inputs ou filtres pourraient créer?

    (Ce mécanisme de tag est présent dans logstash, qui est un aggrégateur de logs (il fonctionne de façon étrangement similaire à UA: des inputs, des filtres, des outputs; d'ailleurs UA pourrait certainement être réécrit en en logstash).

  • [^] # Re: Bonne idée

    Posté par  . En réponse au journal Tout le monde a bien activé TLS sur ses serveurs SMTP ?. Évalué à 10.

    Et donc un attaquant actif peut changer la page de login qui est en http, et rediriger la requête qui contient les identifiants vers un serveur à lui.
    https n'est pas seulement utile pour les requêtes contenant des données sensibles, mais toutes celles avant aussi…

  • [^] # Re: Fedora LTS

    Posté par  . En réponse à la dépêche CentOS et Red Hat unissent leurs forces pour une plateforme communautaire stable. Évalué à 1.

    On est apparemment encore loin d'une solution raisonnable pour les Software Collections.

    Ayant assisté à kla présentation des Software Collections au FOSDEM 2014, si j'ai bien compris toute la problématique de factorisation des dépendances et de gestion des updates de sécurité facilitées qui en découle vient seulement d'être soulevée suite à l'usage de la première version des SC livrés par redhat; aucune solution n'est arrêtée, et il n'y a pas de choix évident…
    Pour l'instant les Software Collections c'est un peu ce qui est fait en packaging proprio sous windows: "on livre toutes les dépendances avec le soft, et ça marche; pour les updates de sécurité, on relivre tout à chaque fois (ou pas… en fonction du mainteneur)".

    Cela dit, la piste est clairement intéressante: la problématique est là, partout, et a besoin d'être résolue une bonne fois pour toutes.

  • [^] # Re: Presque pareil

    Posté par  . En réponse au journal Les impôts en ligne et la fuite de données. Évalué à 2.

    C'est une des rares administrations françaises qui marche bien: très accessible et conciliante. Autant en profiter.

    Exemple: avoir une réponse pertinente par mail en 2h c'est appréciable.

  • [^] # Re: Ministre de l'économie et du budget ?

    Posté par  . En réponse au journal La loi sur la programmation militaire est adoptée !. Évalué à 3.

    Comme aux USA et probablement un peu partout: la défense de la nation c'est pas seulement la sécurité physique, mais aussi la sécurité économique.

    La surveillance massive permet d'aider les entreprises nationales, comme c'est fait un peu partout.

  • [^] # Re: Énergie

    Posté par  . En réponse au journal Bruce Perens contre le chiffrement systématique. Évalué à 6.

    Ton lien source du chiffre 80% parle de la production d'énergie primaire, pas d'électricité; ça change pas mal de choses sachant que les transports représentent une part importante de la consommation énergétique totale, et que pour les transports la part d'électricité doit être bien faible.

    D'après http://commons.wikimedia.org/wiki/File:Production_%C3%A9lectricit%C3%A9_dans_le_monde.svg on était à 68% d'énergies fossiles pour l'électricité en 2009.

    D'après http://fr.wikipedia.org/wiki/Ressources_et_consommation_%C3%A9nerg%C3%A9tiques_mondiales#Consommation_.C3.A9nerg.C3.A9tique_mondiale en 2006 l'électricité représentait 17% de la consommation énergétique mondiale; et 27% de la consommation énergétique mondiale était pour le transport.

    As-tu une source pour l'histoire du pentium 4?

  • # Et NoScript ABE?

    Posté par  . En réponse au journal Anonymat avec Firefox : multi-profils. Évalué à 1.

    Personne n'a l'air d'avoir encore mentionné NoScript ABE:

    The NoScript browser extension improves web client security by applying a Default Deny policy to JavaScript, Java, Flash and other active content and providing users with an one-click interface to easily whitelist sites they trust for active content execution.

    Après il y a des règles un peu comme iptable: on autorise au cas par cas en fonction de la source, la target, etc…

    C'est avec ça que je bloque tous les widgets facebook et autre, avec quelques règles pour autoriser les accès croisés. En plus on peut autoriser un accès depuis un domaine sur un autre en anonymisant la requête: suppression des referers, cookies et autres…

  • # Calibre

    Posté par  . En réponse au journal contenus epub. Évalué à 3.

    Pour la gestion de collection epub, et synchronisation avec liseuse, il y a calibre, une GUI libre en python, un peu usine à gaz, un peu lent quand on a pas mal d'epubs, mais ça permet de gérer la synchronisation entre sa collection sur PC et sur liseuse relativement facilement.
    Ca permet aussi un aperçu du fichier epub, et son édition plus ou moins manuelle.
    Il y a aussi un mode serveur où la liseuse serait client web, comme si on était sur un site de vente d'epub du constructeur si j'ai bien compris, mais j'ai jamais testé.