ckyl a écrit 3877 commentaires

  • [^] # Re: Eviter le monopole

    Posté par  . En réponse au journal La France ridiculisée par Amazon. Évalué à 6.

    Ou alors, c'est juste qu'une fois que tu as payé ta maison, t'as pas senti le besoin d'en acheter 4 autres pour qu'elles restent vides, et que t'as préféré aider ceux qui gagnent moins ?

    Oui bien sur, et ils ont tous aidé la marmotte aussi ? Gagner de l'argent ce n'est pas sale et tu peux bien en faire ce que tu veux. Mais ne vient pas me dire que le comportement de tout le monde c'est de jeter tout son blé après 10 ans de carrière.

    Note qu'un fois que tu as une maison, tu peux aussi aussi utiliser ton argent pour investir etc. Ça reste ton patrimoine…

    S'il y a très peu entre le 55ième percentile et le 90ième, je comprends pas pourquoi tu t'etonnes que les revenus soient dans l'un et le patrimoine dans l'autre…

    Il y a ~200k. Ce qui en fin d'une carrière très aisée est peu.

    Là, c'est clairement du foutage de gueule, c'est clair (surement qu'il s'est senti obligé de mentir sur son patrimoine après avoir déclaré qu'il aimait pas les riches ?).

    Non son patrimoine déclaré c'est environs un million d'euro le tout dans la pierre. Par contre il déclare 10K en tout et pour tout sur ses comptes et avoir encore 200K de crédit. Sa baraque à Mougins en 86 il l'a clairement pas payée 800K, tu peux largement diviser par deux. Toutes ses dépenses son remboursées depuis des années et il n'a le temps de rien faire. C'est intéressant de se demander où est le pognon.

    Mais n'empeche que je ne vois pas l'interet de regarder le patrimoine de nos dirigeants.

    Tu as raison. Le seul truc un peu intéressant c'est de voir qu'ils déclarent presque tous des trucs plus ou moins ridicules.

  • [^] # Re: Eviter le monopole

    Posté par  . En réponse au journal La France ridiculisée par Amazon. Évalué à 10.

    Et en plus, des comptables rentiers et/ou adeptes de placement juteux parce que tout ce qui compte, c'est bien entendu de finir sa vie avec un bon patrimoine, sinon à quoi bon vivre ?

    Heu non simplement que quand ton revenu est minimum dans le 96ième percentile et que tu as entre 50 et 70 ans ont peut s'attendre à ce que ton patrimoine ne soit pas dans le ~55ième percentile… Surtout quand ton train de vie passe en note de frais et qu'entre le 55ième percentile et le 90ième il y a "peanut".

    Après c'est clair que chacun est libre de claquer 5k/mois en morito plutôt que de s'acheter ne serait ce qu'une baraque. Mais tous ceux que je connais qui ont ce niveau de revenu ne déclarent pas comme hollande avoir sur ses comptes + assurance vie moins de 10K, soit grosso modo un mois de salaire…

  • [^] # Re: Eviter le monopole

    Posté par  . En réponse au journal La France ridiculisée par Amazon. Évalué à 9.

    Pas chez Amazon, mais j'ai déjà vu chez d'autres vendeurs tout ce que tu décris sauf la page au hasard mais c'est un détail. Concernant la “prévisualisation” des livres, c’est bien le truc qu’Amazon pourra faire si ça interesse assez de monde. Penser que c'est un avantage du "physique" est trompeur…

    Heu ils le font déjà… C'est juste pas dispo sur tout les livres, ca doit dépendre de leurs accords avec les éditeurs. Tu as systématiquement la TOC, souvent le premier chapitre et le reste avec des trous.

    http://www.amazon.fr/gp/help/customer/display.html?ie=UTF8&nodeId=14210451

  • [^] # Re: Comparatif de systèmes administratifs

    Posté par  . En réponse au journal Les Pays-Bas inventent le DDOS sur les services administratifs. Évalué à 3.

    mec qui a une baisse de revenus va être ravi de faire une avance à l'État. Ah mais il sera remboursé ! Un an après.

    C'est déjà le cas. Tes provisionnels sont calculés sur l'année précédente et régulé à la fin…

  • [^] # Re: Comparatif de systèmes administratifs

    Posté par  . En réponse au journal Les Pays-Bas inventent le DDOS sur les services administratifs. Évalué à 6.

    Ouais et encore heureux. Je ne pense pas que tu ignores que le taux d'imposition dépend (en gros) de tes revenus. Alors on le cale sur les revenus d'un an. Ca permet (en majorité) de lisser les aléas.

    Oh oui génial de provisionner quelques milliers d'euros aux impôts quand ton revenu baisse mais qu'il t'es impossible de le prévoir à 10% prêt !

    En fait ca lisse juste pour les personnes qui ont un revenu stable et prévivible. Oh wait… Bientôt on va trouver super cool les cotisations à N-2 !

  • [^] # Re: suckless !! More is less !

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 2. Dernière modification le 05 juillet 2014 à 23:34.

    Je suis d'accord avec toi. Je fais plutôt dans le technique que dans les guerres de religions/clochés.

    Je pense simplement que ça peut intéresser des gens de savoir ce qui coûte cher. Voir ça peut être intéressant de s'en souvenir quand on design quelque chose. Typiquement détricoter le merdier du rt.jar ça a déjà du coûter quelques centaines/milliers d'hommes/an et les applis/lib/framework s'en foutent aussi. Après le design de la JVM et de son écosystème n'est clairement pas fait pour les applis à vie courte.

  • [^] # Re: suckless !! More is less !

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 3.

    Par contre la jvm met une plombe a demarrer

    La VM est très rapide à démarrer. C'est le chargement des classes, l'init des blocs statiques et les dépendances mal gaulées qui font que ce que tu observes c'est un démarrage lent. Mais la VM elle pourte en vitesse (de mémoire ça se compte en ms). Juste pour ceux que ça intéresse ;)

  • [^] # Re: suckless !! More is less !

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 8.

    mais il est très efficace pour les opérations vectorisées (apply, lapply, sapply, etc), et ça ne m'étonnerait pas qu'il implémente des optimisations de bas niveau pour ça. Il est aussi diaboliquement bon pour des casse-têtes algorithmiques (par exemple tirer au hasard des éléments d'un vecteur avec ou sans remise avec pondération, avec une vitesse que je n'ai jamais réussi à approximer en C++).

    C'est pas R le langage ou le runtime qui est rapide, ce sont les libs d'algèbre linéaire qu'il y a dessous (et je prends le pari que c'est du C).

    Ça serait aussi con que de dire que Python est rapide par ce que Numpy est rapide. Python est lent comme une loutre bourrée. Toutes les libs d'algèbre linéaire & co sortent des runtimes classiques pour chopper un bon gros buffer mémoire et faire leur sauce dans leur coin (cf. la discussion plus bas sur ce genre de besoin).

    Bref R en tant qu'outil est rapide. Maintenant venir dire que les langages dynamiques, interprétés ou autre c'est cool pour la perf faut pas déconner. Tu t'en sers juste comme glue. Si tu vas à l'aéroport en velo, c'est pas lui qui te fait traversé l'atlantique en 5h…

  • [^] # Re: suckless !! More is less !

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 4.

    Le runtime a besoin de savoir si dans la case memoire tu as une valeur unboxée ou un pointeur vers une valeur boxée. Tu peux trouver l'explication des représentation mémoire d'Ocaml ici: https://realworldocaml.org/v1/en/html/memory-representation-of-values.

    Sur la JVM tu n'as pas ca, car la vision boxée / unboxée est faite au niveau du système de type (ce qui est une horreur). Si tu veux comprendre un peu mieux ce genre de problème tu peux regarder là: http://cr.openjdk.java.net/~jrose/values/values-0.html. En pratique ça pose de vrai problèmes, et toutes les plateformes ont a peut près les mêmes problème, même si les réponses ne sont pas exactement les mêmes. Mais à un moment, tu as besoin d'avoir des types structs, un layout mémoire propre et échapper au coup des GC par un moyen ou un autre.

  • [^] # Re: suckless !! More is less !

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 5.

    Ou alors tu fais un langage qui ne fait pas n'importe quoi (Ocaml) et qui marche rapidement même avec un GC.

    Tu veux dire un langage qui à un module Bigarray exactement pour les mêmes raisons ? Ou un qui a un GC stop the world et dont j'ai jamais vu de bench avec des heap à 16, 32 ou 64 GB ?

    Le truc intelligent qu'à fait Ocaml, c'est le stockage unboxed des primitifs au détriment d'un bit. Mais autrement les problèmes sont généraux. Il te faut un accès aux types primitifs, à des structs like et à des buffers.

  • [^] # Re: Encore des pleurnichards ....

    Posté par  . En réponse au journal Que pensez-vous de cette citation de Axelle LEMAIRE ?. Évalué à 2. Dernière modification le 02 juillet 2014 à 17:02.

    Un salarié peut être payé au temps et au forfait également.

    Salarié au forfait ?

    Hormis le forfait jour je ne vois pas. Mais même dans ce cas ce n'est pas vraiment du forfait dans le sens propre puisque tu n'as aucune obligation de résultat et que la somme n'est pas liée à un travail réalisé ou un déliverable mais à un nombre de jours travaillés. Le forfait jour c'est juste un deal d'une somme d'argent contre un ordre de grandeur d'heures pour ne pas s'emmerder avec les règles stupides de X h / jours ou semaine.

  • [^] # Re: suckless !! More is less !

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 3.

    Tu fais pas :-) Dans un langage évolué, tu structures tes variables de manière à ce que leur sémantique ne soit pas cryptique :-)

    Faut pas déconner c'est pas une question de langage mais de cas d'utilisation.

    Il y a des problèmes qui imposent de faire tu bit packing ou du bitwise, et il y a tout les autres problèmes (qui sont largement majoritaire). Tu ne peux y échapper. Ça ne veut pas dire qu'il ne faut pas wrapper ça correctement ou en abuser.

    D'ailleurs la tendance c'est plutôt de réintroduire l'accès à des struct & malloc dans les langages de haut niveau par ce qu'on s'est rendu compte qu'à un moment faire systématiquement des caches miss, empêcher le prefetch ou faire quadrupler la consommation mémoire bin c'est assez terrible quand ça touche le coeur de l'appli…

  • [^] # Re: Même constats

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 7.

    Il ne fait pas ça du tout. ext4 est en théorie défragmentable mais il n'y a aucun outil fiable

    Tu as quelque chose de spécifique à reprocher à e4defrag ?

    Après si tu n'as pas besoin de le faire online, un bête cp ou tar/untar fait le job. C'est l'outil du pauvre mais ca a marché pendant toutes les années ou des benêts ont essayé de nous expliquer qu'il n'y avait pas besoin de défragmenter sous Linux…

  • [^] # Re: Même constats

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 10.

    Tu n'as pas les même pbs ? Si la zone entre 2 deviens pourrie, tu as aussi une forme de fragmentation non ?

    Tu as effectivement le même au problème au niveau du fs. Mais la fragmentation est uniquement un problème liés aux propriétés mécaniques d'un disque dur. Déplacer la tête prend une éternité, ~5ms, alors qu'une lecture aléatoire sur un SSD c'est ~15μs.

    Donc oui tu as de la fragmentation, mais non ce n'est pas un problème.

  • [^] # Re: Psycho

    Posté par  . En réponse au journal Pourquoi un PC ralentit-il ?. Évalué à 3.

    la désactivation de la mise à jour du atime (access time) sur les fs pour lesquels on s'en fout ça joue aussi me semble-t-il.

    relatime est par l'option par défaut depuis 5 ans. Ca limite fortement les cas où noatime change quelque chose.

  • [^] # Re: Même pas surpris

    Posté par  . En réponse au journal bookmark : En acceptant les CGU de Facebook vous pouvez être le sujet d'expérimentation. Évalué à 4. Dernière modification le 02 juillet 2014 à 08:49.

    Oui ça vient du papier de Facebook. Il se lit très vite et ne casse pas trois pâtes à un canard. Quand je vois "recherche fondamentale" puis designer l'étude ça fait sourire. C'est juste isoler une feature précise, et essayer d'analyser son impact sur les gens et indirectement de savoir si c'est pour bon la participation ou pas par ce que c'est le nerf de la guerre.

    Et les résultats dramatiques c'est… un variation de max 0.2% des mots positifs ou négatifs utilisés dans les postes ! Non en fait le résultat intéressant pour Facebook c'est ca: " We also observed a withdrawal effect: People who were exposed to fewer emotional posts (of either valence) in their News Feed were less expressive overall on the following days, addressing the question about how emotional expression affects social engagement online. ". En gros ils vont faire attention à que le feed ne soit pas trop neutre par ce que ça diminue la participation…

    Personnellement je trouve intéressant qu'on commence à s'intéresser et s’interroger à ce genre de sujets. Dans l'article on trouve aussi la thèse inverse: "This observation, and the fact that people were more emotionally positive in response to positive emotion updates from their friends, stands in contrast to theories that suggest viewing positive posts by friends on Facebook may somehow affect us negatively, for example, via social comparison.". En gros on pourrait aussi dire qu'en faisant un bête top K pour sélectionner les articles du feed, tu ne vas garder que les plus positifs (ceux qui sont likés) et que donc tu vas inonder les gens de chose mieux que leur vie réelle. Est ce que ça à un impact ? Les questions comme cela sont infinies, et en pratique quand tu implémentes ce genre de fonctionnalité c'est très difficile de savoir ce qui est "bien" ou pas. Ça demandera des années avant que la discipline arrive à maturité technique et "morale". Pour le moment on est au tout début. Enfin je trouve idiot de s'offusquer d'une simple étude sur 7 jours sur un domaine sans intérêt, alors que l'algo mis "naïvement" en place depuis des années peut avoir des impacts 100x pires sans que personne n'y ait jamais réfléchi.

  • [^] # Re: Même pas surpris

    Posté par  . En réponse au journal bookmark : En acceptant les CGU de Facebook vous pouvez être le sujet d'expérimentation. Évalué à 2.

    Mais plutot que ca a ete fait non pas pour tuner leurs algos, mais comme une pure experience scientifique, sans buts commerciaux.

    Which content is shown or omitted in the News Feed is determined via a ranking algorithm that Facebook continually develops and tests in the interest of showing viewers the content they will find most relevant and engaging. One such test is reported in this study: A test of whether posts with emotional content are more engaging.

    Il y a énormément à réfléchir sur ces sujets car le machine learning est ses applications sont une discipline extrêmement récente ou on ne connait presque rien pour le moment.

    Maintenant ce test c'est juste prendre le news feed de quelqu'un virer pendant une semaine 10% à 90% des postes qui contiennent un mot clé marqué comme émotionnels. Oui il y a à discuter mais pas en faire un pataquès ridicule avec "Facebook à manipuler ses utilisateurs".

    Rien ne te dis que le biais n'existe pas déjà sur leur classifier, volontairement ou involontairement, car l'apprentissage à détecté une feature "content" / "pas content" avait une influence sur le taux de clic et que tout le contenu que tu vois sois déjà largement biaisé. L'expérience consiste juste à isoler une variable et mesurer.

    Le news feed est un choix d'article parmi tout ceux disponibles (et les autres reste disponible). Quand tu décides de l'utiliser ça veut dire que tu délègues le choix de ce que tu lis à Facebook et à un algo. Si tu es contre ca, faut pas utiliser la feature, l'expérience ne change pas grand chose à cela et la nature même du ML fait que tu subis de telle expérience en continu, simplement ce n'est pas analysé par un humain et on n'isole pas aussi précisément une variable et sa signification.

  • [^] # Re: Bouh! Méchant Facebook!

    Posté par  . En réponse au journal bookmark : En acceptant les CGU de Facebook vous pouvez être le sujet d'expérimentation. Évalué à 2.

    Pas d'accord. Ca, ça serait l'équivalent d'un A-B testing classique. Par exemple s'ils avaient deux manières de passer des émotions positives. Ici ils ont manipulé les gens pour leur donner des émotions positives ou négatives.

    Et quand tu fais de la recommandation de news par exemple tu crois que tu fais quoi de manière directe ou indirecte ?

    Leur principal tord ça semble d'avoir publié et de ne pas avoir directement relié les indicateurs de leur feedback loop à leur business model immédiat… Je comprends tout à fait, faire de l'A/B avec pour seul but de fourguer plus de pub c'est vachement plus éthique que de regarder les impacts potentiel d'une fonctionnalité (et sûrement aussi s'en servir plus tard pour fourguer plus de pub) !

  • [^] # Re: Même pas surpris

    Posté par  . En réponse au journal bookmark : En acceptant les CGU de Facebook vous pouvez être le sujet d'expérimentation. Évalué à 0.

    Quand on fait ce genre d'expérience, se doter d'un comité éthiquement irréprochable me semble le strict minimum, là, on a précisément le contraire

    La question est où tu places la limite. Pour la v1 de l'algo tu avais les mêmes effets possibles. Tu sors un sous ensemble d'un ensemble et tu les affiches à l'utilisateur. Si ça se trouve ça donnait des résultats pire…

    C'est un problème beaucoup plus complexe que le "Oh mon dieu". Quels sont les critères acceptables et non acceptables ?

    • Quelles sont les features de ton algo ? Comment t'assures tu quelles sont toutes éthiques ?
    • Comment sont-elles pondérées ?
    • Comment tu empêches ton ML de faire cela même de manière involontaire ? (features combinées, convergence de l'apprentissage vers quelque chose de non éthique)
    • Quels sont les KPI acceptables ?
    • Quels sont les moyens acceptables pour ameillorer les KPI ? (un utilisateur heureux consommera peut être plus ou cliquera plus)

    L’intérêt académique de ce genre d'expériences est évident, tout comme l'étude de l'impacte des pesticides sur fœtus, ce n'est pas pour ça qu'il faut les mener.

    Ca reste le feed news de Facebook hein…

    Tu es plus où moins soumis à ce genre de chose en permanence de la pub à ton agrégateur de news. À partir du moment où il y a du ciblage, de la recommandation ou de la sélection d'information. Ils ont décidé de regarder un aspect que certains peuvent trouver limite et mériterait d'être discuté. Maintenant crier au scandale et tomber de haut… A mon avis les moteurs de recommandations ont BEAUCOUP plus d'impact sur la vie réelle par exemple. Et c'était la même chose avec les recommandations humaines qui ont toujours imposé le biais de leur auteur.

    là ils sont clairement démissionnaires, tous.

    Non ils sont clairement largué. Tout comme 99% des boites françaises. Maintenant les propositions constructives sont je pense les bienvenues…

  • [^] # Re: Même pas surpris

    Posté par  . En réponse au journal bookmark : En acceptant les CGU de Facebook vous pouvez être le sujet d'expérimentation. Évalué à 3.

    J'ai l'impression d'être le seul à ne pas être choqué

    Bha non c'est de l'A/B testing quoi. C'est juste la base de toutes les problématiques d'optimisation et de recommandation. Comme ce sont des problèmes qui n'ont pas d'oracle ou d'objectifs durs, on repose sur une boucle de mesure qui permet d'évaluer les réactions des utilisateurs en fonction des changement que l'on fait. Et en général on fait ça sur une sous partie de population pour pouvoir comparer différentes alternatives ou avoir le moins de bruit possible.

    Toute l'industrie fait ça et ceux qui ne le font pas sont des charlots qui n'ont pas une approche rationnelle des problèmes qu'ils ont a résoudre. Google faisait même ça un moment pour choisir la couleur d'un bouton.

    Le flux de donnée sur lequel ils ont bossé est de toute façon filtré et mouliné par un algo. Ils ont regardé l'influence de l'algo sur un point donné. En gros ce qu'on leur reproche c'est de regarder l'influence d'un algo plutôt que de "lancer une pièce et voilà".

  • [^] # Re: Les DRM (menottes numériques)

    Posté par  . En réponse au journal Boutons les DRM hors des niches fiscales !. Évalué à 6.

    c'est une manne inespérée,

    Faut pas trop déconner non plus, ca fait environs 0.3% des recettes.

  • [^] # Re: Austérité

    Posté par  . En réponse au journal Boutons les DRM hors des niches fiscales !. Évalué à 6.

    Je ne penchais pas sérieusement pour cette solution. Ceci dit personnellement je trouve très intéressant d'avoir une notion des ordres de grandeur en jeu. Et que part exemple la question de l'IR pour les plus fortuné est surtout une question "de morale", d'équité et de vitrine politique plutôt qu'une solution à un problème donné. Ce n'est pas forcément intuitif qu'en taxant tout au dessus de 70K (ce qui n'est pas très haut) tu ne ramènes "que" 14 milliards soit autant que de pousser toutes les tranches de 2 points ou simplement imposer les revenu < 5K à 5.5% plutôt que de les exonérer.

    Après c'est aussi par ce qu'il faut être très con pour cherchez à maximiser son revenu imposable…

  • [^] # Re: Austérité

    Posté par  . En réponse au journal Boutons les DRM hors des niches fiscales !. Évalué à 5.

    Ne sors pas tu as raison.

    Passer la plus haute tranche de 40% à 100% rapporterait environs 7 milliards de moins que passer la première tranche au niveau de la seconde, soit de 5% à 14%.

    Si tu te bases sur l'IR, les données fiscales et simulations disponibles, taxer "les riches" ne peut aucunement d’équilibrer le budget. Taxer les pauvres oui.

  • # Specs ?

    Posté par  . En réponse à la dépêche Rakoshare, un outil de synchronisation de dossiers pour tout le monde. Évalué à 4. Dernière modification le 23 juin 2014 à 10:56.

    Working but unstable. Anything, both in the implementation or the protocol, can change at any time (although the general idea should remain the same)

    Et il est déféni où le protocole et ainsi que les machines à état du bouzin ? En fait fonctionnellement tu n'expliques même pas ce que ca fait (multi-directionel ou non, révisions, gestion des conflits etc.)

    Pour ce genre de projet j'ai tendance à avoir un avis très négatif sur les projets qui "make it work" avant de pouvoir expliquer en détail pourquoi et comment leur système allait tenir le coup d'un point de vue conceptuel. Je passe mes journées à bosser avec des gens créant des systèmes distribués qui ne pourront jamais fonctionner correctement par ce que la phase théorie à juste été oubliée. Un système distribué ca ne se concoit pas au niveau du code.

  • [^] # Re: Les projets libres et le réflexe FLATTR

    Posté par  . En réponse au journal Campagne Kickstarter pour Krita. Évalué à 10.

    L'idée n'est pas inintéressante mais avec 10% de commissions pour flattr, un service tout ce qu'il y a de centralisé, je préfère faire un virement ou donner des bitcoins.

    T'es au courant que depuis la semaine dernière Bitcoin est devenu centralisé ? (Ok on garde l'aspect décentralisé et gachi de ressources de calcul, mais le consensus peut être obtenu par une entité unique majoritaire).

    Je suis d'ailleurs extrêmement déçu que personne n'ait fait un journal la dessus Vendredi. C'est pourtant un très bel exemple du distribué c'est génial en théorie ça résout tout les problème du monde mais en pratique quand ça tourne mal bin ça tourne mal. Le prochain exemple sera un Facebook like où l'auth/sécu se fera trouer et ou 100PB de données perso partirons dans la nature :p

    Pour ce que l'histoire intéresse, Emin Gün Sirer écrit souvent des articles très intéressants sur Bitcoin. Pour les événements récent on trouvera notamment:

    L'immense majorité des processus business et financier de notre monde reposent sur des acteurs identifiés et de l'eventual consistency. Le passage au décentralisé anonyme remet en cause toute les politiques de consistance, de régulation et d'évolution. Et c'est donc très rigolo à regarder en mangeant des chips depuis son canapé (les exchanges qui s'écroulent, les mecs qui se tirent avec la caisse, les attaques algorithmiques, les pools qui deviennent majoritaires et qui peuvent donc diriger le réseau comme ils le veulent etc.). On remet en cause quelques centaines d'années d'expérience, le tout implémenté par des gamins de 20 ans :)