Misc a écrit 6254 commentaires

  • [^] # Re: Tout est là

    Posté par  (site web personnel) . En réponse au journal Devuan a deux ans . Évalué à 10.

    Alors on pas du voir les mêmes listes de discussion. Ou on a pas du évaluer la compétence des gens de la même façon. C

    ertes, Jaromi a démarré le projet, et déjà ça, c'est bien. Ensuite, je pense qu'il a encore des lacunes en ce qui concerne le développement, cf 2 soucis d’exécution de code sur "tomb":
    http://www.openwall.com/lists/oss-security/2014/10/20/2

    Et le souci, c'est que quand on va voir la liste, et qu'on prends un thread au hasard, genre le plus récent:

    Ben ça part entre insulter les gens (sans qu'un modo ne dise rien bien sur) :
    https://lists.dyne.org/lurker/message/20161127.220418.b962b9a0.en.html

    Les théories du complot:
    https://lists.dyne.org/lurker/message/20161127.225845.c1e2da4e.en.html

    (surtout venant de la part d'un gars qui fait de la pub pour son livre en signature et dont le business est justement de faire du support sur Linux…)

    L'OP qui raconte comment il s'est fait bannir des forums Gentoo, (bien sur, par abus du modérateur de son point de vue) :
    https://lists.dyne.org/lurker/message/20161128.204113.88e63941.en.html

    ( et bien sur, comment il insulte aussi le mainteneur debian dans le BTS: https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=845480, plus d'une fois cf le dernier message)

    Donc ouais, pour avoir lu et suivi les listes, je pense qu'il y a pas autant de compétence que tu sembles croire.

  • [^] # Re: Houpla

    Posté par  (site web personnel) . En réponse au journal Devuan a deux ans . Évalué à 10.

    J'aurais tendance à dire pareil que toi.

    je trouve un peu inquiétant qu'à ce rythme, Debian va sans doute réussir à sortir une nouvelle version avant que Devuan n'arrive à sortir une version tout court.

  • [^] # Re: Provocation

    Posté par  (site web personnel) . En réponse au journal Devuan a deux ans . Évalué à 5.

    A mon grand regret, pas tant que ça.

    À mon grand regret, parce que dans le cadre de mon travail, j'ai des machines sous divers BSD (pour tester le code), et quand je regarde l'état de l'art de l'intégration avec une infra cloud, c'est pas encore ça. Et moi, j'aimerais bien que ça soit plus simple et plus rapide de faire les choses bien (ie, de faire des tests sur les différents BSD).

    Par exemple, l'installation automatique de NetBSD, ça se fait via anita, qui utilise expect pour répondre aux questions (et ça me parait pas super pérenne, et c'est pas non plus l'installeur "officiel" ie venant de netbsd.org).

    Le format de l'installation automatique d'OpenBSD ne m'a pas l'air complètement documenté et formalisé, et pareil, ça semble un peu fragile (mais comme OpenBSD n'a pas fuse, j'ai pas eu besoin d'automatiser grand chose).

    Y a que FreeBSD qui s'en sort un peu mieux, même si j'ai pas regardé comment mettre ça via virt-install.

  • [^] # Re: Ha les intégristes du libre...

    Posté par  (site web personnel) . En réponse au journal De l'autarcie du projet GNU, ou comment Emacs ne veut pas devenir EmacOs. Évalué à 9.

    Tout ça ça n'arrive que parce que gcc n'a pas se découpage
    uniquement pour des raisons politiques (je ne sais pas si ces
    raisons sont (ou étaient) tangibles ou pas).

    Je pense qu'on sous estime aussi le fait d'avoir une architecture nouvelle basé justement sur les leçons apprises de gcc pour la création de llvm, tout comme un langage refait de 0 maintenant peut s'appuyer sur l'existant pour éviter des soucis et avoir une architecture différente.

    Mais je comprends que parler technique est vachement moins vendeur, et que c'est tellement plus rassurant de se dire que c'est "politique", alors qu'il y a sans doute des explications beaucoup plus nuancés.

  • [^] # Re: Ha les intégristes du libre...

    Posté par  (site web personnel) . En réponse au journal De l'autarcie du projet GNU, ou comment Emacs ne veut pas devenir EmacOs. Évalué à 8.

    Le code libre est devenu quelque chose de beaucoup plus normal
    et courant, il devient alors moins nécessaire d'avoir une
    licence qui segmente et on peut remercier la GPL d'avoir permis
    d'en arriver là.

    Ça passe sous le tapis les soucis des brevets logiciels. Les grosses boites (notamment Apple et Microsoft) continue à se servir des brevets pour attaquer la compétition. Et je pense que c'est pour ça que les boites de ce genre s'éloigne de la GPL (notamment v3), et donc que la GPL a encore un rôle à jouer.

  • [^] # Re: Ha les intégristes du libre...

    Posté par  (site web personnel) . En réponse au journal De l'autarcie du projet GNU, ou comment Emacs ne veut pas devenir EmacOs. Évalué à 3.

    Vraiment ? Quelqu'un va vraiment switcher de linux à mac juste
    pour pouvoir mettre des emoji dans emacs ?

    Bah, si c'est pas important, alors c'est un non nouvelle qui ne mérite pas un poste de blog ou un commentaire, non :) ?

  • [^] # Re: spoil ?

    Posté par  (site web personnel) . En réponse au journal Élections américaines. Évalué à 8.

    Je suppose que ça dépend grandement de ce que tu veux dire par élite, mais clairement oui.

    Il a reçu l'argent de sa famille, il est riche, il a magouillé avec les impôts, etc, donc si on parle d'élite corrompu, il se qualifie selon moi (et vu que la thématique de la corruption etait omniprésente, je me permet d'associer les 2).

    Il a réussi à projeter l'image d'un externe (ie, non politicien de carrière, mais le self made man américain ), l'image de quelqu'un qui dit ce que les autres n'osent pas dire (comme des positions racistes et xenophobes, ou les gens qui les expriment se sentent oppressé dans leur droit à tabasser et bruler du noir) pour se dégager des faits.

    Mais oui, le concept même d'élite est vachement flou (si on dit pas élite de quoi, sur quel critère, etc), et mal défini, donc forcément sujet à des dérives lexicales.

  • [^] # Re: Temporaire pour toujours

    Posté par  (site web personnel) . En réponse au journal Un autre pouvoir de Google. Évalué à 6.

    Les prestataires font aussi payer le fait que ça prends des plombes de répondre à un appel d'offre, et que tu perds du temps aussi sur des détails. un des premiers appels d'offres ou j'ai été confronté, ça a pris 3 mois d'échange de contrat à revoir ce qui a changé à chaque itération. Donc ouais, le privilège du pinaillage a un cout.

    (même si je reconnais que ça fait sans doute pas tout)

  • [^] # Re: Si, du neuf (enfin de 2014)

    Posté par  (site web personnel) . En réponse au journal Vie privée et appel téléphonique. Évalué à 4.

    Ou juste un sous traitant malhonnête. Suffit de graisser la patte à un opérateur mal payé et peu scrupuleux pour avoir ce qu'il faut. (je veux pas virer dans les clichés sur la corruption, mais bon, Russie…).

  • [^] # Re: Admiratif

    Posté par  (site web personnel) . En réponse à la dépêche Ceci est un lancement de chatons. Évalué à 2.

    Tu es en effet sans doute pas à l'abri en effet d'une panne ou d'un souci, c'est pour ça que la charte (https://git.framasoft.org/framasoft/CHATONS/blob/master/docs/Charter-fr.md) précise:

    "le CHATON s’engage à faciliter la possibilité pour les hébergés à quitter ses services avec les données associées dans des formats ouverts ;"

    IE, tu es censé pouvoir reprendre tes données, et avoir la possibilité de bouger ailleurs.

    Ensuite, c'est plus facile à dire qu'à faire, j'en conviens, donc ça serait un axe de developpement que de s'assurer que c'est faisable. Par exemple, un recensement des services proposés, des vérifications régulières de la possibilité de partir sans trop de souci, voir des journées d'échanges d'utilisateurs (pas d'échanges avec les utilisateurs, bien d'échanges d'utilisateurs, pouvoir qu'on peut en effet migré d'un à l'autre).

  • # La minnowboard

    Posté par  (site web personnel) . En réponse au journal Nom de Zeus, une autre board.... Évalué à 2.

    Alors mes collègues utilisent des minnowboards pour les demos de kubernetes et co, et de ce que j'ai entendu, ils sont content avec. Ensuite, c'est pas de la prod 24/7 et j'ai pas suivi non plus le futur de la production (vu que y a du mouvement interne chez Intel).

  • [^] # Re: Turris Omnia

    Posté par  (site web personnel) . En réponse au journal Nom de Zeus, une autre board.... Évalué à 2.

    Y a pas mal d'efforts fait au niveau upstream. J'ai des boards arms de partout, et globalement, la situation d'aujourd'hui est vachement meilleur qu'avant (genre la raspberry pi est supporté upstream, mes beaglesbones aussi, la nanopi, etc).

    Et de ce que je vois, il y a une dtb pour ce proc et la carte, donc j'aurais tendance à avoir confiance.

    (mais sinon oui, tu as raison sur l'importance du support du kernel, genre les caps sur beaglebone…)

  • [^] # Re: Moui

    Posté par  (site web personnel) . En réponse au journal systemd: attention à RemoveIPC. Évalué à 4.

    P.S.:véritable question : en cas d'incident, après récupération > des logs binaires sur une autre machine, comment fait-on pour
    les lire ? Sur le coup et à l'époque à part coder moi-même
    quelque chose, j'avais pas trouvé.

    La page d'aide de journalctl a une option

    --file=PATH           Show journal file
    

    Et j'ai testé sur une fedora 24

    journalctl --file /tmp/toto.journal
    

    , ça marche
    (ensuite, journalctl --file /tmp/toto.journla ne marche pas même avec un fichier toto.journla, donc j'ai aussi trouvé un bug curieux )

  • [^] # Re: SystemD la cause de la discorde...

    Posté par  (site web personnel) . En réponse à la dépêche L’après PC-BSD : TrueOS. Évalué à 2.

    C'était avec CPUQuota. On a utilisé set-property et --runtime, sur systemd 219.

  • [^] # Re: SystemD la cause de la discorde...

    Posté par  (site web personnel) . En réponse à la dépêche L’après PC-BSD : TrueOS. Évalué à 4.

    La réalité, c’est que si systemd s’impose, c’est parce qu’il
    simplifie grandement la vie de ses premiers utilisateurs : les
    programmeurs. Qui l’imposent à leurs utilisateurs en retour,
    parce que ça leur simplifie la vie.

    Ça simplifie aussi la vie des distributeurs, et des utilisateurs. Encore une fois, c'est bien plus simple d'écrire un fichier de service, ça te donne un accès simple à des fonctions du kernel des plus utiles, etc.

    Par exemple, y a 4 jours, j'étais avec un collègue en train de regarder sur la meilleur façon de pas prendre tout le temps cpu quand on lance la vérification des mises à jours sur les machines des utilisateurs sous RHEL Desktop.

    La solution qu'on a fini par prendre (après 3 hacks à base de cpulimit), c'est d'utiliser systemctl set-property sur le démon de packagekit. Emballé, c'est pesé, une ligne pour changer le quota CPU, une autre pour revenir à ce qu'on avait avant.

    Pas de magouille à trouver le pid de yum et packagekit à coup de ps et de grep (et grep -v grep), de création et déplacement de cgroups, etc.

  • [^] # Re: Peu crédible

    Posté par  (site web personnel) . En réponse au journal Un ransomware tout à fait déloyal ... et inquiétant. Évalué à 4.

    Ou utiliser un service en onion tor.

    point bonus si on utilise le système d’autorisation en mode "Stealth", y a 0 scan possible: https://www.void.gr/kargig/blog/2015/04/10/onion-service-authorization-cookie/

  • [^] # Re: Peucrédible

    Posté par  (site web personnel) . En réponse au journal Un ransomware tout à fait déloyal ... et inquiétant. Évalué à 4.

    Les gens de bonnes foi n'ont par contre pas tous la main sur le firewall entre eux et toi. Exemple typique, être chez un client pour une mission.

  • [^] # Re: Snapshot comme backups ?

    Posté par  (site web personnel) . En réponse à la dépêche Unixcorn, trois mois plus tard : évolutions, remises en questions et stabilisation. Évalué à 1.

    C'était ironique.

    Ce que je veux dire, c'est que toute les bases de données n'implémente pas les transactions, et que tout les softs non plus. Alors bien sur, tu peux sans doute te dire "je vais me restreindre aux softs bien écrit", mais ça n'arrive pas, sinon, tu installes plus rien.

    Donc tu peux te retrouver avec des corruptions. Bien sur, le problème n'est pas que les backups vont causer ses corruptions, mais que ça peut arriver.

    Et pour les mises à jour atomique, c'est simple, je lance mon upgrade de wordpress à 4h du mat (via un cron plus ou moins classique), et le snapshot se fait pile au moment ou la moitié des fichiers ont été remplacé. Puis le disque crash. J'ai donc un snapshot avec la moitié des fichiers d'une version et la moitié d'une autre. C'est sans doute vachement rare. C'est pas non plus impossible.

    A comparer avec un système ou en effet, d'abord tu décompresses, ensuite tu bascules un lien symbolique, et au pire, tu peux juste remettre le lien symbolique.

    En pratique, c'est bien plus complexe car 1) y a des migrations de schéma de db, 2) wordpress fait son crade et mélange code et données.

    Mais la, on s’étend au delà de la base de données. D'ailleurs, c'est aussi en effet amusant si tu as des données sur le disque et en base. Bien sur, tu peux rien faire contre la race condition inhérente, mais ça veut pas dire que ça n'existe pas.

    Ensuite, je reconnais que c'est sans doute super rare, mais comme je souhaite beaucoup de succès aux CHATONS, avec le succès vient le changement des probas sur les problèmes :/

  • [^] # Re: Mauvaise licence, changer licence

    Posté par  (site web personnel) . En réponse au journal Faut-il défendre la GPL devant les tribunaux ?. Évalué à 10.

    J'ai des doutes, franchement.

    Actuellement, et comme le fait remarquer Mathew Garrett sur Twitter, les gens qui poussent pour laisser couler sont surtout des gens de la Linux Fondation. On peut en effet comprendre qu'il y a un biais car la fondation dépend énormément des industriels pour se financer, et donc qu'ils sont en faveur de ne pas aller contre les dits industriels et qu'en effet, le procès contre VMWare a du passer par la. Je ne dit pas qu'ils font ça pour l'argent, mais qu'ils voient bien en effet que plus de boites == plus de projets faisables, et qu'en effet, de ce point de vue, alos faut accepter tout le monde si ça rentre dans le business model.

    Mais en pratique, il n'y a qu'une minorité du code qui vient de la fondation. Et il y a aussi beaucoup de dev kernel qui sont contre l'idée de changer la licence (exemple, tout les histoires d'export de symbole GPL only), et je pense que dans les grosses boites qui contribuent au kernel, y en a beaucoup plus qui bénéficie de la GPL que l'inverse (exemple, Red hat, Suse, Google) parce qu'elles ont la capacité à utiliser les patchs.

    Ceux qui contribuent sans doute un peu à contre coeur (ou as du tout), oui, ce sont ceux qui voudraient sans doute du code leur permettant de se passer de la coopération avec le reste du monde.

    Mais justement, c'est pas la majorité des contributeurs. Ils ont pas trop voix au chapitre vu qu'ils ont pas des masses de code.

  • [^] # Re: Snapshot comme backups ?

    Posté par  (site web personnel) . En réponse à la dépêche Unixcorn, trois mois plus tard : évolutions, remises en questions et stabilisation. Évalué à 0.

    Ça n'est pas vraiment un souci. C'est comme si ton serveur
    tombe. Les SGBD sont capable de repartir sereinement à partir de
    données mal écrites (ça fait partie de leur job)

    Je suis rassuré de savoir que mes données seront autant corrompus qu'en cas de crash serveur, ça donne pleinement confiance dans la solution. Et comme tout les softs n'ont jamais de bugs et font toujours des mises à jour atomique de soft, on est aussi ok de ce coté la.

    Il doit bien être possible de s'organiser pour que tu ne lance
    pas les 2 en même temps, je pense ;)

    Bien sur, si j'ai la main des 2 cotés.

  • # Snapshot comme backups ?

    Posté par  (site web personnel) . En réponse à la dépêche Unixcorn, trois mois plus tard : évolutions, remises en questions et stabilisation. Évalué à 5.

    Bon alors désolé si je pose une question qui est hors sujet sur les commentaires Linuxfr car technique et en rapport avec le fond de la dépêche, mais les backups par snapshots disques, ça implique pas que les données soient toutes écrites sur le disque ?

    Genre j'ai un peu peur de ce qui arrive si je prends un snapshot de ma base de données *sql si ça arrive au mauvais moment. Je ne suis pas sur de ce qui arrive à mon serveur si je fait un snapshot pendant un déploiement (genre pendant que puppet/ansible/chef/salt tourne).

    Donc à partir de la, comment est ce que vous avez réglé les soucis en question ?

    (je précise que je connais pas proxmox, mais de ce que je connais de qemu et de kvm, y a pas de facilité magique pour ça).

  • [^] # Re: Choix des VM par rapport à Docker ?

    Posté par  (site web personnel) . En réponse à la dépêche Unixcorn, trois mois plus tard : évolutions, remises en questions et stabilisation. Évalué à 3.

    En fait, déjà, faut préciser. Quand tu dit Docker,soit tu veux dire "docker" donc des containers d'applications en vue de faire des architectures microservices (entre autres), soit tu veux dire "containeur", genre openvz et lxc.

    À partir de la, la réponse va pas être la même. Si tu part sur l'optiqyue de faire du docker comme Docker Inc voudrait que ça soit fait, alors faut des applications prévus pour.

    Prévu pour, ça veut dire déjà sous forme d'une image Docker (ou équivalent via OCI, mais je renvoie à https://twitter.com/kelseyhightower/status/758832320245665792 pour relancer le débat). Ça implique aussi d'avoir des images pas trop dégueulasses (qui se lance pas par défaut en root, qui soit reproductible un minimum, qui soit maintenu, etc, voir http://www.projectatomic.io/docs/docker-image-author-guidance/ par exemple pour des débuts de guidelines ). Avec la pratique, tu vois que ça implique aussi d'avoir quasiment une chaine de construction d'image (genre Jenkins, openshift), et ensuite un système d'orchestration kubernetes, mesos), du stockage, des solutions de gestions des logs, etc.

    C'est globalement bien quand ça marche, mais ça reste encore des trucs en plein évolution, pas forcément sec, et je suis pas sur que tout le monde veuille payer les pots cassés.

    Ensuite, si tu parle de containers à base de systèmes complets, genre lxc, openvz, c'est différent. la, tu es obligé de choisir entre l'usage de ressources réduit et une isolation réduite. Car avec lxc (et co, comme docker), le kernel est partagé, donc un reboot de la machine fait tomber tout les services d'un coup, tu as quand même de temps en temps des trucs qui dépendent du kernel (exemple: http://www.fewbytes.com/docker-selinux-and-the-myth-of-kernel-indipendence/ ).

    Avec des VMs, tu peux déjà avoir plusieurs distributions, tu as l'administration classique d'un système (donc le firewall, selinux/apparmor) et l'isolation entre VM est plus forte. Mais ça consomme plus de ressources.

    Donc faut faire un choix vis à vis des contraintes.

  • [^] # Re: Jeu de mains, jeu de vilains. Donner c'est clair.

    Posté par  (site web personnel) . En réponse au journal Financer le web proprement grâce à la pub et une paire de modules Firefox. Évalué à 3.

    Je confirme. Virer de tels outliers n'a rien de sorcier et est
    fréquemment fait que ce soit par les régies, les mesureurs ou
    tout autre personne.

    Encore une fois, ce que les régies de pubs cherchent à éviter, c'est d'avoir une personne qui va se concentrer sur une personne (soit cliquer sur 50 fois le même mot clé, soit aller visiter les pubs du même sites). La, c'est un modèle différent, vu que ça va sur des sites au hasard. Si tu cliques sur une pub par jour sur Phoronix, ça n'apparait pas comme outlier.

    Ou du moins, avec suffisamment de parcimonie et/ou de temps, ça reste dans les clous, car de l'ordre du bruit statistique et en dehors du modèle d'attaque classique ( càd, clickfraud, etc).

    Enfin entre temps tu as rajouté du boulot aux parasites de la
    pub pour faire des filtrages supplémentaires donc tu viens de
    basculer encore un peu plus d'argent vers la pub plutôt que
    vers les journalistes. Oups !

    Alors déjà, parler uniquement des journalistes, ç'est oublier qu'il y a plus qu'eux pour un journal, et c'est oublié qu'il y a pas que des journaux sur le web. Parler des fournisseurs de contenus est sans doute un peu moins classe que de dire "les journalistes" (car qui peut se prétendre être contre les journalistes à part Balkany et Peter Thiel), mais ça reste quand
    même la réalité. Et la réalité aussi, c'est que la majorité des fournisseurs de contenus doivent pas avoir des services commerciaux énormes capable de négocier, ni le poids qui va bien.

    Et donc ouais, les fournisseurs de contenus se feront avoir dans tout les cas. Une fois que les régies ont constatés qu'elles ont le contrôle du flux financier, le tout dans un manque de transparence flagrant, elles ont aucune raison d'être sympa avec les petits fournisseurs. De la même façon que les supermarchés étouffent les petites producteurs de part leur taille respective, les régies de pubs tiennent les fournisseurs de contenus à la gorge.

    Supposons qu'on arrive à faire l'inverse, et à rendre les revenus de la pub plus élevés (par une baguette magique). Est ce que les régies vont redistribuer le trop plein, ou garder les tarifs stables ?

    Mon avis est qu'elles vont au mieux garder les tarifs stables, ce qui au final, avec l'inflation va être équivalent à diminuer les revenus des fournisseurs de contenus. Peut être que je me trompe, mais quand on regarde le bilan des 20 derniers années, ceux qui se sont enrichis sont les boites comme Facebook et Google, pas les gens qui fournissent du contenu, ni les annonceurs.

    Peut être qu'une paire vont réussir à s'en sortir et à négocier des deals plus importants (c'est globalement ce qui arrive déja sur youtube), mais ça reste comme le monde du sport et de la musique, ou la majorité ne s'en sortent pas forcément pendant qu'une paire s'en sort bien mieux.

    Et si au final, mon hypothèse est juste et que c'est les régies qui s'enrichisse, ça va juste aboutir à faire basculer plus d'argent vers ce que tu qualifie de parasites. Voir pire, le fait d'avoir de l'argent plus facilement va attirer encore plus de gens avec moins de scrupules, tout comme c'est le cas dans le monde de la sécurité.

    Si on aboutit au même résultat dans les 2 cas, alors je pense pouvoir dire qu'il n'y aucun lien entre l'action et le résultat, ou que un des 2 résultats est faux. Ou peut être que le lien n'est pas assuré dans les 2 cas. CàD que peut être que diminuer les revenus de la pub va aboutir à ce que tu dis, ou pas. Tout comme l'inverse va aboutir à ce que je dit, ou pas.

    Donc quitte à n'avoir aucun lien assuré entre l'action et le résultat, je vais prendre celle qui n'implique pas de baguette magique.

  • [^] # Re: Jeu de mains, jeu de vilains. Donner c'est clair.

    Posté par  (site web personnel) . En réponse au journal Financer le web proprement grâce à la pub et une paire de modules Firefox. Évalué à 5.

    Si c'est le travail journalistique de qualité gratuit pour toi
    mais payé par quelqu'un d'autre, ça ne marchera pas bien
    longtemps, ou alors tu ne seras pas content du résultat (bonjour
    l'indépendance si on doit son existence à un mécène)

    Ma foi, des gens te diraient que c'est déjà le cas.

    L'impact des pubs chutant (cf divers rapports sur le fait que justement, les pubs rapportent moins), les fournisseurs de contenus se retrouvent à mettre du contenu sponsorisé et c'est globalement la même chose (ie, au lieu d'un mécène, tu as un set de mécènes à ne pas fâcher, c'est juste marginalement mieux).

    Si c'est la disparition des pubs au profit d'abonnements, tu
    peux le faire savoir aux sites que tu consultes.

    Je pense que les abonnements me gène aussi parce que tout comme les journaux papiers, tu peux avoir un abonnement et de la pub (ou du tracking). Et donc je ne pense pas que l'abonnement soit une solution pour éviter la surveillance sur le long terme. Car après tout, pourquoi choisir entre les 2 sachant que tu peux avoir les 2 sans que ça gène personne ?

    Mais sinon non, comme le ton du journal semble le dire, je voulais juste lancer une discussion sur le sujet. Comme le fait remarquer Ethan Zuckerman (inventeur du popup, cf http://www.theatlantic.com/technology/archive/2014/08/advertising-is-the-internets-original-sin/376041/?single_page=true ), Ad nauseum est un add-on, qui a défaut d'arriver à ses fins, lance une discussion sur l'économie de l'attention assez facilement (source: http://www.ethanzuckerman.com/blog/2014/10/06/helen-nissenbaum-on-ad-nauseum-resistance-through-obfuscation-and-weapons-of-the-weak/ ).

    Donc voila, moi, ce que je veux, c'est lancer la discussion. C'est assez évident que j'ai sorti les chiffres de mon chapeau, et les discussions sur le blocage de pub implique toujours des discussions longues sur le sujet, avec des factions
    Donc plutôt que relancer encore une fois la discussion classique, voici une autre approche.

    Si en effet, le truc n'a aucun effet pour les annonceurs que rajouter du bruit, ça sera toujours du bruit en plus pour diminuer l'efficacité du tracking. Et plus encore, du bruit en plus pour la NSA (ou autre, cf les sondes IOL de Qosmos), qui n'a pas forcément le même besoin qu'une régie de se battre contre les bots qui polluent son dataset, vu que les contraintes et les incitations ne sont pas exactement les mêmes. IE, la NSA va pas se préoccuper trop d'exclure les bots qui cliquent de la merde ou d'exclure les spams, vu qu'il n'y a pas d'incitation financière pour ça (alors que tu pourrais imaginer qu'envoyer des informations cachés dans du spam fournirait une méthode assez intelligente de se camoufler si c'était le cas).

    Si le truc a un effet pour réduire l'impact d'une pub individuelle et pousser les gens à aller vers des structures comme Patreon pour l'abonnement (voir l'émergence des structures de micro paiement comme on voit dans les livres de SF, style ceux de Vernor Vinge), alors je pense que ça me parait plus efficace que d'aller voir les sites un par un pour leur dire "j'aimerais un abonnement".

    Et si ça force les petites régies de pubs qui sont celles qui AMHA font plus de la merde que Google (qui a le bon gout de tenter d'éviter de mettre des malwares et le bon gout de vouloir diminuer sa dépendance à la pub) à mourir ou à investir dans la R&D alors je pense que ça serait pas plus mal. En fait, vu le manque d'éthique du milieu de la pub, je ne verserait pas trop de larmes sur eux. (bien sur, ce qui va arriver après aux sites webs qui dépendent de la pub sera intéressant à voir, et rien que ça mérite d’accélérer une chute du modèle actuelle, ça doit être mon coté anarcho-nihiliste)

    Bien sur que le modèle exacte est facile à repérer dans un dataset si un humain regarde en détail, et pas uniquement parce que je le poste sur Linuxfr, (la ou tout ce qui se passe sur Linux se décide comme l'a dit un jour Kadalka).

    Mais à coté, personne ne peux prouver qu'il a été repéré, ni qu'on ne peux pas aboutir à un fonctionnement qu'on ne peux pas repérer avec des réglages plus fin que faire 5 recherches par minutes. Les régies de publicitaires ont toutes intérêt à dire que c'est facile à voir, voir que c'est déjà fait, car dire le contraire serait mettre en péril la confiance qu'on porte dans leur technologie et donc leur profits. À partir de la, c'est juste une histoire de persuasion des gens, plus que de véritable impact.

    Et c'est aussi l’intérêt d'un journal Linuxfr avec un titre et un contenu digne d'un click-bait sur facebook (en plus juste à la limite du foutage de gueule quand même), c'est de parler des 2 extensions et de voir l'effet de la discussion.

    Il y a des gens qui vont pas aimer. Il y a des gens qui vont trouver ça génial. Y a des gens qui vont poster pour dire que c'est n'importe quoi et d'autres pas. Et des gens qui vont installer les 2, reprendre les idées, les modifier, et tout ça.

  • [^] # Re: j'ai pas tout compris

    Posté par  (site web personnel) . En réponse au journal Financer le web proprement grâce à la pub et une paire de modules Firefox. Évalué à 3.

    J'ai 2 pc (enfin plus que ça).

    J'ai un pc portable que j'utilise pour le travail et la vie de tout les jours, et un autre qui a les 2 modules susnommés qui surfent pour moi, qui est dans mon salon et sur ma connexion internet.