damaki a écrit 385 commentaires

  • # Sous-optim endémique

    Posté par  . En réponse au journal Tout cela me fatigue…. Évalué à 10.

    Plus j'utilise du matos pourri ou obsolète pour en faire des serveurs, plus ça me surprend la façon dont on arrive à dévorer toutes les ressources de RAM et de CPU sous la main sur des machines de bureau. J'ai un vieux Proliant de 2010 et pas du haut de gamme, qui consomme pas mal. Ça fait tourner toutes mes broutilles de la maison sous Proxmox, y compris mes serveurs Minecraft qui pourtant sont pas le top de l'optimisation. Mon matos que j'utilise le plus, c'est un pauvre dual core de gamme Pentium, mais ce machin sait même faire tourner un Hyper-V et un paquet de VMs et d'applis sans se plaindre. J'ai installé un Proxmox sur un laptop moyenne gamme de 2009 (core 2 duo), bah ça tourne avec un paquet de VMs, mais le site moyen rame dessus tellement le javascript bouffe de CPU.

    Bref, plus on utilise du vieux matos, plus on se rend compte à quel point tout est sous-optimisé et lent sur le web et sur le desktop. Le javascript moyen est foutument lent, mais un truc de malade.

    Sinon, côté taf, bossez dans une petite boîte et pas dans une startup qui se prend pour une licorne qu'elle ne sera jamais. Les petites boîtes ont pas le budget pour gaspiller du matos perpétuellement, ni tout mettre dans le cloud. Oui, sinon elles crèvent.

  • # Oscaro

    Posté par  . En réponse au journal une année de RGPD. Évalué à 10. Dernière modification le 27 décembre 2019 à 19:07.

    Je me suis délecté d'utiliser le RGPD sur Oscaro. En effet, ça faisait littéralement des années que je recevait des mails divers de ce site, des confirmations de commande, des suivis de la poste sur une adresse gmail, qu'en plus je n'utilise quasiment plus. Ok, donc ça pourrait être une erreur d'adresse mail dans leur base client, de plus ça semble être un homonyme de mon vrai nom.
    J'ai essayé de contacter directement la personne destinataire des colis par courrier, vu que j'avais son nom et son adresse, au cas où ce serait une vraie personne. Pas de résultat.
    RGPD arrive sur son cheval blanc, donc en 2019 je contacte directement Oscaro, en leur indiquant un email exemple que je reçois par erreur. Ils me répondent d'ignorer les emails. Je ne suis pas sûr que la loi pense pareil. Hahaha, on entre dans une zone amusante. Quelques mois plus tard, je reçois à nouveau un de leur email ; c'est le moment idéal pour déclencher une plainte à la CNIL. Hop, plainte déposée. La CNIL débordée accuse réception de ma demande par courrier quelques semaines plus tard. 3 mois plus tard, je reçois un mail d'excuse de la part d'Oscaro qui me garantissent désormais que mon adresse mail n'est plus dans leur base de données.

    Merci super RGPD !

  • # A court terme, pourquoi pas

    Posté par  . En réponse au journal Laminar: un outil d'intégration continue qui semble léger. Évalué à 6.

    Je maintiens des systèmes d'intégration continue et de déploiement continu (CI/CD) depuis maintenant une dizaine d'années. Un bon système d'intégration continue, ça doit être bien documenté, facile à administrer, fiable, déterministe et ne doit pas rendre obligatoire de s'y coupler fortement. Après vient la scalabilité, mais dans ce que tu me décris, ça ne semble pas être un problème.
    Franchement, Laminar remplit une grosse partie du contrat. C'est quasiment qu'une interface pour afficher des résultats de build. Je suis juste sceptique sur sa pérennité, parce que coder ça en C++ ne semble pas très pertinent pour une interface web. Mais c'est pas franchement risqué de s'y engager vu que le couplage reste faible avec ses scripts shell à la place d'un langage de pipeline comme c'est actuellement la mode (Jenkins, gitlab, …).
    En ce qui concerne les intégrations, ça fait voyager dans le monde du vendor lock-in et/ou dans l'enfer des plugins gratuits de CI/CD. J'aimerais bien avoir de beaux outils parfaits à te proposer, mais l'offre libre de CI/CD n'est pas au beau fixe. Soit on a des outils fragiles avec plein de plugins de qualité variable au rythme de maintenance aléatoire (Jenkins), soit on a des trucs sous documentés (Concourse), pleins de contraintes (Drone) ou une conso délirante de ressources (Gitlab).
    Côté logiciels propriétaires, oui, faudra se fader des interfaces web. Teamcity est un plaisir à utiliser et administrer, son offre gratuite est potable pour de petits projets. Il encourage très fortement au vendor lock-in, hélas.

  • [^] # Re: 4 disques sur un seul pi ou un cluster

    Posté par  . En réponse au journal Une solution de stockage basée sur Raspberry Pi. Évalué à 0. Dernière modification le 19 décembre 2019 à 12:34.

    Sauf si le stockage ceph sert lui-même de sauvegarde

    Une sauvegarde en ligne, j'appelle pas exactement ça une sauvegarde.

  • [^] # Re: Supervision

    Posté par  . En réponse au journal appli web cooperative viticole. Évalué à 2.

    Effectivement, ça m'a directement fait penser aux outils de supervision, genre InfluxDB et Grafana pour ceux qu'on utilise en prod.

  • # Complexe et fragile, pourquoi pas USB 3.0 ?

    Posté par  . En réponse au journal Une solution de stockage basée sur Raspberry Pi. Évalué à 2. Dernière modification le 17 décembre 2019 à 13:31.

    Ça me semble compliqué et fragile (impossible de ventiler le RPI4) par rapport à juste utiliser des disques en USB 3.0 sur un Raspberry Pi 4. De toute façon, sans ventilation, faut pas s'attendre à des perfs intéressantes sur le RPI 4 sans ventilation, donc ça sera pas si pire en USB 3.0. Et c'est même pas sûr que ça soit moins cher que d'acheter un vrai NAS 2 disques bas de gamme en soldes.

  • [^] # Re: on s'y perd

    Posté par  . En réponse à la dépêche Loki, centralisation de logs à la sauce Prometheus. Évalué à 1. Dernière modification le 01 décembre 2019 à 15:42.

    Logstash est un adaptateur principalement pour les logs, un équivalent log de Telegraf. En entrée, ça prend plein de formats différents de logs, que ça permet ensuite de parser, reformater et d'enrichir suivant des règles sur mesure. En sortie, on peut les balancer vers ce qu'on veut, entre autres une base Elastic Search, un syslog, une base Postgresql.
    A noter qu'il semble qu'ils ont pas mal ajouté de trucs pour la métrologie, même si j'ai tendance à être sceptique là dessus vu que c'était vraiment orienté logs à l'origine.

  • # Au sujet des TMS : pédaliers USB

    Posté par  . En réponse au journal NoComprendo, la commande vocale pour Linux. Évalué à 10.

    Pour les problèmes de raccourcis claviers douloureux, il y a toujours les pédaliers USB. C'est généralement détecté comme une manette de jeu, et donc c'est bidouillable à souhait.

  • [^] # Re: Paperwork

    Posté par  . En réponse au journal Centralisation de factures. Évalué à 4.

    Oups pardon, je réponds pas du tout au besoin. Désolé !

  • # Paperwork

    Posté par  . En réponse au journal Centralisation de factures. Évalué à 5.

    Il y a Paperwork, si vous avez un scanner compatible ou lesdites factures déjà scannées en PDF ou jpeg. Ça peut aussi être combiné avec Nextcloud, Cozycloud et compagnie pour pouvoir l'utiliser sur plusieurs postes.

  • # Différents systèmes de mise à jour sont désirables

    Posté par  . En réponse au journal Systèmes de mise à jour. Évalué à 6. Dernière modification le 27 novembre 2019 à 10:47.

    A moins d'être un M/Mme Michu, on ne veut pas avoir un seul et unique système de mise à jour.
    Typiquement, je veux que mon OS ait des mises à jour de sécurité régulières, une fois par semaine, mais minimiser les évolutions majeures, moins de deux par an.
    Je veux que ma suite bureautique soit stable, moins d'une mise à jour tous les 6 mois.
    Je veux que mes navigateurs et leurs extensions soient mis à jour régulièrement avec de nouvelles fonctionnalités, de la sécurité et des performances accrues.
    Je veux que mes jeux vidéo soient mis à jour au max une fois par mois pour pouvoir s'habituer à une certaine cohérence du gameplay.
    Je veux que mes OS serveur soient ultra stables et mis à jour une fois toutes les deux semaines au max, pour du critique, et une fois par mois pour le non-critique, et éviter au max les mises à jour majeures, max tous les deux ans.
    Je veux que mon téléphone soit mis à jour tous les mois pour les patches de sécurité.
    Je veux que les applis de mon téléphone soient mis à jour au max une fois par mois.
    Je veux que mes outils de DEV puissent avoir des version potentiellement non sécurisées et esquiver toutes les mises à jour que je souhaite pour être iso environnement cible.

    Tous ces besoins sont indépendants les uns des autres et certains sont totalement contradictoires. Aucun système de mise à jour ne peut satisfaire tous ces besoins, c'est cohérent d'avoir différents systèmes de mise à jour avec des cycles contradictoires pour supporter les besoins des utilisateurs.

  • [^] # Re: Complexité infinie

    Posté par  . En réponse au journal Informatique et écologie. Évalué à -1.

    Des économistes ne sont pas des oracles. Par contre des macro-comptables, oui.

  • [^] # Re: Je parle avec les gens

    Posté par  . En réponse au journal QOS à la maison : comment vous faites?. Évalué à 6. Dernière modification le 26 novembre 2019 à 16:41.

    Ça suppose que ce soit facile de diagnostiquer le coupable. Si on regarde dans la vraie vie, on a Windows, Android et leurs amis qui adorent télécharger silencieusement des grosses quantités de données pour des mises à jour. On a Netflix ou les autres services de données, qui téléchargent beaucoup ou pas, suivant les vidéos et le sens du vent. On a des services au pif sur le web qui explosent en flammes si t'as pas un ping potable et une bande passante décente. Et on a des jeux en ligne qui demande une grosse disponibilité ponctuelle de bande passante et un ping potable en général.

    Bref, c'est quand même plus simple d'avoir un gros bouton QoS sur la box ou sur un routeur que de se lancer dans du monitoring et de l'analyse de tous les flux réseau chez soi.

  • # Complexité infinie

    Posté par  . En réponse au journal Informatique et écologie. Évalué à 3. Dernière modification le 26 novembre 2019 à 16:25.

    C'est vraiment un sujet à tiroirs. Si j'évalue combien de CO2 représente ma requête Google :
    - conso de tous les serveurs, équipements réseau et équipements électriques pour répondre à ma demande
    - coût de fabrication de tous les équipements cités ci-avant, et en prenant une fraction de leur durée de vie
    - coût de recyclage de tous les équipements une fois qu'ils sont décomissionnés
    - coût du transfert des données présentes sur les serveurs pour pouvoir assurer ma requête
    - coût de rendre les données en question disponibles en permanences (stockage distribués et sauvegardes)
    - coût de fabrication des données présentes sur lesdits serveurs
    - empreinte carbone de l'audit qu'on est en train de faire

    C'est une problématique réellement sans fin. Faudrait demander à des économistes, franchement.

  • [^] # Re: Informatique personnel

    Posté par  . En réponse au journal Serveurs S3 sous linux : une comparaison parmi tant d'autres. Évalué à 1. Dernière modification le 26 novembre 2019 à 14:31.

    Je retire ce que j'ai dit, la 1.0.0 vient de sortir et la haute disponibilité a débarqué.

  • # Autrefois OpenWRT

    Posté par  . En réponse au journal QOS à la maison : comment vous faites?. Évalué à 4.

    Autrefois, j'utilisais la fonctionnalité magique correspondante dans OpenWRT. Maintenant, on a la fibre et on arrive plus à saturer la ligne.

  • [^] # Re: Utilisation

    Posté par  . En réponse au journal Serveurs S3 sous linux : une comparaison parmi tant d'autres. Évalué à 1.

    Selon moi, l'intérêt numéro 1 est le stockage illimité et une abstraction au dessus des filesystems. c'est devenu le plus gros standard dans ce domaine.

    Pour un particulier, tout dépend de tes besoins en stockage de données. L'utilisation la plus évidente est de brancher ton joli NAS sur une instance compatible S3 pour de la réplication ou des backups réguliers. QNAP ou même OpenMediaVault sont compatibles.

  • # Débits inadaptés

    Posté par  . En réponse au journal Bluetooth? C'est quoi pour une technologie de m***?. Évalué à 2. Dernière modification le 25 novembre 2019 à 10:41.

    Le Bluetooth a des débits nazes (1400 Kbps en version 5 avec le vent dans le dos, jamais vu en vrai) et à moins d'avoir un émetteur et un récepteur de très bonne qualité, en même version de Bluetooth, ça coupe tout le temps. Autant, pour de l'audio, les microcoupures et les corruptions ne sont pas forcément un souci, mais pour des fichiers, ça demande une transmission d'une meilleure stabilité et d'un bon débit. Pour transférer des fichier depuis/vers mon téléphone, j'utilise exclusivement des partages réseau Windows en Wifi et/ou un Nextcloud en 4G ou wifi.

  • [^] # Re: GridFS

    Posté par  . En réponse au journal Serveurs S3 sous linux : une comparaison parmi tant d'autres. Évalué à 1. Dernière modification le 25 novembre 2019 à 10:29.

  • [^] # Re: Informatique personnel

    Posté par  . En réponse au journal Serveurs S3 sous linux : une comparaison parmi tant d'autres. Évalué à 1. Dernière modification le 25 novembre 2019 à 10:26.

    Et jusqu'à arriver à un niveau de complexité où Kubernetes commence à briller, Ansible fera largement l'affaire. Franchement, si vos applis ne sont pas répliquées sur un paquet de serveurs, le ratio gain d'opérabilité/augmentation de la complexité n'est pas très favorable à Kubernetes.
    Mais sinon, c'est un jouet amusant sur un petit cluster, oui. Ça n'a pas forcément besoin d'être utile, de toute façon ;)

    Ah et en passant, K3S n'est pas encore considéré comme utilisable en production à caise de la haute dispo pas encore assez solide. Mais c'est très chouette pour faire des POCs.

  • # Réponse simple : projet communautaire et personne pour maintenir

    Posté par  . En réponse au journal La question qui m'empêche de dormir. Évalué à 9. Dernière modification le 21 novembre 2019 à 11:15.

    En regardant sur la page du paquet dans le tracker, c'est plutôt simple. Debian est un projet communautaire, et s'il n'y a pas de faille de sécurité avérée, le code n'est mis à jour que si le ou les uploaders le mettent à jour. Les uploaders principaux, ont abandonné le paquet. Pas d'uploader attitré et pas de bugs critiques donc pas de mise à jour.

  • [^] # Re: Un successeur à NNTP ?

    Posté par  . En réponse au journal Usenet est-il vraiment mort ?. Évalué à 0. Dernière modification le 20 novembre 2019 à 08:38.

    Un successeur similaire est-il vraiment désirable ? J'ai le sentiment que le successeur de NNTP, ce sont les forums et leurs différentes variantes (Reddit, Stackoverflow, Disqus), mais aussi les groupes dans les réseaux sociaux. Tout ça est décentralisé grâce à la multiplicité des canaux, des serveurs et les messages ont une durée de vie bien supérieure à la plupart des serveurs Usenet. Les forums datant du début des années 2000 sont encore légion, alors que trouver des messages de la même période sur Usenet demande un certain travail de recherche d'hébergeur. Hormis un mégaprotocole standardisé, ce qui n'arrivera jamais, on a déjà une belle diversité de plateformes sur les internets.

  • # Limiter, ça se discute

    Posté par  . En réponse au journal Freetube. Évalué à 5.

    Limiter le tracking, oui, mais à condition d'être natté et que l'appli soit capable de générer des headers discrets. Parce que sinon, à moins qu'il y ait 100 personnes chez toi, tu vas quand même obtenir un joli profilage par IP. Et faut aussi que FreeTube soit très utilisée, parce que sinon, un client Youtube avec des motifs d'utilisations très différents de la normale, des headers différents et qui ne télécharge pas les pubs attendues, ça peut se corréler.

    Tout ça ne reste évidemment que des hypothèses ; les méthodes de tracking sur Youtube ne sont pas open source. Mais j'aurais tendance à penser que c'est pire que ce qu'on imagine.

  • # Binaries

    Posté par  . En réponse au journal Usenet est-il vraiment mort ?. Évalué à 6.

    Je ne sais pas si c'est une bonne nouvelle, mais les binaries se portent toujours assez bien. L'offre a un peu baissé mais reste pléthorique quand même. Effectivement, en ce qui concerne la discute, c'est clairement mort. Difficile de rivaliser avec les mastodontes comme Reddit.

  • [^] # Re: MOOC, pire forme d'éducation

    Posté par  . En réponse au journal Open Education. Évalué à 3. Dernière modification le 18 novembre 2019 à 09:59.

    Comme indiqué dans la première référence que tu donnes, on ne doit pas trop vite tirer des conclusions sur les taux de réussite des MOOCs vu la facilité et l’absence de coût pour s’inscrire.

    Mais c'est justement le centre du sujet : l'absence de contrainte, et c'est cette liberté qui rend les MOOCs inefficaces, à mon sens. Une formation ça demande des contraintes. En effet, il faut mobiliser un temps exclusif et régulier pour travailler. Le meilleur moyen de le faire est d'avoir des cours toute la semaine sur un lieu dédié avec peu de distractions. C'est contraignant, mais ça fait partie de la démarche, par l'implication. Les seules personnes que j'ai vu réussir en étude au CNAM se déplaçaient très régulièrement sur place, ont déménagé loin de leur femme/famille/etc… bref, on en revient selon moi toujours à la contrainte de présence, pour une interaction optimale et assurer qu'on alloue le temps nécessaire à l'apprentissage.

    2) Pour ce qui est d’apprendre à coder, j’ai l’impression qu’il y a moyen de faire des exercices intéressants avec les moyens modernes. Pour un exemple un peu simpliste voir le Tour de Go.

    Je souhaite différencier entre une formation complète à un métier et une compétence supplémentaire. On peut grosso modo apprendre à écrire du Java à peu près fonctionnel en deux mois. Mais ça ne fera pas de vous un développeur chevronné, vous ne connaîtrez pas les design patterns, ou alors pas les tests unitaires ou pas l'injection de dépendances. Donc apprendre une compétence en plus pour son métier et apprendre un métier sont deux choses totalement différentes. Je suis convaincu qu'on peut apprendre certaines compétences avec des livres ou des MOOCs, clairement, mais pour apprendre un métier totalement, ça me semble inadapté.

    Pour le choix MOOC versus livre, il me semble que c’est une question de goût. Par ailleurs, pour certains sujets, les vidéos sont bien plus utiles. Par exemple de nouveau ce MOOC des Gobelins.

    Tout à fait. Ça dépend des gens et du sujet. Je trouve que les vidéos et Powerpoint sont complètement inefficaces pour quasiment tous les sujets informatiques, sauf juste de la vulgarisation. Entre autres, c'est parce qu'on ne peut pas faire de copier-coller de code montré dans une vidéo et parce que le rythme est forcément dicté par la vidéo, alors qu'un texte peut être parcouru à la vitesse où on veut.

    @InfoLibre, pour avoir discuté avec des enseignants canadiens récemment, je ne peux que m’inscrire en faux par rapport à ton affirmation selon laquelle l’enseignement à distance ne peut pas bien fonctionner. La majorité de leur étudiants travaillaient à distance. Mais ce n’était pas des MOOCs mais plutôt ce qu’aujourd’hui on appelerait des SPOCs et clairement ils travaillent la question de la relation avec les étudiants distants.

    Intéressant.