damaki a écrit 389 commentaires

  • [^] # Re: Hmm

    Posté par  . En réponse au journal Des images disques toutes prêtes pour virtualiser toujours plus vite. Évalué à 10. Dernière modification le 22 janvier 2020 à 08:02.

    +1
    Je ne vois pas l'intérêt quand Hashicorp Packer fait ça en mieux, de façon transparente et customisable. Et si c'est un dérivé de Debian, avec Debootstrap ça met une dizaine de minutes pour faire une image disque (je vais pondre une vraie doc à ce sujet sur le wiki Debian d'ici peu).

    Le problème est déjà résolu, suivant !

  • # Contrat d'assurance ou de maintenance, comme tout le reste

    Posté par  . En réponse au journal Facturer comme un chirurgien. Évalué à 10. Dernière modification le 17 janvier 2020 à 08:55.

    Les entreprises ont totalement tort de ne pas encore considérer l'informatique comme un risque au même titre d'une inondation. Seules les grandes boîtes prennent de vrais contrats de maintenance sur le long terme et c'est un mauvais plan. La défaillance informatique est un risque et c'est logique d'avoir l'équivalent d'un mutuelle ou au moins un budget provisionné pour couvrir ce risque. Les interventions ne sont pas gratuites, et ça rémunère des vrais compétences. Alors certes, comme dans tous les domaines, les techniciens ne se valent pas tous, l'informatique n'a rien de spécial par rapport aux autres domaines.

    Et si un patron de TPE considère que l'informatique est un détail, ben je suis désolé, mais ses concurrents pour qui c'est importants eux réussiront. Et ils ne crèveront pas quand le disque dur de leur PC de compta aura crashé. De nos jours, on est obligé d'être aussi lettré en informatique.

  • [^] # Re: Euhhhhh....

    Posté par  . En réponse au journal Architecture locale de réception, envoi et filtrage de courriel. Évalué à 1.

    Si les perfs de recherche IMAP sont mauvaises. Par exemple, Gandi ne semble ne pas avoir d'index full text sur les emails pour l'IMAP, donc les performances sont moisies. Faire un IMAP miroir permettrait donc d'avoir un Roundcube avec des perfs potables.

  • # Index full text pour Dovecot

    Posté par  . En réponse au journal Architecture locale de réception, envoi et filtrage de courriel. Évalué à 1.

    La seule chose que je changerais, c'est ajouter Apache Solr pour avoir un index full text sur les mails. C'est toujours chouette de pas mettre des plombes à retrouver des infos dans un vieux mail.

  • # Sous-optim endémique

    Posté par  . En réponse au journal Tout cela me fatigue…. Évalué à 10.

    Plus j'utilise du matos pourri ou obsolète pour en faire des serveurs, plus ça me surprend la façon dont on arrive à dévorer toutes les ressources de RAM et de CPU sous la main sur des machines de bureau. J'ai un vieux Proliant de 2010 et pas du haut de gamme, qui consomme pas mal. Ça fait tourner toutes mes broutilles de la maison sous Proxmox, y compris mes serveurs Minecraft qui pourtant sont pas le top de l'optimisation. Mon matos que j'utilise le plus, c'est un pauvre dual core de gamme Pentium, mais ce machin sait même faire tourner un Hyper-V et un paquet de VMs et d'applis sans se plaindre. J'ai installé un Proxmox sur un laptop moyenne gamme de 2009 (core 2 duo), bah ça tourne avec un paquet de VMs, mais le site moyen rame dessus tellement le javascript bouffe de CPU.

    Bref, plus on utilise du vieux matos, plus on se rend compte à quel point tout est sous-optimisé et lent sur le web et sur le desktop. Le javascript moyen est foutument lent, mais un truc de malade.

    Sinon, côté taf, bossez dans une petite boîte et pas dans une startup qui se prend pour une licorne qu'elle ne sera jamais. Les petites boîtes ont pas le budget pour gaspiller du matos perpétuellement, ni tout mettre dans le cloud. Oui, sinon elles crèvent.

  • # Oscaro

    Posté par  . En réponse au journal une année de RGPD. Évalué à 10. Dernière modification le 27 décembre 2019 à 19:07.

    Je me suis délecté d'utiliser le RGPD sur Oscaro. En effet, ça faisait littéralement des années que je recevait des mails divers de ce site, des confirmations de commande, des suivis de la poste sur une adresse gmail, qu'en plus je n'utilise quasiment plus. Ok, donc ça pourrait être une erreur d'adresse mail dans leur base client, de plus ça semble être un homonyme de mon vrai nom.
    J'ai essayé de contacter directement la personne destinataire des colis par courrier, vu que j'avais son nom et son adresse, au cas où ce serait une vraie personne. Pas de résultat.
    RGPD arrive sur son cheval blanc, donc en 2019 je contacte directement Oscaro, en leur indiquant un email exemple que je reçois par erreur. Ils me répondent d'ignorer les emails. Je ne suis pas sûr que la loi pense pareil. Hahaha, on entre dans une zone amusante. Quelques mois plus tard, je reçois à nouveau un de leur email ; c'est le moment idéal pour déclencher une plainte à la CNIL. Hop, plainte déposée. La CNIL débordée accuse réception de ma demande par courrier quelques semaines plus tard. 3 mois plus tard, je reçois un mail d'excuse de la part d'Oscaro qui me garantissent désormais que mon adresse mail n'est plus dans leur base de données.

    Merci super RGPD !

  • # A court terme, pourquoi pas

    Posté par  . En réponse au journal Laminar: un outil d'intégration continue qui semble léger. Évalué à 6.

    Je maintiens des systèmes d'intégration continue et de déploiement continu (CI/CD) depuis maintenant une dizaine d'années. Un bon système d'intégration continue, ça doit être bien documenté, facile à administrer, fiable, déterministe et ne doit pas rendre obligatoire de s'y coupler fortement. Après vient la scalabilité, mais dans ce que tu me décris, ça ne semble pas être un problème.
    Franchement, Laminar remplit une grosse partie du contrat. C'est quasiment qu'une interface pour afficher des résultats de build. Je suis juste sceptique sur sa pérennité, parce que coder ça en C++ ne semble pas très pertinent pour une interface web. Mais c'est pas franchement risqué de s'y engager vu que le couplage reste faible avec ses scripts shell à la place d'un langage de pipeline comme c'est actuellement la mode (Jenkins, gitlab, …).
    En ce qui concerne les intégrations, ça fait voyager dans le monde du vendor lock-in et/ou dans l'enfer des plugins gratuits de CI/CD. J'aimerais bien avoir de beaux outils parfaits à te proposer, mais l'offre libre de CI/CD n'est pas au beau fixe. Soit on a des outils fragiles avec plein de plugins de qualité variable au rythme de maintenance aléatoire (Jenkins), soit on a des trucs sous documentés (Concourse), pleins de contraintes (Drone) ou une conso délirante de ressources (Gitlab).
    Côté logiciels propriétaires, oui, faudra se fader des interfaces web. Teamcity est un plaisir à utiliser et administrer, son offre gratuite est potable pour de petits projets. Il encourage très fortement au vendor lock-in, hélas.

  • [^] # Re: 4 disques sur un seul pi ou un cluster

    Posté par  . En réponse au journal Une solution de stockage basée sur Raspberry Pi. Évalué à 0. Dernière modification le 19 décembre 2019 à 12:34.

    Sauf si le stockage ceph sert lui-même de sauvegarde

    Une sauvegarde en ligne, j'appelle pas exactement ça une sauvegarde.

  • [^] # Re: Supervision

    Posté par  . En réponse au journal appli web cooperative viticole. Évalué à 2.

    Effectivement, ça m'a directement fait penser aux outils de supervision, genre InfluxDB et Grafana pour ceux qu'on utilise en prod.

  • # Complexe et fragile, pourquoi pas USB 3.0 ?

    Posté par  . En réponse au journal Une solution de stockage basée sur Raspberry Pi. Évalué à 2. Dernière modification le 17 décembre 2019 à 13:31.

    Ça me semble compliqué et fragile (impossible de ventiler le RPI4) par rapport à juste utiliser des disques en USB 3.0 sur un Raspberry Pi 4. De toute façon, sans ventilation, faut pas s'attendre à des perfs intéressantes sur le RPI 4 sans ventilation, donc ça sera pas si pire en USB 3.0. Et c'est même pas sûr que ça soit moins cher que d'acheter un vrai NAS 2 disques bas de gamme en soldes.

  • [^] # Re: on s'y perd

    Posté par  . En réponse à la dépêche Loki, centralisation de logs à la sauce Prometheus. Évalué à 1. Dernière modification le 01 décembre 2019 à 15:42.

    Logstash est un adaptateur principalement pour les logs, un équivalent log de Telegraf. En entrée, ça prend plein de formats différents de logs, que ça permet ensuite de parser, reformater et d'enrichir suivant des règles sur mesure. En sortie, on peut les balancer vers ce qu'on veut, entre autres une base Elastic Search, un syslog, une base Postgresql.
    A noter qu'il semble qu'ils ont pas mal ajouté de trucs pour la métrologie, même si j'ai tendance à être sceptique là dessus vu que c'était vraiment orienté logs à l'origine.

  • # Au sujet des TMS : pédaliers USB

    Posté par  . En réponse au journal NoComprendo, la commande vocale pour Linux. Évalué à 10.

    Pour les problèmes de raccourcis claviers douloureux, il y a toujours les pédaliers USB. C'est généralement détecté comme une manette de jeu, et donc c'est bidouillable à souhait.

  • [^] # Re: Paperwork

    Posté par  . En réponse au journal Centralisation de factures. Évalué à 4.

    Oups pardon, je réponds pas du tout au besoin. Désolé !

  • # Paperwork

    Posté par  . En réponse au journal Centralisation de factures. Évalué à 5.

    Il y a Paperwork, si vous avez un scanner compatible ou lesdites factures déjà scannées en PDF ou jpeg. Ça peut aussi être combiné avec Nextcloud, Cozycloud et compagnie pour pouvoir l'utiliser sur plusieurs postes.

  • # Différents systèmes de mise à jour sont désirables

    Posté par  . En réponse au journal Systèmes de mise à jour. Évalué à 6. Dernière modification le 27 novembre 2019 à 10:47.

    A moins d'être un M/Mme Michu, on ne veut pas avoir un seul et unique système de mise à jour.
    Typiquement, je veux que mon OS ait des mises à jour de sécurité régulières, une fois par semaine, mais minimiser les évolutions majeures, moins de deux par an.
    Je veux que ma suite bureautique soit stable, moins d'une mise à jour tous les 6 mois.
    Je veux que mes navigateurs et leurs extensions soient mis à jour régulièrement avec de nouvelles fonctionnalités, de la sécurité et des performances accrues.
    Je veux que mes jeux vidéo soient mis à jour au max une fois par mois pour pouvoir s'habituer à une certaine cohérence du gameplay.
    Je veux que mes OS serveur soient ultra stables et mis à jour une fois toutes les deux semaines au max, pour du critique, et une fois par mois pour le non-critique, et éviter au max les mises à jour majeures, max tous les deux ans.
    Je veux que mon téléphone soit mis à jour tous les mois pour les patches de sécurité.
    Je veux que les applis de mon téléphone soient mis à jour au max une fois par mois.
    Je veux que mes outils de DEV puissent avoir des version potentiellement non sécurisées et esquiver toutes les mises à jour que je souhaite pour être iso environnement cible.

    Tous ces besoins sont indépendants les uns des autres et certains sont totalement contradictoires. Aucun système de mise à jour ne peut satisfaire tous ces besoins, c'est cohérent d'avoir différents systèmes de mise à jour avec des cycles contradictoires pour supporter les besoins des utilisateurs.

  • [^] # Re: Complexité infinie

    Posté par  . En réponse au journal Informatique et écologie. Évalué à -1.

    Des économistes ne sont pas des oracles. Par contre des macro-comptables, oui.

  • [^] # Re: Je parle avec les gens

    Posté par  . En réponse au journal QOS à la maison : comment vous faites?. Évalué à 6. Dernière modification le 26 novembre 2019 à 16:41.

    Ça suppose que ce soit facile de diagnostiquer le coupable. Si on regarde dans la vraie vie, on a Windows, Android et leurs amis qui adorent télécharger silencieusement des grosses quantités de données pour des mises à jour. On a Netflix ou les autres services de données, qui téléchargent beaucoup ou pas, suivant les vidéos et le sens du vent. On a des services au pif sur le web qui explosent en flammes si t'as pas un ping potable et une bande passante décente. Et on a des jeux en ligne qui demande une grosse disponibilité ponctuelle de bande passante et un ping potable en général.

    Bref, c'est quand même plus simple d'avoir un gros bouton QoS sur la box ou sur un routeur que de se lancer dans du monitoring et de l'analyse de tous les flux réseau chez soi.

  • # Complexité infinie

    Posté par  . En réponse au journal Informatique et écologie. Évalué à 3. Dernière modification le 26 novembre 2019 à 16:25.

    C'est vraiment un sujet à tiroirs. Si j'évalue combien de CO2 représente ma requête Google :
    - conso de tous les serveurs, équipements réseau et équipements électriques pour répondre à ma demande
    - coût de fabrication de tous les équipements cités ci-avant, et en prenant une fraction de leur durée de vie
    - coût de recyclage de tous les équipements une fois qu'ils sont décomissionnés
    - coût du transfert des données présentes sur les serveurs pour pouvoir assurer ma requête
    - coût de rendre les données en question disponibles en permanences (stockage distribués et sauvegardes)
    - coût de fabrication des données présentes sur lesdits serveurs
    - empreinte carbone de l'audit qu'on est en train de faire

    C'est une problématique réellement sans fin. Faudrait demander à des économistes, franchement.

  • [^] # Re: Informatique personnel

    Posté par  . En réponse au journal Serveurs S3 sous linux : une comparaison parmi tant d'autres. Évalué à 1. Dernière modification le 26 novembre 2019 à 14:31.

    Je retire ce que j'ai dit, la 1.0.0 vient de sortir et la haute disponibilité a débarqué.

  • # Autrefois OpenWRT

    Posté par  . En réponse au journal QOS à la maison : comment vous faites?. Évalué à 4.

    Autrefois, j'utilisais la fonctionnalité magique correspondante dans OpenWRT. Maintenant, on a la fibre et on arrive plus à saturer la ligne.

  • [^] # Re: Utilisation

    Posté par  . En réponse au journal Serveurs S3 sous linux : une comparaison parmi tant d'autres. Évalué à 1.

    Selon moi, l'intérêt numéro 1 est le stockage illimité et une abstraction au dessus des filesystems. c'est devenu le plus gros standard dans ce domaine.

    Pour un particulier, tout dépend de tes besoins en stockage de données. L'utilisation la plus évidente est de brancher ton joli NAS sur une instance compatible S3 pour de la réplication ou des backups réguliers. QNAP ou même OpenMediaVault sont compatibles.

  • # Débits inadaptés

    Posté par  . En réponse au journal Bluetooth? C'est quoi pour une technologie de m***?. Évalué à 2. Dernière modification le 25 novembre 2019 à 10:41.

    Le Bluetooth a des débits nazes (1400 Kbps en version 5 avec le vent dans le dos, jamais vu en vrai) et à moins d'avoir un émetteur et un récepteur de très bonne qualité, en même version de Bluetooth, ça coupe tout le temps. Autant, pour de l'audio, les microcoupures et les corruptions ne sont pas forcément un souci, mais pour des fichiers, ça demande une transmission d'une meilleure stabilité et d'un bon débit. Pour transférer des fichier depuis/vers mon téléphone, j'utilise exclusivement des partages réseau Windows en Wifi et/ou un Nextcloud en 4G ou wifi.

  • [^] # Re: GridFS

    Posté par  . En réponse au journal Serveurs S3 sous linux : une comparaison parmi tant d'autres. Évalué à 1. Dernière modification le 25 novembre 2019 à 10:29.

  • [^] # Re: Informatique personnel

    Posté par  . En réponse au journal Serveurs S3 sous linux : une comparaison parmi tant d'autres. Évalué à 1. Dernière modification le 25 novembre 2019 à 10:26.

    Et jusqu'à arriver à un niveau de complexité où Kubernetes commence à briller, Ansible fera largement l'affaire. Franchement, si vos applis ne sont pas répliquées sur un paquet de serveurs, le ratio gain d'opérabilité/augmentation de la complexité n'est pas très favorable à Kubernetes.
    Mais sinon, c'est un jouet amusant sur un petit cluster, oui. Ça n'a pas forcément besoin d'être utile, de toute façon ;)

    Ah et en passant, K3S n'est pas encore considéré comme utilisable en production à caise de la haute dispo pas encore assez solide. Mais c'est très chouette pour faire des POCs.

  • # Réponse simple : projet communautaire et personne pour maintenir

    Posté par  . En réponse au journal La question qui m'empêche de dormir. Évalué à 9. Dernière modification le 21 novembre 2019 à 11:15.

    En regardant sur la page du paquet dans le tracker, c'est plutôt simple. Debian est un projet communautaire, et s'il n'y a pas de faille de sécurité avérée, le code n'est mis à jour que si le ou les uploaders le mettent à jour. Les uploaders principaux, ont abandonné le paquet. Pas d'uploader attitré et pas de bugs critiques donc pas de mise à jour.