oau a écrit 225 commentaires

  • # Qwant

    Posté par  . En réponse au journal [HS] Microsoft ♥ Linux - Episode V "Qwantanamera". Évalué à 4.

    Bonjour,

    un petit message concernant qwant. J'ai été un utilisateur exclusif de qwant pendant, je dirais pratiquement 3ans. Très honnêtement je trouvais ça vraiment bien. Mes recherches étaient fructueuses, tout était bien.

    Par contre il y a 6 mois j'ai changé un peu de sujet dans mes recherches. Kubernetes, pandas, timescaledb, R. Et soudain je ne trouvais plus grand chose. Je suis repassé chez google et depuis mes recherches sont satisfaisantes.

    Je suis le premier à cracher sur google. Je trouve leurs outils pas forcément top (gmail, googledoc, android est une purge) et l'idée d'avoir toute ma vie chez un tiers ne me plaît pas du tout. Par contre depuis le début on a beau dire mais google a le meilleur moteur de recherche qui existe.

    Oui ça me fait mal dans le fondement de le dire mais il me semble que c'est plutôt vrai et c'est bien dommage.

    De mon point de vue la recherche sur internet et mon téléphone me semble être les derniers endroits ou ma vie professionnelle et personnelle me mène sans que je puisse y amener du logiciel libre. Vivement que je puisse me payer un librem et il ne restera que la recherche sur internet.

    bien à vous

    oau

  • # Le strict minimum

    Posté par  . En réponse au sondage Quel objet inutile avez‐vous sur votre bureau ?. Évalué à 2.

    un papier, un crayon et son taille crayon. Ma bouteille d'eau d'un litre et ma tasse à café.

  • [^] # Re: On s'en fout de Linux, c'est un kernel interchangeable.

    Posté par  . En réponse au journal Windows est enfin prêt pour le desktop . Évalué à 3.

    tiens je me sens moins seul :)

  • # Jouer sous linux c'est jouable

    Posté par  . En réponse au journal Google Stadia : une chance pour le jeu sous Linux (desktop) ?. Évalué à 1.

    bonjour,

    c'est dommage qu'il manque dans cet article les deux points les plus important concernant le jeux vidéo sous linux aujourd'hui.

    Je parle de dxvk qui est un wrapper directx11 vulkan qui fonctionne très bien et vkd3d qui est la même chose pour directx12. Je joue à wow à plus de 100fps en directx11 sans aucun problème et de nombreux jeux fonctionnent. Avec vkd3d il semble que ça déconne un peu.

    Le second point c'est l'ajout de proton dans steam. Je n'ai pas vraiment testé mais quand je l'active dans mon steam toute ma ludothèque steam devient jouable sous linux. A tester.

    La seule chose pénible quand on joue sous linux c'est de courir après les patchs lors de chaque mise à jour de jeux. Pour wow c'est assez frappant. Mais c'est intrinsèque au modèle. Un même jeu qui évolue très régulièrement. A chaque patch de wow il faut se retaper une config wine. Mais pour d'autre jeux comme path of exile, hearstone ou kerbal space program c'est une config une fois et ça marche.

    j'ai acheté un latop, avec un windows. Je l'ai ramené aussi sec. J'ai eu la naïveté de me dire que maintenant avec une debian dans un windows j'aurais pu avoir le meilleurs des deux mondes. i3 et vim pour coder et faire de l'admin, windows pour jouer. Le tout sur la même machine et "en même temps" comme dirait l'autre. Que quand même en 2019 après 10 version de windows ça devrait quand même marcher. Et bien non, retourner sous Windows après 15 ans c'est plus possible. J'ai persisté. Un peu. Quelques jours. Mais même avec une machine hors de prix tout est lent, lourd, compliqué. Avoir un panneau de pub qui prend un quart de l'écran quand on ouvre le menu démarrer ça m'a refroidi direct. Bref j'ai ramené la machine au magasin et on m'a remboursé. Merci materiel.net !

  • [^] # Re: En finir avec les jeux natifs?

    Posté par  . En réponse au journal Google Stadia : une chance pour le jeu sous Linux (desktop) ?. Évalué à 8.

    A propos de la 5G : https://www.franceculture.fr/emissions/du-grain-a-moudre/la-5g-va-t-elle-nous-simplifier-la-vie

    Il semblerait que la 5G ne permette de fournis du soi disant 1Gbps/5ms sur de très courte distance. La ou probablement il y aura déjà la fibre. Et par contre à la campagne la 5g sera pertinente pour faire de la 4G+. Alors la 5g pour faire du stream de jeux vidéo je n'y crois pas une seconde. Dans le canardpc de ce mois ci il y a un article fort pertinent sur le sujet.

  • [^] # Re: Bien pour des données en volume raisonnable

    Posté par  . En réponse au journal Bibliothèques Python utiles à l'analyse des données. Évalué à 5.

    Bonjour,

    sans vouloir du tout polémiquer je voudrais mettre un bémol la dessus et voudrais partager mon expérience. Dans ma boite on fait du monitoring et de l'analyse de données remontées par différentes sortes d'équipements. Ça va de capteurs infrarouges et de fermeture de porte, à des équipements réseaux en passant par des métriques de serveurs ou des montres connectées.

    Mais globalement on stocke des données simples : un timestamp => une série de valeurs. Quand on a commencé on m'a parlé de hadoop, de spark, de datalake, que lorsque j'aurais plusieurs centaines de tera de données j'allais avoir des problèmes pour accéder à mes données et les traitées.

    N'y connaissant pas grand chose je me suis renseigné et j'ai trouvé que niveau mise en place et admin c'était très lourd. Surtout hadoop. Bref je n'ai pas fait ce choix. Je suis bêtement parti sur un postgres, car c'est simple, robuste, performant, standard (vive le sql (en fait non vive les orm :))), que les ressources humaines sont plus simple à trouver etc. Et franchement je ne regrette pas. Nous avons plusieurs centaines de tera de données, nous insérons plusieurs dizaines de giga par jours et tout va bien. Ca reste du postgres. Petite subtilité par contre. Nous utilisons un plugin dans postgres : timescaledb. Et pour aggrandir le disque dans postgres sans se prendre la tête notre postgres tourne dans ceph.

    Honnêtement je suis très content de nos choix. Ceph est vraiment extra ordinaire. Je dirais la même chose de postgres. Ça marche tellement bien que en tant qu'admin c'est frustrant il n'y a pratiquement rien à faire. Alors je me suis mis à faire du dev.

    En ce moment nous testons l'intégration de notre architecture dans kubernetes et istio. Et ça c'est la cerise sur le gâteau. Je crée une branche dans git. Je pousse dans gitlab. Et la j'ai une version complète et totale de l'application avec la totalité des données (merci les snaphosts de ceph), avec une url dédié, le monitoring. La totalité. Et ce en quelques dizaines de secondes. J'adore mon métier !

    Bref tout ça pour dire que oui hadoop spark h20 etc c'est sûrement très bien. Cependant de mon expérience une bonne vieille db avec un peu de partitionning c'est simple et ça fait le taf.

    oau

    ps : et surtout y'a pas de java !!! Oui désolé je n'ai eu que de très mauvaise expérience avec java. Je sais que c'est très bien. Mais j'y arrive pas. Mais quand même, prochaine étape : kafka.

  • [^] # Re: drone.io

    Posté par  . En réponse au journal Mettre en place des build automatiques avec jenkins et docker. Évalué à 4.

    Bonjour,

    ici nous utilisons gitlab depuis 4ans. Oui ça prend un peu de ram. 3go pour une instance avec une douzaine de projet actif et autant de développeur/datascientist. Un peu de disque. (Surtout quand on me commit tout anaconda ….). Les mises à jour sont régulières via un dépôt apt et elles sont fiables. Je n'ai eu en 4ans qu'un seul problème de mise à jour.

    Depuis quelques mois nous utilisons aussi gitlab ci avec un kubernetes auto hébergé. Et bien ça change la vie ! Je crée une branche et j'ai de suite un environnement qui tourne sur cette branche avec un snapshot des données de la prod (merci ceph !) et une url dédié. Je fait ma modif. La QA la valide. La branche est merge et tout passe en prod tout seul. Plus de script de mise en production, plus de "jour de mise en prod". Bref on a plongé dans le grand bain du devops, cloud, container etc.

    A titre personnel j'étais plus que réticent. Je regarde ces technos du coin de l’œil depuis des années avec scepticisme et finalement j'en suis très content.

    Cependant il y a un soucis de cache avec le gitlab runner et le build d'image docker qui est très long. Vu que chaque stage est dans un environnement docker tout neuf (dind) il n'y a pas de mise en cache des différentes étapes de build. Je dois donc maintenir une image de base avec tout ce qui est nécessaire. Image que j'utilise ensuite juste pour copier le code de l'application et la conf.

    Pour vous donner une idée il faut environ deux minutes pour démarrer 6 pod qui contiennent un minimum de deux container (j'utilise istio) et jusqu’à 4 container. Pour un total d'environ 15 container. Il y a aussi le snapshot de la base postgres et son démarrage.

  • # Borg

    Posté par  . En réponse au journal Bricolage pour faire des sauvegardes. Évalué à 5.

    de mon coté j'utilise borg backup. Simple, efficace. Je recommande.

  • # Larousse

    Posté par  . En réponse au journal Pollution numérique. Évalué à 4.

    La dernière fois que j'ai gueulé contre le digital on m'en renvoyé http://www.larousse.fr/dictionnaires/francais/digital/25502?q=digital#25383. J'ai eu l'air bien bête mais si ça continue de profondément m'énerver d'entendre parler de digital …

  • # Si je peux me permettre ....

    Posté par  . En réponse au journal Open Earth View - Consultation avant création d'une startup. Évalué à 10.

    de te conseiller de ne pas partir tout seul. Depuis un petit peu plus de 3 ans je me suis aussi lancé dans l'aventure et je suis très content d'avoir deux associés dans cette histoire. C'est eux qui gère tout la partie financement, paperasse, gestion de l'entreprise, vente etc. Et moi je me concentre sur ce que je sais faire. La technique. Et vraiment tout seul je n'y serais jamais arrivé.

  • [^] # Re: Mouais

    Posté par  . En réponse au journal chexpire, un nouveau Logiciel Libre. Évalué à 4.

    PS : en ce qui concerne les certificats, il y a un greffon Nagios qui teste les certificat TLS et lève un drapeau. Il fonctionne parfaitement.

    pareil dans xymon. Très simple. Il suffit de monitorer une url https. Et par défaut. Il me semble que c'est vraiment une fonctionnalité basique que de monitorer l'expiration d'un certificat ssl.

    https://www.xymon.org/help/manpages/man5/hosts.cfg.5.html section "http tests"

  • [^] # Re: KVM tout court?

    Posté par  . En réponse au message Ovirt VDI. Évalué à 1.

    x2go c'est très bien. Ca passe par ssh et je trouve ça beaucoup plus fluide que vnc. J'ai 4 dev qui utilisent ça toute la journée depuis plus d'un an pour faire du rstudio

  • # Excité !

    Posté par  . En réponse au journal Un rachat, un summit et un BIOS qui s'ouvre de plus en plus grâce à linux . Évalué à 6.

    Bonjour Jean-Marie,

    il y a quelque jours je me souvenais que rien chez MS n'était vraiment excitant. Et pour globalement je ne voyais plus grand chose d'excitant dans l'informatique. Certes il y a go, rust et surtout ceph que je trouve vraiment cool. Mais j'avais oublié vejmarie et ses histoires de linux dans le bios. Ses histoires de rack dans de l'huile dans mon jardin. Etc. Vraiment l'open hardware ca c'est cool et je regarde ça de très près.

    merci ! et bon continuation

  • # xymon

    Posté par  . En réponse au message Outil libre de monitoring. Évalué à 1.

    c'est moche, c'est rustique mais c'est simple, efficace, perenne, facile à étendre et par défaut ça fait plein de chose. Testez le, ca prend 5min. Le serveur, le client et go. J'ai monitoré jusqu’à 20k device sans vraiment de soucis. Xymon c'est un peu le vim ou le soyouz du monitoring. La ou nagios c'est plutôt le emacs ou la navette spatiale :).

  • [^] # Re: que reste-t-il du logiciel libre ?

    Posté par  . En réponse au journal France Culture: que reste-t-il du logiciel libre ?. Évalué à 2.

    j'avoue j'ai ri :)

  • # que reste-t-il du logiciel libre ?

    Posté par  . En réponse au journal France Culture: que reste-t-il du logiciel libre ?. Évalué à 10.

    Tout je dirais. Il y a plus de 20 ans quand j'ai commencé à faire du LL, à passer des heures à installer des linux, compiler des kernel, écrire du shell et du perl j'étais un extra terrestre. Ça m'a d'ailleurs causé de sérieuses frictions avec mon père, informaticien lui aussi. Mais de l'autre coté.

    Quand j'ai commencé à bosser j'ai eu du mal à rester sous linux. Mais j'y suis arrivé. Même chez IBM en 2007 on pouvait choisir son laptop sous windows ou linux. Linux proposé et supporté par l'it interne.

    Finalement en 15 ans de carrière j'ai toujours réussi à utiliser ma debian pour bosser. Sauf les quelques mois que j'ai passé chez un fabriquant de pneu. Ça m'a d'ailleurs pousser à partir rapidement.

    Aujourd'hui quand je recrute des jeunes sorti de l'école il est naturel pour eux d'avoir un desktop sous linux. D'utiliser une session à distance pour bosser. De faire du python et du R. Du ssh et du shell. Cependant il est vrai que le coté politique du LL n'est pas vraiment perçu mais quand j'en parle avec eux ils prennent conscience de l'importance de ce partage. Même chose pour la vie privé et leurs données personnelles. Ils n'ont juste pas conscience de ce qu'ils font. Mais quand on en parle les comportements évoluent un peu.

    Alors je ne me demande pas ce qu'il reste quelque chose du LL. Je dirais que le LL est la pierre angulaire de l'informatique moderne. Et finalement si MS rachète github c'est juste que c'est leur seule manière d'exister encore. De faire parler d'eux. Qui est encore excité par les "nouveautés" de MS ?

  • [^] # Re: Pourquoi le feraient-ils ?

    Posté par  . En réponse au journal Microsoft rachète Github. Évalué à 1.

    oula. Ca n'arrive pas. Sauf quand ça arrive. Moi je fais des backups plutôt 3 fois qu'une. Ceph répliqué 3 fois. Vm répliquée avec rbd mirroring sur un second cluster ceph et un backup borg toute les heures. Sur site ET hors site. Comme pour toute mes vm en fait.

  • [^] # Re: Pourquoi le feraient-ils ?

    Posté par  . En réponse au journal Microsoft rachète Github. Évalué à 5.

    Franchement gitlab c'est top. apt-get install et c'est ok. En 4ans j'ai eu un unique problème de mise à jour qui a été résolu rapidement.

    C'est branché à notre ldap pour les comptes. C'est monitoré avec xymon avec les metrics de base. Vraiment je recommande. C'est propre. Bien plus que zimbra qui est la grosse verrue de mon infra.

  • [^] # Re: jabber ?

    Posté par  . En réponse au journal Points de douleur du Team Chat ?. Évalué à 5.

    1 - mouais. ok
    2 - il me semble bien que jabber le fait. Mais c'est probable que ce soit mon client. En tout les cas contrairement à skype, jabber est capable de comprendre sur quel device je suis connecté, mon téléphone par exemple, et me notifier au bon endroit. Contrairement à skype ou tu continues à recevoir les messages sur le device connecté en premier. Pénible.
    3 - Très bien. Je déteste ca. Tu dois partager un fichier. Partage une url. Comme ça tu le mondes y accède. On a pas un wiki pour rien. Pour la vidéo : fausse bonne idée numéro 3542, comme les conf call. On parle des heures pour ne rien dire et il n'y a aucune trace.

  • # jabber ?

    Posté par  . En réponse au journal Points de douleur du Team Chat ?. Évalué à 5.

    Surpris de ne voir personne parler de jabber. Chez nous on a une room par équipe et sinon tout le monde peut se parler en un contre un. J'ai eu dans ma vie en grosse boite skype. Le truc le plus pénible c'était le bouton pour te appeler. Au lieu de prendre 5min pour expliquer son problème par écris. Le gars t'appelle. Te dérange. Parle pour ne rien dire et fini par raccrocher. L'enfer. Au moins avec jabber on ne peut pas te téléphoner :)

  • # Du vocabulaire anglicisant

    Posté par  . En réponse au journal Votre rapport à l’anglais ?. Évalué à 10.

    Bonjour,

    j'ai été surpris en lisant le journal et les commentaires. Voyant le titre je pensais que le sujet serait plutôt "quel est votre rapport à l'anglais qui envahi le champ lexical du français". Rapidement : j'étais très mauvais en langue étrangère pendant ma scolarité. J'ai eu du mal à avoir le TOIC, c'est dire. Mais en 2009 on m'a propulsé dans un projet uniquement en anglais. Conférence téléphonique, email, rapport, suivi de projet, voyage à travers toute l'europe etc.

    Finalement comme beaucoup ici le disent la répétition a fait que aujourd'hui j'écris et je lis couramment l'anglais. Je le parle avec un accent horrible, mais je me fais comprendre. Aussi bien l'anglais technique que l'anglais de tout les jours.

    Cependant il y a quelque temps j'ai fait une overdose. Série, cinéma, conférence, livre divers. Je me suis rendu compte que avec le temps mon français s’appauvrissait de vocabulaire anglicisant sans que mon vocabulaire anglais ne s'enrichisse plus que ça. Depuis je prends le temps de faire l'effort de revenir à une séparation des deux un peu plus marqué. Je fais attention à éviter les mots anglais dans mon vocabulaire, aussi bien à l'écris que à l'oral.

    J'ai pris conscience que l'on pense avec les mots. Et que le gloubiboulga de vocabulaire que j'utilisais quotidiennement avait transformé ma pensée en un gloubiboulga.

    La relecture de 1984 il y a quelques mois a du y faire beaucoup.

    oau

  • # Pas de carte 3g/4g

    Posté par  . En réponse au journal Ordinateurs portables Dell sous Linux. Évalué à -2.

    depuis que j'ai mon lenovo x1 carbon acheté sur le boncoin avec sa carte 4g intégré c'est le bonheur. Je suis totalement autonome pour travailler n'importe ou sans me battre avec les divers firewall, mot de passe wifi etc. J'ouvre mon laptop et voilà je peux bosser.

    Oui je fais parti de ces gens qui utilise leur laptop uniquement comme une console. Tout mon travail de dev et d'admin est distant. Donc internet obligatoire pour bosser.

    Alors oui lenovo ne vends pas de linux avec ses laptops. Oui le clavier du x1 que j'ai n'est pas aussi bien que les claviers de T41, t60 et x220 que j'ai eu par le passé. Oui le trackpad est vraiment naze ( comment on peut travailler avec une souris entre soi et le clavier …) et oui la carte 4g peut être capricieuse (je dois rebooter des fois pour quelle se reconnecte). Mais il est tout fin, tout léger, solide (il a 4 ou 5ans et il fonctionne à merveille).

    Il y a beaucoup de parenthèse dans mon commentaire. Mais j'avais vraiment mon lenovo.

    oau

  • [^] # Re: Docker fourre-tout ?

    Posté par  . En réponse à la dépêche L’application « OnlyOffice pour Nextcloud » est disponible. Évalué à 6.

    Bonjour

    apt-get install gitlab marche très bien depuis plus d'un an. Et il me semble bien avoir une version récente : GitLab Community Edition 10.1.2

    D'ailleurs mon outils de monitoring me dit que ce matin il y a une mise à jour que je ferais ce soir. Mise à jour d'ailleurs très régulière et je n'ai eu de problème qu'une seule fois lors de la mise à jour du postgresql qui tourne dedans.

    Le repo : deb https://packages.gitlab.com/gitlab/gitlab-ce/debian/ jessie main

    Pour revenir sur docker et étant admin de longue date je vois arriver des tonnes d'application dans des dockers qui ne seront jamais mises à jour et potentiellement pleines de trou. Après les botnets d'IoT on va avoir des botnet d'image docker …

    Juste mon opinion :)

    bien à vous.

    oau

  • [^] # Re: ça manque de données

    Posté par  . En réponse au journal FAI associatif / FDN / Hébergement et stockage. Évalué à 1.

    il peut utiliser ses baies de stockage pour faire du ceph. Avec un osd par disk. Sans raid. C'est un peu l'idée de ceph. Utiliser tout et n'importe quoi pour stocker des données. Ensuite il faut faire attention à pas trop déséquilibrer les clusters.

  • [^] # Re: ça manque de données

    Posté par  . En réponse au journal FAI associatif / FDN / Hébergement et stockage. Évalué à 2.

    Bonjour,

    vraiment regarde du coté de ceph. Ça fait tout ce dont tu as besoin et ça marche vraiment bien. 2ans que j'ai deux cluster ceph et aucun problème.

    Ma prod est à cheval sur les deux cluster :

    4 front web. 2 sur le cluster cephA et 2 sur le cluster cephB.
    2 serveurs d'application python 1 sur le cluster cephA et 1 sur le cluster cephB.
    2 serveurs de base de données (pg) en réplication. Un sur le cluster cephA et l'autre sur le cluster cephB.
    Le tout en mode bloc avec rbd et pas de raid. Plus jamais. La resync d'un cluster de 2to prend quelques minutes et n'a encore jamais échoué. Alors que combien de fois j'ai vu un raid1 ou 5 mourir pendant sa reconstruction. Reconstruction dramatiquement lente. Surtout en raid5

    Ensuite j'ai un cluster cephC de drp sur lequel je synchronise les images des vm avec un délais avec rbd-mirroring.

    Mes vm sont en ha avec pacemaker.

    Ça marche vraiment bien. Le seul inconvénient que je vois c'est que un cluster ceph c'est minimum 3 machines et que du 10G pour le réseau est recommandé.

    Ce que j'ai fait c'est que j'ai pris des machines chez ovh avec 2 disk et chacune de mes machines est à la fois dans le cluster cephA et cephB. Oui Si je perds une machine je "casse" mon cluster ceph mais si j'ai une corruption sur un cluster j'ai toujours l'autre. Le jour ou je serais riche j'aurais plus de machine :). Bien sur le tout est backup avec borg toutes les heures sur le nfs d'ovh.

    Ceph c'est bien vraiment.