barmic a écrit 10455 commentaires

  • [^] # Re: ordonnancement

    Posté par  . En réponse à la dépêche Publication d'evQueue sous licence libre. Évalué à 3.

    Le déclenchement sur événement est possible via l'API réseau. Il est également possible (et c'est ce que nous faisons) d'utiliser le retry schedule : un tâche est lancée et vérifie l'existence du fichier. Si il est absent, une erreur est retournée et le retry schedule va se charger de la relancer. Quand le fichier apparaît, la tâche s'exécute correctement et le workflow enchaine la tâche suivante qui effectue le traitement.

    C'est un fonctionnement un peu plus compliqué. Il faut vérifier que le fichier a fini d'être écris. Pour ça la bonne méthode un peu compliqué est de vérifier que personne ne l'a ouvert, l'autre méthode plus simple mais moins robuste et de ne récolter que les fichiers qui ont un certain age.

    La solution de loin la plus pratique est de passer par inotify et netcat.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Euh

    Posté par  . En réponse au journal Gugöl Khod bronsonisé. Évalué à 4.

    Mantis (ça vaut aussi pour Bugzilla, les deux que je connais correctement) est un bugtracker complet, mais il est carrément trop complexe pour 80% des besoins. Une interface épurée, moins de choix, ça fait moins peur, et du coup je pense que ça convient mieux à beaucoup de gens à qui les interfaces complètes font peur (et du coup, ils ne remplissent pas le bug : trop long, trop chiant).

    Je connais très bien jira et je te garanti que ce logiciel est une tuerie. Tu défini vraiment tes écrans, tes workflow et tes droits. Ainsi tu peut avoir une interface pour créer des bugs aussi simple que celle de github si ça te fais plaisir, mais toi en tant que développeur tu as toute la largesse pour les organiser comme tu le veux. Ne serais-ce que pour pouvoir dire « ce bug est corrigé dans le master, mais j'ai pas encore créé de nouvelle version depuis ». Le tout visible sous différentes forme (tableau, carte à la scrum,…). Tu as en plus toute la souplesse pour créer des templates et donc permettre au développeur de choisir entre 3 ou 4 templates de workflow sans avoir plus de configuration à choisir.

    Dans les fonctionnalités qui tue de jira, tu a la possibilité d'attacher tout et n'importe quoi et d'avoir même une interface de dessins balsamiq (https://marketplace.atlassian.com/plugins/com.balsamiq.jira.plugins.mockups).

    La gestion de livraison ? À part pour une entreprise, je vois pas l'intérêt. Et moi, petit développeur de logiciels libres, j'en ai pas besoin.

    Moi j'aime bien avoir une release note (en fait j'en ai marre de ne pas en avoir).

    Tu vois ce que je veux dire ? Oui, il y a des fonctionnalités chez les autres forges qui ne sont pas sur gitlab/hub, mais tout le monde, loin de là, n'en a pas besoin.

    Je pense que c'est surtout qu'on identifie mal quelque chose qu'on a jamais eu et donc beaucoup ne se posent pas la question et qu'il y a une crainte comme tu le dis plus haut que si on a plus de fonctionnalités, on se retrouve avec une usine à gaz.

    De plus tu te focalise sur le one-man project pas vraiment géré. Hors ces forges sont aussi utilisées par de gros projets avec des organisations professionnelles.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Euh

    Posté par  . En réponse au journal Gugöl Khod bronsonisé. Évalué à 5.

    Je ne suis pas un expert de gitlab, mais s'il recopie github, on est très loin d'une forge avec beaucoup de fonctionnalités… Allez voir redmine, novaforge, codendi, tuleap,… Vous verrez ce qu'est un bugtracker, la gestion des livraisons, etc La seule fonctionnalité de gitlab / github qui est moins mise en avant chez les autres c'est la revue de code ça tombe bien, il y a très peu de projets qui s'en servent.

    Par contre oui ces forges n'utilisent pas un thème à la bootstrap.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Bientôt GMail

    Posté par  . En réponse au journal Fermeture progressive de Google Code. Évalué à 8.

    L'arrivée de serveurs basse consommation ARM64 et la baisse des disques durs (SSD ou non) aidant, les entreprises ramèneront, tôt ou tard, leurs données en interne.

    Ça n'a jamais était le prix du matériel qui freine les entreprises. Le matériel c'est combien ? Disons 2 000 € pour 2 machines et un routeur à 500 €, le tout renouvelé tous les 2 ans. Une petite centaine d'euros par mois ce n'est pas grand chose comparé aux prix d'un admin pour s'occuper de ça, il n'y a pas photo.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Et les dépendances ?

    Posté par  . En réponse au journal Docker, la plateforme à la mode. Évalué à 3. Dernière modification le 16 mars 2015 à 11:19.

    Si il y a une faille sur openssl, ben tu appliques simplement la mise à jour sur toutes tes machines1 ou images docker2.

    1. Tu utilise ton système d'administration ansible/puppet/… pour faire un upgrade du système;
    2. Tu rebuild ton image ou plutôt tes images puisqu'en principe tu utilise une image par processus (donc à minima une image pour l'applicatif, une pour la base, peut être une pour les log,…). Sachant que docker ne comprends pas correctement les commandes de mise à jour et qu'il ne faut donc pas les mettre dans ton dockerfile de la même façon que les autres.

    Qu'ils soit possible de le faire je n'en doute pas, mais c'est une vraie régression d'un point de vu ergonomie (et plus on perds en ergonomie, moins on prend le temps de le faire…). Je doute pas qu'ils trouveront une solution, mais tu ne peux pas nier que c'est un problème aujourd'hui.

    Sachant qu'il faut aussi comparer ça à des systèmes « classiques » parce que certains veulent que l’hôte fasse le minimum est que toutes les application soient dans des images docker.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Conclusion un peu hative

    Posté par  . En réponse au journal Docker, la plateforme à la mode. Évalué à 4.

    Sauf que non. La philosophie derrière Docker, c'est de lancer un process (et un seul) par conteneur. Et en foreground parce que le conteneur s'arrête si le process lancé s'arrête

    J'aimerai savoir sur quoi tu te bases pour dire ça.

    Dans la doc officielle du projet ?

    https://docs.docker.com/articles/dockerfile_best-practices/#run-only-one-process-per-container

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Euh

    Posté par  . En réponse au journal Gugöl Khod bronsonisé. Évalué à 7.

    sans crier gare, ils n'assurent pas la pérennité de ce service

    En te laissant 10 mois pour aller ailleurs et un an pour récupérer tes données, c'est ça que tu appel "sans crier gare" ? T'a fumé ?

    Ils offrent un service et récupère plein d'informations sur moi et sur tous les visiteurs (oui, la gratuité n'est que de façade), et après, sans crier gare, ils n'assurent pas la pérennité de ce service arguant du fait qu'il y a la même chose ailleurs et donc renforçant un oligopole qui se met doucement mais sûrement en place.

    Donc quand ils font quelques chose, ils te profilent éhontément et quand ils arrêtent ils cherchent à pousser les gens vers un oligopole (rien que ça ?) qui n'est aucunement lié à eux.

    Mais :

    1. En quoi Google devrait pousser les gens à faire ou ne pas faire quelque chose ?
    2. Tu te fous de la gueule du monde. Il y a un énorme paquets de projets libres de toutes tailles (du noyau linux aux articles de magazine comme GLMF) qui sont sur Github, google voit un paquet de projet migré de chez eux à github, l'influence d'une petite forge comme celle de google est théorique (google code c'est 200 000 projets, github c'est 16 millions). Quand tu regarde simplement ici, tout le monde bave devant github et le projet qui tente d'en proposer une copie exact (Waow ! Quel innovation, gitlab ça apporte vraiment, euh à ben en fait il n'apporte rien à l'existant). Et ça ne rate pas, framasoft propose gitlab comme remplaçant.

    disparition d'un poids lourd des forges proposant SVN (il n'en reste quasiment aucun),

    assembla, savannah, sourceforge, cloudforge, gforge,…
    Si tu en cherche vraiment, en trouver n'est pas bien compliqué.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Et les dépendances ?

    Posté par  . En réponse au journal Docker, la plateforme à la mode. Évalué à 5.

    Tu as une faille dans ta bibliothèque ssl, tu dois mettre a jour chacune de tes images, contrairement à ce que permet une distribution classique. C'est la grande force des distributions par rapport à Windows justement.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Euh

    Posté par  . En réponse au journal Gugöl Khod bronsonisé. Évalué à 3.

    Faire coïncider la morale à "fait ce que moi je veux dans les conditions qui me plaisent" et tout le reste comme immoral c'est ridicule.

    Ils ne volent personnes, ils ne tue personnes, ils n'ont pas changer les conditions d'accès au service pour t'obliger à vendre père et mère, ils arrêtent juste et ils font ça très proprement.

    Si vraiment vous voulait rester sur des remarques niveau cour de récréation ("c'est un méchant, il n'a pas partagé son goûter avec moi !").

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Euh

    Posté par  . En réponse au journal Gugöl Khod bronsonisé. Évalué à 3.

    quitte à ne pas crâmer de l'argent pour rien, ils n'ont qu'à fermer google plus, tout le monde s'en moque sauf les geek.

    C'est ce qu'ils ont fait avec buzz et ils vont faire grandement évoluer le service pour le découper en 2 : d'un côté les photos et de l'autre les actualités.

    Bref oui ils réfléchissent à leurs services et à comment les faire évoluer. S'ils ont un service qui se meurt et qu'en interne ils n'ont plus grand monde de motivé pour le maintenir ce n'est pas forcément intéressant de continuer.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Euh

    Posté par  . En réponse au journal Gugöl Khod bronsonisé. Évalué à 2.

    Ce serait comme le voisin qui a un pré "vide" et qui le liasse ouvert pour que les gamins viennent jouer dedans et d'un seul coup se met à le fermer (clôturer) parce qu'il a "perdu".

    Contrairement à ce que tu semble croire, garder ce service demande un rôle actif de la part de Google. De plus le d'un seul coup c'est en plusieurs mois. Enfin il y a déjà un mouvement de font de migration des projets vers github.

    C'est dommage, tu as le droit d'être pas content, mais c'est dommage de sortir des arguments bidons comme ça.

    D'un autre coté cela va remettre google à sa juste place : une boite qui fait du cash avec vos infos, qui est ni votre ami ni un rempart contre le diable.

    Personne ne te garantie la moindre pérennité de service,surtout dans le monde du gratuit. Que ce soit Google, github ou framasoft, c'est la même chose.

    Donc non c'est pas ton ami, c'est pas ton chien, c'est pas je ne sais quoi d'autres c'est une compagnie qui, entre autres, fourni des services et qui me fais plus ou moins bien. Chercher à en faire quelque chose de moral ou pas c'est un comportement assez puéril.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: quelques pépites perdues à jamais

    Posté par  . En réponse au journal Fermeture progressive de Google Code. Évalué à 4.

    Un projet qui ne bouge plus au point que personne ne prenne une demi heure pour archiver le code ailleurs, je pense que c'est un projet dont tout le monde se fout.

    Pour ce qui est de l'assurance, j'ai des projets dans pas mal de forges et j'ai reçu un mail explicatif clair de Google (j'en avais reçu un du clone libre dont on avait parlé ici-même), mais pas de gitorious.

    Je trouve que c'est dommage parce que c'est une forge que j'aimais bien et je suis un certains nombre de projets dessus (guava, mokito,…).

    Personnellement pour moi c'est l'occasion de faire du ménage dans mes projets.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Et SourceSup

    Posté par  . En réponse au journal Fermeture progressive de Google Code. Évalué à 3.

    En quoi est-elle plus pérenne qu'autre chose ?

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: devops

    Posté par  . En réponse au journal Docker, la plateforme à la mode. Évalué à 4.

    En quoi ? L'objectif est de pouvoir déployer une ou plusieurs applications rapidement et simplement. Pour ce cas d'usage utiliser une image docker, des scripts fabric/ansible/puppet ou un système de paquetage réponde au même besoin : permettre de pousser la dernière version d'environnement en environnement (développement, recette, production et toutes les étapes que tu veux lui donner).

    La sécurité par isolation n'existe pas dans le déploiement tel qu'on en parlait au dessus. Si tu as un conteneur pour toute ton application et juste un ou 2 conteneurs pour la conf + les données.

    Je passe à coté de quoi ?

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: devops

    Posté par  . En réponse au journal Docker, la plateforme à la mode. Évalué à 3.

    Dans le cas assez classique ou tu connais la plateforme cible, j'ai bien du mal à avoir ce que ça va m'apporter face à un dpkg -i qui est nettement plus simple à mettre en place, qui gère la configuration sans problème qui n'impose pas grand chose comme workflow, qui ne demande aucune performance particulière de la part du ou des serveurs,…

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: devops

    Posté par  . En réponse au journal Docker, la plateforme à la mode. Évalué à 3.

    Comme le dockerfile est versionné, il suffit de rebuild l'image avec les même paramètre lors d'une mise à jour.

    Ils doivent donc maintenir leur config ailleurs (avoir un patch à réappliquer ou autre). Ça ne m'a pas l'air terrible.

    Personnellement, je n'ai pas rencontré de cas où la taille d'une image pouvait poser un soucis, ça ne représente jamais plus que quelques centaines de Mio, et si cela était un problème il y a 10 ans, ce n'en est clairement plus un désormais.

    Tu as bien de la chance. En upload c'est relativement long. Là où tu peut utiliser des appli web simple pour pousser jusqu'à quelques dizaines de Mio là, il va te falloir une config particulière, etc. Et même quoi qu'il arrive c'est pas agréable. Aujourd'hui passer ma version de l'application à mon collègue ça me prends quelques dizaines de secondes en lui passant via un transfert de fichier via xmpp ou skype. S'il me fallait 100Mio, ça ne marcherait pas.

    Bref ce n'est jamais totalement bloquant, mais c'est désagréable à utiliser (là où pour du devops, il faut au contraire rendre les choses les plus agréables et rapide possibles).

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: devops

    Posté par  . En réponse au journal Docker, la plateforme à la mode. Évalué à 3.

    image de l'image

    Généralement l'image directement.

    J'étais fatigué ! :)

    Il est tout à faire possible de faire des images minimalistes avec Docker. Un environnement de base épuré peut être réduit à 20-40Mb d'espace disque.

    Comment parce que s'il s'agit d'utiliser des distributions très exotiques (comme dis au dessus) et donc pas toujours simples à maintenir, c'est pas très pratique.

    Ma solution pour ça c'est d'utiliser un volume externe qui contient les fichier de configuration.
    Ça t'autorise à séparer le versionning du soft en lui même du versionning de la configuration.

    C'est représenté comment au sein du conteneur ? C'est un point de montage ?
    On pourrait donc imaginer avoir 3 conteneurs, un pour l'application, un pour la configuration et un pour les données ?

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: devops

    Posté par  . En réponse au journal Docker, la plateforme à la mode. Évalué à 4.

    Dans le cas d'utilisation du devops, j'ai quelques questions :

    • pour la livraison du soft, c'est dockerfile qui est livré ou une image de l'image ? Si c'est ce dernier je suis un peu gêné de fournir une image de plus d'une centaine de mega pour un soft qui fait 10 à 20 Mio
    • pour l'exploitation, comment ça se passe pour reporter les configurations d'un conteneur à la version suivante ? Si on livre un dockerfile, il faut que l'utilisateur modifie le dockerfile (ou un fichier qui est ajouté par le dockerfile) ? Si on importe une image il arrive à ne stocker que le différentiel depuis l'image précédente ?

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: I'm not dead!

    Posté par  . En réponse à la dépêche Gitlab achète Gitorious. Évalué à 8.

    Parce qu'un logiciel ne vis que s'il est développé ?

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Recherche de fichiers

    Posté par  . En réponse à la dépêche Xfce 4.12 est là !. Évalué à 4.

    En plus, on peut compléter : vim **/config.php<TAB>.

    Au fait, pourquoi <TAB> ? Tu peux directement la lancer tel quel.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Recherche de fichiers

    Posté par  . En réponse à la dépêche Xfce 4.12 est là !. Évalué à 3.

    Je coinche.

    Loin de moi l'idée de dire que les globbings étendus sont mauvais, au contraire, je m'en sert beaucoup. C'est juste que niveau perf on est au mieux aussi bon que d'utiliser les bons vieux outils (find éventuellement avec xargs) au pire largement en dessous.

    Je me risquerais même à prédire que find serait plus lent (plus de processus lancés).

    Nan, find n'est jamais le plus lent. si tu finis ta commande avec + tu as le même comportement qu'avec un xargs. Pour ta parenthèse, ce n'est vrai que si le coût du lancement d'un processus est pénalisant par rapport au temps d'exécution du dis processus. Remplace rm par un bon vieux grep. La version find sera alors plus agréable (tu commence à avoir tes résultats bien plus tôt et avec le + tu ne lance pas tant de processus que ça.

    J'avais l'espoir que zargs fasse ce genre de chose (qu'il n'attendent pas la résolution complète du globing pour commencer à lancer des commandes), mais ce n'est pas le cas.

    Personnellement, j'utilise les globbings tout le temps, sauf dans les scripts et quand je sais que ce que je vais demander est long (quand le gain induit par find est plus important que le temps passer à taper la commande).

    Enfin, pour de la recherche dans les sous-répertoires d'un projet, qui était le cadre où mes exemples se plaçaient, […]

    1. Il fallait le deviner
    2. locate n'est pas très pratique pour ce cas d'usage.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Recherche de fichiers

    Posté par  . En réponse à la dépêche Xfce 4.12 est là !. Évalué à 2.

    Si tu fais :

    find /
    find -name "ton mot"

    Tu as déjà un gain de perf notable.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Recherche de fichiers

    Posté par  . En réponse à la dépêche Xfce 4.12 est là !. Évalué à 3.

    Juste au cas où tu aurais un trou de mémoire et que tu envisages vraiment d'utiliser find, je suggère de recourir à "mlocate" (ou toute autre déclinaison de "locate")

    Je en connais pas toutes les déclinaisons de locate, mais ça se base sur un index pas forcément à jour.

    Mon utilisation de find a aussi diminué en parallèle de mes progrès en shell : rm src/*/.o est plus pratique que d'utiliser $(). En plus, on peut compléter : vim **/config.php.

    C'est aussi très lent. Ton shell calcul la liste de fichier, puis il lance la commande, alors que find peut lancer la commande au fur et à mesure.

    Mais je pense qu'il parlait surtout de recherche à l'intérieur de fichiers.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Plus léger ?

    Posté par  . En réponse à la dépêche Xfce 4.12 est là !. Évalué à 4.

    c'est pas la première fois que le troll "Xfce consomme trop !!"

    J'adore (؟) le biais "xfce consomme autant que Windows 8" -> "xfce consomme trop".

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

  • [^] # Re: Sous Linux aussi

    Posté par  . En réponse au journal H264 par Cisco dans Firefox (suite). Évalué à 4.

    On ne parle pas de Firefox qui cherche à se connecter à internet quand il est lancé ; on parle de l'installation de Firefox (via apt-get install firefox) qui cherche à se connecter à internet.

    Non, firefox n'est pas lancé lors de son installation par ton gestionnaire de paquet quelque soit la distribution si c'est le cas reporte un bug à ta distribution.

    Quant aux distribs qui font des màj automatiques, j'ai toujours vu des connexions aux miroirs configurés, donc ça ne génère pas d'erreur (vu que les miroirs peuvent être en local).

    Mais faut se détendre des erreurs ce n'est rien de grave. Si tu as un script qui fait ls /toto/, ça crée une erreur. Tu arrive à en dormir la nuit ? Si le miroir configuré n'est pas disponible, tu te taille les veines ? Quand tu as ton firefox (mais je parle pas de la dernière nigthly, mais de n'importe quelle version depuis au moins la version 1) qui cherche à mettre à jour tes plugins alors que tu es sur un réseau privé, il y a des bébés chats qui se font ébouillanter ?

    Mais bon, je pense que Mozilla aime bien les trucs codés en dur (merci les certificats racine mis dans le code ! impossible de les supprimer sans recompiler la libnss)

    Moi je pense que tu fais un flan pour un détail. Recompiler la libnss ne représente pas la moindre difficulté pour ta distribution qui le fait déjà.

    Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)