Jehan a écrit 1633 commentaires

  • [^] # Re: Pour ma gueule, et je partage ensuite

    Posté par  (site web personnel, Mastodon) . En réponse au journal Pourquoi je contribue ?. Évalué à 2.

    J’ai dit Gi*s*t, pas Git.

    Ah ok, bon ben voilà. S'ils inventent encore d'autres trucs pour contourner le fait qu'ils prennent pas de fichiers… C'est pourtant simple les fichiers. Un concept que tout le monde comprend parmi les développeurs, non? Pourquoi remplacer cela par un service de copier-coller en ligne?

    bla bla mailing list

    La plupart des mailing-list accepte les mails des gens hors-ml (souvent après modération dans 99% du temps). Donc ce n'est pas un grave problème. D'autant plus que si c'est un simple "bug + patch", le bugtracker est plus approprié (et celui-ci ne spam pas grand chose en général).

    Effectivement ça peut déranger d'envoyer ton patch sur la mailing list, mais donc uniquement parce que c'est pas vraiment l'endroit (c'est dur de faire du suivi dans un contexte de flot d'emails. On perdrait les patchs!). D'ailleurs certains projets filtrent même les fichiers des emails (pour éviter les gens qui mettent d'énormes fichiers, ou bien les fichiers à but malveillant, etc.). Sur les mailing lists GIMP par exemple, ton email arriverait sans le patch. Tout ça pour dire que c'est vraiment pas l'endroit.

    Ensuite oui, je suis d'accord que ça veut dire devoir s'inscrire encore à un énième site pour déposer son rapport de bug. Et ça c'est chiant. C'est un problème qui existe depuis l'aube de l'internet. Mais centraliser tout dans les mains d'une unique entreprise n'est pas, et ne sera jamais selon moi, la solution (même si c'est effectivement celle que poussent comme par hasard toutes les entreprises, entre les "connect by Facebook" et autres trucs du même acabit). Les solutions acceptables seraient plus dans l'optique openid, avec le succès (peu) qu'on connaît (mérité peut-être car je ne trouve pas la solution technique si adéquate). En attendant, faut faire avec. Je préfère tout de même faire un énième compte sur le site d'un projet auquel j'ai décidé de faire confiance (sinon je leur enverrais pas de patch probablement), plutôt que pousser l'ensemble des développeurs du Libre à s'enfermer dans un unique "réseau social développeur", propriétaire et sous le contrôle d'une unique société.
    Note que j'ai rien contre les sociétés qui font cela. C'est une très bonne idée et un plutôt ok service dans le cas de github. Je suis juste pour la diversité, et je refuse de mettre tous mes œufs dans un même panier. Donc je ne ferai jamais la promotion publique d'un service en particulier. Enfin si, je peux dire "c'est bien, ça marche" (c'est le cas de github: "c'est bien, ça marche", mais ça a vraiment rien d'une révolution et leur workflow est tordu et mal-foutu par endroit. Cf. cette discussion), si on me demande, mais ça s'arrête là. :-)

    Mais il illustre un autre avantage (mineur je le reconnais) de cette incitation au fork : même si un jour le dev initial décide (sur un coup de tête, problème légal,…) de tout supprimer, le code est toujours là. Avantage que n’auront pas les petits projets sur des trucs genre sourceforge.

    Euh, par définition, tous les gens qui ont le dépôt git ont la même chose, pas besoin de github …

    Tout pareil: c'est le principe de git. Je vois pas le rapport avec le fait que ce soit sous github, sourceforge, auto-hébergé ou autre. À te lire, on dirait que github a inventé git!

    [Note: pour être clair, je réponds à Moonz, pas à Zul. Mais comme je suis globalement d'accord avec Zul, j'ai pris son message comme base.]

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pourquoi ne pas prendre une "rolling release" comme ArchLinux

    Posté par  (site web personnel, Mastodon) . En réponse au journal OpenMandriva Lx 2014, sortie presque inaperçu… . Évalué à 0.

    Moi, quand je dis "rolling release", j'entends "stable". Je sais pas comment c'est sur Arch, mais en lisant la description plus haut, cela m'a l'air similaire à ce que j'avais sur Gentoo: des paquets stables et déjà testés. Mon expérience Gentoo fut vraiment très satisfaisante. C'était très stable. Une mise à jour ne pêtait pas tout.
    Ça ne dit pas qu'il ne peut y avoir un problème innattendu qui pête ta machine, mais comme pour toute autre distribution stable: ce serait une erreur passée entre les mailles du filet, et à corriger rapidement, non la norme.

    Debian testing au contraire, c'est de l'expérimental (d'où le nom "testing"). Les utilisateurs sont des contributeurs qui acceptent d'être les premiers à essayer des paquets non-testés, pour ensuite remonter les problèmes, avec tous les risques que cela comprend. Ensuite c'est peut-être à considérer "rolling release" aussi, mais c'est juste pour dire que c'est pas du tout la même catégorie. C'est pas fait pour être sur ta machine principale (enfin tu peux, mais à tes risques et périls). Gentoo par contre si (note que sous Gentoo aussi, on peut récupérer les paquets non-testés si on veut, et on se retrouverait alors dans le cas Debian testing. Ce qui est super bien ceci dit, c'est la gestion fine des tests: un flag au niveau des paquets. Donc on peut télécharger certains paquets en tests, et le reste en stable par exemple).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pour ma gueule, et je partage ensuite

    Posté par  (site web personnel, Mastodon) . En réponse au journal Pourquoi je contribue ?. Évalué à 9.

    Ce qui t'embète sans doute, c'est de simplifier la vie de mainteneur (sur GitHub, il accepte ou pas ton patch, tout est prêt, pas à s'embeter, ton nom tout ça tout comme il faut, la discussion a eu lieu ailleurs).

    La discussion, qu'elle ait lieu dans une mailing list, sur un bugtracker ou sur github, je vois pas la différence.
    Ensuite j'ose espérer que les mainteneurs github testent les patchs sur leur dépôt local, et se contentent pas de croire sur parole un inconnu. Quand ça vient d'un contributeur habituel ou que c'est un patch très mineur (changement de string ou autre), ok, se contenter de regarder la syntaxe peut suffire. Mais sinon, même un patch d'une ligne peut casser des choses, et la plupart du temps, ne pas tester n'est pas conseillé.
    Donc déjà à partir de là, faut quitter son navigateur et appliquer le patch. Une fois fait, testé et approuvé, y a juste à git push. Avec github, il faudrait revenir dans son navigateur pour faire le changement.

    Ensuite quand tu me dis "pas à s'embeter, ton nom tout ça tout comme il faut", j'ai tendance à penser que tu n'as jamais fait ou reçu de patch git, ou alors je comprends pas ce que tu veux dire.
    Quand quelqu'un m'envoie un patch git, je le git am, et j'ai un git log parfaitement "comme il faut", avec le nom de l'auteur et son email, la date de son commit (pas seulement la date à laquelle j'ai appliqué le patch, qui elle correspond au CommitDate), et finalement le message de commit qu'il avait déjà préparé. "Pas à s'embêter", comme tu dis. Une fois bien testé et approuvé, j'ai juste à git push, et c'est fini. On gère un patch envoyé en deux commandes (avec les commandes de build, etc. et tests entre-deux normalement, mais ça, c'est pareil quelque soit le workflow si on fait les choses consciencieusement), en restant dans sa console.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pour ma gueule, et je partage ensuite

    Posté par  (site web personnel, Mastodon) . En réponse au journal Pourquoi je contribue ?. Évalué à 9.

    ça me paraît normal que ce sot le mainteneur qui définisse le workflow qu’il préfère — après tout c’est lui qui a à gérer des patchs tous les jours.

    Ça je suis d'accord. Je ne me suis d'ailleurs jamais plaint à un mainteneur d'un projet sur github directement, et je suis le processus demandé douloureusement mais silencieusement. Je répondais juste à la remarque générale comme quoi tu trouvais ce nouveau workflow git (car non ce n'est pas le workflow prévu pour git, j'y reviens plus bas) révolutionnaire.

    Gist est fait pour ce genre de choses.

    Tututut. Demandons par exemple au développeur originel de git, Linus Torvalds: https://github.com/torvalds/linux/pull/17#issuecomment-5654674
    Donc non clairement, ce n'est pas le workflow prévu par git.
    Ensuite il y a des logiques de workflow différentes, et chacun est libre, encore une fois. Je n'arrive pas avec mes gros sabots voir un mainteneur d'un projet et lui dire que son workflow pue et qu'il devrait changer. Mais lire que git est fait pour ce workflow, ben non clairement. Là faut pas abuser, surtout quand l'auteur de git a déjà dit maintes fois que c'est pas le cas et refuse tout "pull request" passant par le système complètement cassé de github.

    Dans le workflow git (git en général, pas github) conseillé par 99% des gens (statistiques Bullshit©), les patchs sont supposés se faire dans des branches à part, et les merge se faire en mergant des branches, pas des patchs individuels à coup de cherry-pick.

    Comme dit juste au dessus, c'est pas vrai. Cette façon de faire est une spécificité github. Mais effectivement quand on reste dans la "communauté" github de gens qui ne connaissent que cette façon de faire, on a l'impression que tout le monde aime cela. Ben moi en dehors de cette communauté, je rencontre aussi plein de gens qui n'aiment pas.
    Je fais des branches à part pour à peu près tout (je suis un grand partisan d'un workflow par "branche de fonctionnalité"), mais il y a plein de cas pour lesquels ne pas avoir 2 branches séparées est valable, ne serait-ce que pour 2 patchs mineurs sans aucun rapport, et sur des fichiers totalement différents (ils ne peuvent pas interférer). En gros faut quand même distinguer une branche de fonctionnalité d'un bug fix de quelques lignes.

    Ensuite, dans mon précédent message, je parlais pas de cherry-pick (j'ai pas compris pourquoi tu m'en parlais). On ne fait pas de cherry-pick tout le temps, effectivement ce serait très lourd. Non on git am (on peut le git apply d'abord s'il s'agit d'un patch compliqué et qu'on veut le tester en profondeur sans avoir peur de le pousser par erreur) un patch proprement formatté par github, avec message, auteur et tout. On teste, puis on pousse.
    Pour des petits contributeurs, il est normal de faire les choses par fichiers. Rends toi compte que le système à la github est en train de pousser les gens à mettre en ligne un dépôt public, pour des fois un patch d'une ligne, et qu'ils ne reviendront jamais sur ce dépôt? C'est le marteau pour écraser la mouche. Github simplifie cela en rendant cette partie facile, mais la contrepartie c'est qu'on se retrouve à avoir des dizaines de clones publiées pour plein de projets (les fameux "forks") qui sont juste des zombies laissés à l'abandon.
    Donc non le coup de merger des branches, c'est bien entre contributeurs importants, ceux pour qui effectivement cela devient plus pratique d'avoir une branche publique. Tu penses que combien de personnes ont leur propre branche sur les projets énormes comme linux? Les divers mainteneurs, et quelques contributeurs très prolifiques. Et encore souvent, eux se feront des branches sur un même dépôt, pas leur propre dépôt!
    Et tu penses que faire son propre dépôt devrait être la norme, même pour les contributeurs mineurs? C'est de la folie. C'est pas pour rien que git send-email a été inventé. C'est parce que contribuer par patch est la norme des petits contributeurs, les branches publiques, on les laisse aux gros contributeurs.

    Encore une fois, de la littérature par l'auteur de git: https://www.kernel.org/doc/Documentation/SubmittingPatches
    Comme tu le vois, les pull requests sont un seul point, le dernier, pour envoyer des patchs (point 16 de la section 1). Tout le reste se concentre sur le formattage de patch en fichier à envoyer par email (note que lu comme ça, ça a l'air compliqué, mais je pense que c'est parce que c'est un vieux texte. De nos jours, quasi tout ce blabla se fait en une ligne: git format-patch origin/master, "master" à remplacer par une autre branche selon la branche qui sert réellement d'origine). Parce que franchement faire un dépôt public pour un patch, c'est vraiment en faire un peu trop.

    Je pense que github a même cet effet pervers d'empêcher les gens à apprendre à connaître vraiment git et son fonctionnement. On rencontre régulièrement des gens qui veulent qu'on fasse tout sur github, mais c'est uniquement parce qu'il ne connaissent que cela et qu'ils se rendent compte qu'il ne savent pas utiliser git en dehors des boutons du navigateur (sérieusement, le fait que tu me répondes "cherry-pick" à un "format-patch" par exemple me fait des doutes quant à ta compréhension de comment marchent les patchs formattés par git; le fait que tu me parles de "branches" alors que github fait même carrêment des clones de partout aussi).

    • c’est vachement plus simple pour rebase (rebase sur master c’est une très très mauvaise idée)

    Oulaaaaah! C'est une très mauvaise idée… sur toutes les branches publiques! Encore une fois, il y a plusieurs logiques. Certains vont effectivement rebaser des branches de fonctionnalités, même publiques (il y a effectivement 2 écoles majeures: les rebaseurs fous, et les mergeurs fous. Curieusement tu m'as l'air d'être un mix des deux…). Mais c'est loin de faire l'unanimité. Encore une fois, tu dis ça à Linus, il t'insultera allégrement. Sa logique, qui est le workflow du projet du noyau linux, et donc probablement très répandue, est de ne jamais rebaser une branche de fonctionnalité publique. C'est exactement la même chose que master, dont tu parlais plus bas. Une branche publique, quelle qu'elle soit, se retrouve copiée dans les dépôts locaux de tous ceux qui ont cloné le dépôt. Et il est tout à fait possible que quelqu'un ait commencé à bosser dessus. Rebaser dans ce cas fout le bordel (oblige de créer une série de patchs et/ou stasher pour ce qui n'est pas déjà sous la forme de commits, supprimer sa branche locale, la recréer, et ré-appliquer tous ses propres patchs. Très lourd). En outre tu casses un historique de hash de commit, ce qui peut créer des problèmes de discussions. À partir du moment où une branche a été rendue publique, on a pu discuter certains commits sur une mailing-list/chat/tracker/etc. Et on rend tout nommage de commit inutile si on se permet de renommer (par rebase) à tout va.

    Alors bien sûr, master est la pire, puisque c'est la branche principale où les chances que quelqu'un ait déjà commencé à bosser à partir de là est la plus forte, mais les autres branches publiques sont aussi en danger.
    La technique du rebase sur les branches de fonctionnalité publique peut fonctionner "à peu près" pour les projets avec très peu de développeurs, et en particulier où en général une branche de fonctionnalité ne sera éditée que par une seule personne. Dans le cas de github (qui encore une fois, ne fait rien comme les autres), ça passe souvent car non seulement y a qu'un mec qui bosse seul sur la branche, mais surtout il a son propre dépôt avec en général le seul à y avoir les droits d'écriture. Il reste tout de même le problème de l'historique des hashs, mais au moins on ne se marche pas sur les pieds. En gros ils ont réglé le problème du travail collaboratif en le rendant intrinsèquement non-collaboratif. :-/
    Et encore une fois, parce que malheureusement tu sors à chaque fois que ce sont les workflows prévus pour git, et donc je crains que tu me croiras pas si je te dis qu'énormément de gens en dehors de github ne veulent pas de cela, je te redonne le workflow de Linus: https://www.mail-archive.com/dri-devel@lists.sourceforge.net/msg39091.html
    J'aime pas jouer à l'argument d'autorité, mais tu me laisses pas le choix avec tes arguments de "statistiques Bullshit©", qui sont effectivement erronés (et surtout biaisé par le prisme de ceux qui sont beaucoup sur github, je pense). :P

    Heu… tu vas sur https://github.com/joincamp/flp.mobi/ par exemple, et juste en dessous du nom tu as « forked from fmap/flp.mobi ». Tu vas sur https://github.com/joincamp/flp.mobi/network/members et tu as le graphe des forks, avec l’upstream en tant que racine de l’arbre. Le seul truc un peu mal fait c’est que c’est pas clair du tout pour un mainteneur de dire « je passe la maintenance à x » (je sais même pas si c’est possible autrement que par un README en fait). Mais c’est pas tellement dramatique dans la mesure ou tu peux autoriser celui à qui tu passes le lead à push dans ton dépot :)

    Mouais je comprendrais jamais comment on peut trouver sain cette nouvelle mode de tout forker. Comme tu le confirmes, rien n'est clair. Et je suis désolé, même le "forked from" est loin d'être la première chose que tu vois en arrivant sur la page (encore une fois, pour ceux qui passent leur temps dans github, c'est peut-être évident, mais pour les autres…).
    Avec ton exemple, je suis en effet totalement dans le flou. Y a une vingtaine de forks, la plupart quasi les mêmes, mais parfois avec une petite différence, rarement mais parfois avec beaucoup de différences. Et ironiquement, le dépôt original a été vidé (et le README ne passe pas la maintenance justement). Donc si t'es un dév, ou un utilisateur, tu fais quoi? Tu testes les 21 forks un à un pour voir ce qui a changé?
    Franchement ce système de fork, c'est plus du réseau social qu'autre chose (plein de gens me forkent! Oh oui allez y, forkez moi! ;-p), mais je trouve cela anti-productif.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pour ma gueule, et je partage ensuite

    Posté par  (site web personnel, Mastodon) . En réponse au journal Pourquoi je contribue ?. Évalué à 10.

    J’ajouterai que github est une petite révolution

    Sérieux, je suis pas d'accord. Github marche bien quand on est toujours dedans, et qu'on ne bosse qu'avec ça. C'est d'ailleurs le but de la plateforme: enfermer les développeurs à l'intérieur et faire en sorte qu'ils n'en sortent pas.

    J'ai essayé l'autre jour de patcher des bugs dans un projet hébergé par github. Au début, je fais un rapport de bug, me disant que je vais y uploader mon patch (correctement formaté avec git format-patch origin/master). Ah pas possible. On peut seulement uploader des images. Sérieux?!
    Je me suis retrouvé à devoir "forker" le projet (sur le site web seulement), modifier mon .git/config pour ajouter mon remote, pousser mes commits, retourner sur le site, et finalement faire une demande de pull (on peut même pas faire une demande par commits, mais pour tous les commits d'une branche donné. Uh?!). Sérieux, on trouve ça plus simple?!? En plus si je veux suivre le projet, je me retrouve à devoir gérer 2 remotes depuis mon dépôt local. Note que c'est courant voire normal de gérer plusieurs remotes si t'es un mainteneur d'un gros projet, mais c'est lourd pour un contributeur intermittent (qui envoie un patch tous les 36 du mois) car on peut se retrouver vite à s'emmêler les pinceaux. Avoir des branches locales et se baser sur un seul remote est bien plus facile.
    Bien sûr la raison est de te pousser à gérer tout cela dans ton navigateur, sur le site web, puisque leur UI a un workflow adapté à ces logiques incongrues. Mais franchement je préfère de loin gérer le plus de truc possible dans ma console.

    Je parle même pas de la sémantique. C'est pas un fork que je veux faire! Je veux juste patcher un projet, pas le forker. C'est d'ailleurs terrible pour les petits projets: combien de fois (des dizaines!) je me suis retrouvé sur un projet github à me demander s'il s'agit de l'upstream ou non. Pour des petits projets, un moteur de recherche peut répondre plusieurs pages github et la première n'est régulièrement pas l'upstream.

    Non, moi si je veux publier un projet, je reste sur tuxfamily ou autre petit hébergeur. Au moins, ils essaient pas de se faire passer pour du réseau social.
    Et je dis tout ça, mais j'ai pas mal utilisé Github, quotidiennement et des milliers de commits lorsque je bossais pour une startup qui l'utilisait. Ça marche très bien tant qu'on reste dedans et qu'on s'adapte à leur logique bizarre de fork, y a pas à dire. Mais c'est loin d'être la meilleure logique de contribution.

    Sinon pour répondre, moi aussi, c'est pour moi: je veux réparer des logiciels ou avoir des fonctionnalités, je les code. J'ai appris à ne plus me reposer sur et attendre les autres, mais à faire les choses moi-même.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: pilote noyau

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche scdrand: alimenter le pool d’entropie du noyau à partir d’une carte à puce. Évalué à 3.

    C'est vrai, y a de quoi se poser la question. D'ailleurs quelque chose d'autre m'a intrigué: pour les utilisations "routinières" dont tu parles (signer, déchiffrer, authentifier), s'il n'y avait pas la carte, les logiciels de cryptage (GnuPG en tête donc) tirerait profit de /dev/(u?)random, non? Donc finalement, ton programme ne pourrait-il pas tout simplement remplacer Scdaemon de manière transparente? GnuPG ne communiquerait plus directement avec la carte, mais en cherchant de l'aléa dans les /dev/(u?)random, il utiliserait indirectement la carte en fait, sans même avoir à le savoir.
    Ou alors la carte a d'autres fonctionnalités et son rôle n'est pas uniquement de produire de l'aléa rapidement. Y a un processeur dédié pour accélérer des calculs de crypto aussi, peut-être?

    Comme je le disais, je connais rien à ces cartes, donc ces questions sont peut-être un peu ridicules, mais bon. C'est bien pour ça qu'on demande un article supplémentaire dessus. ;-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Vitesse d'utilisation seulement ou aussi sécurité?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche scdrand: alimenter le pool d’entropie du noyau à partir d’une carte à puce. Évalué à 3.

    Mais ce type de carte ne marche qu'avec GNUPG? J'imagine que c'est quand même plus générique et que cela peut avoir d'autre usage, non? Parce que si c'est le cas, je préférerai un article sur ce type de carte et ses différents usage, à quoi ça sert, à quoi ça ne sert pas (par ex si j'ai bien compris, cela ne rend pas les choses plus sûrs, mais plus rapides, etc.), quels logiciels peuvent en tirer profit, etc.

    Ça empêche pas de faire aussi un article séparé sur GNUPG si vous voulez, mais je ne voudrais pas que cela éclipse le sujet de ce type de carte, perso. Donc 2 articles, c'est peut-être mieux. Un qui focalise sur les cartes, l'autres sur GNUPG. Car GNUPG, bon je suis pas expert, mais je connais déjà un peu. Par contre ces cartes, ça m'intrigue. Je savais que ça existait, mais c'est la première fois que je lis un cas d'utilisation.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # Vitesse d'utilisation seulement ou aussi sécurité?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche scdrand: alimenter le pool d’entropie du noyau à partir d’une carte à puce. Évalué à 10.

    Salut,

    C'est vachement intéressant, mais je me demandais si le but est seulement d'améliorer la vitesse d'utilisation des logiciels qui utilisent /dev/random et /dev/urandom ou si cela en améliorait aussi la "qualité" d'aléatoire. De l'aléa de meilleur qualité que ce qu'il y a en général dans ces interfaces.

    Aussi quand tu crées une clé, pour reprendre ton exemple, la clé peut-elle être plus "sûre" avec du bon aléa? Y a-t-il une notion de qualité d'une clé, deux clés de la même taille peuvent-elles avoir intrinsèquement une sécurité différente?

    Sinon oui, comme le commentaire au dessus, je suis curieux de connaître l'utilité générale d'une telle carte, car je n'ai jamais eu affaire à quiconque qui en avait une. Comment ça s'utilise, etc.
    En tous cas, ton outil a quand même l'air extra et améliore grandement l'utilité existante de ces cartes en les rendant utile génériquement (transparent pour toute application qui utilise /dev/(u?)random et qui utilisera donc la carte indirectement sans le savoir). C'est génial. Si ce n'est déjà fait, tu devrais t'associer avec un projet plus gros, probablement GNUPG, et leur soumettre ton utilitaire pour que cela soit installé par défaut chez toute autre personne qui aurait une telle carte.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Peut être à rien pour toi

    Posté par  (site web personnel, Mastodon) . En réponse au journal Jabber ça sert à quoi pour un particulier ?. Évalué à 10.

    j'ai déjà eu une réflexion similaire: il serait relativement facile d'automatiser la recherche de fonctionnalités disponibles dans des clients. Des batteries de tests par XEP seraient intéressantes aussi, mais un peu plus compliquées à mettre en place. Malheureusement c'est un gros boulot que personne n'a le temps de faire. Ça serait bien dans le rôle de la XSF de faire ça, mais je pense qu'ils ont d'autres chats à fouetter.

    Et c'est bien dommage. Je trouve qu'il y a un gros gâchis de compétences à la XSF. J'y ai été membre quelques années, j'ai vraiment cru à XMPP. Note que j'aime toujours XMPP et que j'aimerais toujours que cela remplace les réseaux proprios, mais désormais j'y consacre moins de temps et suis passé d'acteur à spectateur. On verra. Comme tu dis, je pense qu'ils ont raté non pas un seul virage, mais une succession de virages les uns après les autres. Il faut voir si la communauté est capable de revenir dans la course. Des fois je pense que je reviendrai peut-être dans le cercle des gens qui poussent ce proto, et à développer dessus, mais je sais pas. J'aimerais bien. Qui vivra verra. :-)

    Quand j'étais à la XSF, je voulais participer et faire des choses (je dis pas ça en l'air, d'ailleurs mon nom est dans la section "Acknowledgements" ("Remerciements") des RFC 6120 et 6121 pour justifier que quand je dis que je veux contribuer, je contribue). Mais je n'avais pas le temps ni l'envie non plus de le faire à temps plein (j'avais mes propres projets, certains en rapport avec XMPP d'ailleurs, mais je voulais aussi participer à l'effort de la fondation: code/scripts, doc, promotion, ce qu'on pouvait avoir à faire selon les projets du moment!). Nombreux peuvent se permettre le temps plein, car c'est leur emploi. Que ce soit Peter Saint André ou d'autres, ils sont payés pour cela (en plus d'aimer!). Moi j'aimais et je voulais aussi participer, mais en amateur, en contributeur régulier. C'était un choix. Au final, rien ne se passait jamais. Notre seule activité de membre était de voter 4 fois par ans pour les nouveaux membres. Régulièrement j'envoyais des emails pour proposer de l'aide pour ceci ou cela, mais rien ne se passait non plus. Je ne voulais pas être leader. Comme je disais, je ne voulais pas bosser dessus à temps plein. Je voulais "contribuer". Je voulais un projet organisé où je puisse "patcher", non pas "maintenir". Mais non, vraiment rien. D'ailleurs je proposais même des participations plus grosses de temps en temps. J'avais par exemple fait un plugin wordpress pour s'identifier sans mot de passe, de manière très sécurisé (basé sur la XEP-0070). Je trouvais que c'était un super cas d'utilisation de XMPP en dehors du chat, et que la XSF pouvait l'utiliser pour promouvoir le concept. D'ailleurs y avait aussi une partie visible par les utilisateurs puisqu'on pouvait aussi commenter sur le site en s'authentifiant par son compte IM. C'était donc un super moyen de lutter aussi contre le spam tout en promouvant le protocole! Mon code marchait du tonnerre, je leur proposais de l'intégrer et de le maintenir; et même s'il avait fallu, je leur ai dit que je pouvais donner mon copyright sur ce code à la fondation. Je n'ai jamais eu de refus (ce qui aurait été ok! J'accepte un refus clair), mais pas non plus d'engouement. Au final, comme tout à la XSF, ça finissait en eau de boudin, sans vraiment de fin claire.
    Au final je me suis lassé. J'ai eu l'impression qu'être membre de la XSF n'avait aucun sens puisqu'ils ne nous utilisaient pas à notre plein potentiel (c'est peu dire!).

    Les batteries de test dont tu parles, je ne sais pas ce qu'il en est de nos jours, car je ne suis plus les activités de la XSF, mais cela fut en projet à un moment. Je me rappelle que Bear, un contributeur important de la XSF, avait lancé le projet, annoncé qu'il avait commencé à le coder en python, et fait un appel à contributeurs. J'avais été un des premiers à répondre, et à demander où était le code. Bear m'a répondu qu'un dépôt de source allait être créé. J'attends toujours. C'était en 2011. La page wiki ne montre aucun historique depuis. J'attends.

    Au final, il y a beaucoup de gâchis de potentiel. La XSF a énormément de membres qui n'attendent que ça: aider. Ils veulent des petites tâches, et ils se proposent sans cesse pour cela. Mais ils ne veulent pas faire du leadership. Ça tombe bien, y en a aussi d'autres à la XSF qui adorent cela. C'est comme cela que ça se passe habituellement dans les projets Libres: certains veulent juste envoyer des patchs; d'autres veulent organiser, faire de la revue, décider; d'autres encore veulent faire de l'infra, monter des serveurs, etc.. Et c'est très bien comme ça! À la XSF, en tous cas à l'époque, le problème était que les leaders ne savaient pas utiliser leur communauté. Ceux qui voulaient participer aux projets. C'est dommage, tout le monde sait que les petits contributeurs sont extrêmement importants dans le Libre.

    Donc voilà. Tout ça pour dire que c'est bien dommage. J'aimerais bien que la XSF fouette ce chat là (violence animale!), comme pleins d'autres, et je vous assure qu'ils auraient les ressources humaines pour le faire s'ils s'organisaient pour gérer les contributeurs, qui n'attendent que ça.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: GNU Radio

    Posté par  (site web personnel, Mastodon) . En réponse au journal GNU Radio et l’exploration spatiale. Évalué à 10.

    A priori, l'article dit qu'ils ont modifié GNU radio pour communiquer avec la sonde (je sais pas si ça a été remonté upstream, une courte recherche ne me donne pas trop d'info dessus. Peut-être aussi que c'était des changements trop spécifiques à cette sonde qui poseraient problème pour les usages plus courants). Si cela avait été un logiciel proprio, ils n'auraient pas eu accès aux sources vraisemblablement, donc ils n'auraient pas pu modifier. Même s'ils avaient eu accès aux sources, ils n'auraient probablement pas eu le droit de les modifier, même pour leur utilisation personnelle. Ou alors c'eût été par un système de plugin qui permettrait de spécifier le protocole de la sonde, et donc limité en fonctionnalité. Et puis il aurait fallu voir le tarif éventuel de ce logiciel propriétaire (la radio n'étant pas quelque chose de commun, donc dit "logiciel métier", quelque chose me dit que des logiciels proprios de radio, ça doit coûter bonbon). Je dis pas que c'est impossible, mais cela fait beaucoup de "si" et de barrières potentielles, éventuellement dangereux juridiquement.
    En choisissant un logiciel Libre, ils se sont tout de même vraiment simplifié la tâche.

    Quant à réécrire tout un logiciel de radio à partir de rien, c'est possible aussi bien sûr, mais il faut bien voir que c'est pas la NASA justement. Il s'agit d'un groupe d'amateur, qui y ont sûrement passé beaucoup de temps, mais en auraient passé 100 fois plus s'il fallait tout refaire (et donc probablement n'auraient pas fait).

    C'est ainsi que je vois les choses. Certes tout le monde peut théoriquement tout faire. On n'a pas besoin de logiciels Libres pour faire quelque chose. Mais dans la pratique, on ne peut pas tout faire. Déjà par manque de temps, puis d'argent, ensuite par connaissance, etc. Or le Logiciel Libre a permis a donner aux mondes accès à des activités qui avaient été jusque là impossible pour des particuliers, des petits groupes de personnes, associations, petites entreprises, etc. Par exemple contrôler des sondes dans l'espace! Tu penses vraiment que sans GNU radio, ce groupe d'amateur (en regardant sur le site, il s'agit apparemment d'un organisme non-lucratif sur l'éducation en exploration spatiale, qu'ils ont créé cette année à l'occasion de ce premier projet) aurait monté ce projet? Pas complètement impossible, mais beaucoup moins probable.
    Donc je reviens sur ce que j'ai dit plus haut: on n'a pas fondamentalement besoin de Logiciels Libres pour survivre, mais c'est quand même une grande avancée pour l'humain en matière de partage, d'accès aux connaissances, d'auto-enseignement, etc. Et donc au final, je trouve que la FSF a bien raison de présenter cet article ainsi. Car si ce projet est un très bel exemple de ce qu'il est possible de faire de nos jours avec les LL, notamment sans être riche, un organisme gouvernemental ou une multi-nationale.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: La Corée: future championne du Libre?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Revue de presse de l'April pour la semaine 26 de l'année 2014. Évalué à 3.

    Ben de manière général, c'est le Libre qui est pas encore un grand succès. Pour ça que les utilisateurs d'OS libres tournent autour des 2% (moins ou plus selon les stats). Donc quel que soit le pays, c'est normal de pas avoir l'impression d'un esprit "ouvert en informatique", si par "ouvert", on entend "quelqu'un pour qui les licences FLOSS importe, ou les formats importent, etc.". La vérité est que la plupart des gens s'en foutent, et ce quelque soit le pays.

    Ensuite la France est pas si mal. J'arrive pas à avoir de statistiques sur les contributeurs libristes par pays (en même temps, c'est dur à faire, je pense que la plupart des contributeurs ne disent pas leur pays. Je sais que personnellement, je ne me sens pas défini par ma nationalité. Ceci dit, des sites comme Ohloh doivent avoir les données pour faire des stats pas trop loin de la réalité), mais mon ressenti général est qu'y a quand même pas mal de français dans les contributeurs de pas mal de projets majeurs.

    De manière générale, l'Europe est vraiment pas mal. On a pas de quoi avoir honte. L'US est pas trop mal non plus, notamment par leur culture forte de start-up, je pense. L'Extrême Orient maintenant est à l'heure actuelle un gros trou-noir du Libre. Le Libre là-bas est anecdotique, si ce n'est quasi inexistant (attention, je dis pas que ça existe pas! On rencontre, rarement mais ça arrive, quelques contributeurs sur la toile, et j'ai même visité Mozilla Japan. Donc je sais qu'ils ont une présence. Simplement elle me paraît bien moindre comparé à la France par ex). Tiens cette carte du navigateur web le plus utilisé par Pays (source Wikipedia - CC BY-SA 3.0 - Roke, Altes, and Peeperman) est assez explicite:
    Countries by most used web browser  - CC BY-SA 3.0 - Roke, Altes, and Peeperman
    En bleu, IE, vert Chrome et Orange Firefox.

    Bon bah on voit que l'Europe et l'US, c'est globalement Chrome, avec Firefox qui domine anecdotiquement dans quelques pays. L'Afrique et les îles du Pacifique, beaucoup de Firefox, mais je me demande si cela n'a pas à voir avec la forte présence d'aides et accompagnements humanitaires là-bas (dont notamment des assoces qui veulent apporter l'informatique en promouvant des solutions Libres). Puis y a soudain ce gros pavé bleu qui comprend Chine, Corée et Japon (+ quelques autres pays, mais je garde le focus sur l'Extrême-Orient). Cette petite partie du monde qui n'a pas abandonné IE, qui s'accroche encore à un univers purement propriétaire (et Windows uniquement).
    Alors c'est bien, y a des annonces, y a des projets (la Chine avait aussi des projets d'OS basé sur Linux si je me souviens, et y a de plus en plus de startup là-bas aussi), mais le chantier est vaste et loin d'être terminé.

    En France aussi, le chantier est vaste, mais on l'a commencé plus tôt, je pense. C'est la différence. Et on est peut-être pas les meilleurs, mais c'est pas grave: c'est pas une compétition. ;-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: La Corée: future championne du Libre?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Revue de presse de l'April pour la semaine 26 de l'année 2014. Évalué à 3.

    Tout à fait. :-)

    J'ai vécu en Corée pendant un an, il y a très peu. Je réagissais donc à maclag qui voyait la Corée comme "future championne du Libre", pour relativiser un peu ses dires.

    De son côté, la France est plutôt bonne élève pour le Libre et les formats ouverts (malgré quelques couacs tout de même de temps en temps), comme tu le fais très bien remarquer Kerro. C'est justement ce que je disais. :-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: La Corée: future championne du Libre?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Revue de presse de l'April pour la semaine 26 de l'année 2014. Évalué à 2.

    C'est une bonne nouvelle, mais ça reste qu'une annonce. On a aussi pas mal d'annonces officielles en faveur du Libre ou des formats ouverts en France, par divers organismes publics. Et même si ça avance globalement dans le bon sens, on voit que cela reste lent, avec parfois des à-coups en arrière (contrats avec Microsoft sans appels d'offres, etc.).

    Donc pour la Corée, c'est plutôt bien, mais ça reste un sacré chantier. Quasi aucune banque ne permet la banque en ligne avec autre chose que Windows; et même sous Windows, ça oblige à utiliser IE, aucun autre navigateur, faut télécharger un plugin opaque avec autorisation de s'exécuter sur l'ordi (ce que je trouve vraiment contraire à tout bon principe de sécurité, mais pas le choix: c'est ça ou pas de gestion de ses comptes en ligne).
    Et de manière générale, c'est vrai pour énormément de sites, notamment la plupart des trucs officiels, ou les universités (télécharger des attestations de diplôme, etc.), etc. L'autre jour par exemple, mon amie coréenne voulait regarder une chaîne de télé en streaming. Elle a dû lancer Windows en VM car elle est sous Linux (et que pareil, il fallait obligatoirement IE, ça télécharge un truc à accepter, etc.).

    Donc je dis: c'est cool et oui, ça va dans le bon sens. Mais la situation est si terrible là-bas du côté du Libre que de toutes façons, c'est dur d'aller dans l'autre sens (car on est à l'extrême déjà). C'est loiiin d'être le paradis du Libre et la Corée est loin d'être championne du Libre pour au moins quelques années. C'est vrai de manière générale pour le Japon aussi d'ailleurs. Pareils, ils sont retardés du Libre, et trouver des libristes par chance là-bas tient du miracle.
    Maintenant reste à voir si l'effet d'annonce est suivi d'actes, mais faut pas s'attendre à ce que ça arrive d'un seul coup (faut déjà qu'ils refassent tous les sites web!).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: pour Inkscape

    Posté par  (site web personnel, Mastodon) . En réponse au journal Campagne Kickstarter pour Krita. Évalué à 7.

    Je ne comprends pas où tu veux en venir, le SVG n'est clairement pas destiné à l'impression.

    Je pense que vous parlez pas du même type d'impression. D'ailleurs il donne en exemple des machines de découpe et parle de logos. Alors en effet, quand tu veux imprimer un poster, ce sera souvent du raster (mais en fait pas forcément. Y a pas mal de posters où fournir du vectoriel pourrait être adapté). Par contre quand tu imprimes des "formes", genre logos ou autres designs stylisés, vaut mieux le faire en svg.

    Regarde les multitudes de sites pour faire ses propres t-shirts par exemple: selon la technique d'impression que tu choisis, tu dois soit uploader du raster, soit du vectoriel. Et c'est parfois même pas du "au choix": sur ce site par ex, 2 (impressions "flex" et "flock") des 3 techniques pour imprimer sur t-shirt requiert du vectoriel; ou encore pour imprimer des logos sur des clés usb, on demande en général du vectoriel si possible.

    Ensuite les machines de découpe laser ou gravure, c'est aussi du vectoriel. Tu vas découper/graver selon des formes (lignes droites ou courbes, etc.). La couleur a encore moins d'importance là (en fait même aucune!).
    Dans les fablabs que j'ai visité, ils envoyaient des designs dessinés sur Inkscape dans leur découpeuse/graveuse laser.

    l'important étant surtout l'utilisation de l'espace de couleur CMYK […]
    De plus il y a quelques imprimeurs à qui tu peux envoyer des fichiers en RGB ou n'importe quel autre format « exotique » (pour un imprimeur) comme PNG ou GIF, ils te feront tes vinyles adhésifs, tu seras peut-être surpris par les couleurs ou la pixelisation sur le résultat final :)

    CMYK sur un écran n'est qu'une simulation, par définition. Si tu as bien calibré ton écran, ce qui sortira chez l'imprimeur devrait être très proche de ce que tu as sur ton écran en RGB. Inversement si tu n'as pas calibré ton écran (ce qui est le cas de quasi tout le monde), voir ton image dessus en simulation CMYK n'a absolument aucun intérêt. Limite c'est plutôt ridicule et montre juste une complète incompréhension de tout ça. Ceci dit, c'est un sujet très compliqué, donc c'est pas non plus une honte de pas comprendre. Par contre, c'est idiot de se braquer sur des discours marketing (qui vont vous vendre du "CMYK" comme un truc magique), ce que beaucoup de pros font sans chercher à comprendre la technique.
    Et encore même ça c'est pas suffisant. Idéalement il faut demander à son imprimeur le profil de l'(imprimante, papier choisi) (j'appuie sur le fait que c'est un profil pour un couple imprimante+papier. Utiliser un autre papier sur la même imprimante générera un profile différent. Et encore, on suppose qu'il ne change pas de couleur/marque d'encre, car ça générerait bien sûr un nouveau profil). Ce profile peut permettre de simuler le rendu sur votre écran (lui-même correctement configuré), si votre programme permet ce genre de chose.

    Mais dans tous les cas, il faut bien être conscient que tout cela n'est que simulation. Seul une impression réelle donnera le vrai rendu à coup sûr. "Utiliser" CMYK n'y change absolument rien.
    Quant au bon imprimeur, il travaille parfaitement bien avec du RGB et y a aucune surprise chez personne. Faut juste discuter avec lui des détails techniques pour avoir le rendu attendu.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Vie privée et Piwik

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Un nouveau pelage pour Firefox 29. Évalué à 10. Dernière modification le 01 mai 2014 à 23:21.

    Beaucoup d'utilisateurs contribuent aussi en rapportant des bugs, en exprimant leurs besoins, en donnant leurs avis et conseils, en s'entraidant ou encore en faisant la promotion.

    C'est vrai, et ça c'est bien. Fort heureusement il y a beaucoup de bonnes contributions hors-code. Mais il y a aussi beaucoup de contributions très nocives. À certains moments, la critique va trop loin, surtout quand elle part en insultes et attaques personnelles. On en a régulièrement sur les listes et le tracker de GIMP par exemple (notamment au sujet des fonctionnalités controversées, qui dérivent sur des fils de discussions virulents et font perdre beaucoup de temps aux contributeurs utiles). Alors bien sûr, on pourrait passer outre l'insulte, mais on est humain. Quand quelqu'un nous dit en substance "corrigez ça, vous nous le devez, ou sinon vous servez à rien, votre logiciel est nul et vous êtes un abruti", franchement ça donne pas envie de corriger du tout (bien qu'on le fait quand même quand il s'agit d'un vrai bug) et c'est une "contribution" dont on se passerait. L'autre jour, sur IRC, on a même eu une personne qui s'est connectée 10 secondes, a proféré une série d'insultes en CAPS lock en italien, puis s'est barré. Pour sûr aucune idée si c'était juste un fou ou ciblé bien sûr, mais bon…

    GIMP est exactement dans le cas cité: très peu de contributeurs, et parmi eux extrêmement peu de codeurs actifs et réguliers (ça se compte sur les doigts d'une main). En plus, à l'heure actuelle, c'est du 100% bénévoles. Personne n'est employé, même indirectement ou partiellement, pour améliorer GIMP. Par contre beaucoup de gens se plaignent et nous disent qu'on a un devoir envers eux, qu'on se croit supérieur car on écoute pas les critiques et que la fonctionnalité ou bug qui leur pose problème est bien évidemment critique. Mais la vérité est qu'on aimerait corriger tous les bugs et avoir pas mal des fonctionnalités vraiment cool dont quelqu'un a exprimé le besoin. Mais on a pas le temps, on a nos priorités personnelles (puisqu'on est bénévole en particulier, c'est aussi normal), donc on leur dit "ben si quelqu'un code ça, on prend"! Et bien sûr, on passe pour des raclures qui prennent pas en compte le besoin utilisateur. Et d'un autre côté, quand des choix ont été fait dans un but précis et expliqué, on va pas revenir dessus tous les 5 matins. On pourrait si vraiment on se rend compte d'une erreur, mais nous insulter et rabâcher sur le sujet n'est pas pour nous inciter à le faire.
    En gros la critique, c'est bien, mais à un certain moment, faut savoir poser une limite quand la dite critique devient non-constructive, puis même nocive et anti-productive.

    Edit: juste pour préciser, il y a aussi beaucoup de contributeurs et gens sur les mailing listes et bug tracker cool, et c'est globalement très sympa de contribuer à GIMP. La plupart du temps, les retours sont très bon et on est heureux d'y participer. Mais je pointe juste les parties négatives ici qui arrivent aussi régulièrement, puisque c'est le sujet du fil de discussion!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Hitchhik'R

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Hackathon 76 : les lauréats et le clip. Évalué à 4.

    Aux US, il existe des startups/apps similaires pour smartphone qui — paraît-il — sont vraiment en train de mettre à mal le business des taxis. Déjà apparemment énormément de monde se mettent à utiliser ces apps car: c'est bien plus simple (juste un clic sur son smartphone et la voiture libre la plus proche peut répondre à l'appel); plus rapide pour se faire prendre en voiture qu'avec les taxis normaux; et aussi moins cher (et surtout le prix est connu d'avance, si je ne m'abuse, et payé directement au travers de l'app. Pas besoin de sortir du cash ou sa carte. On rentre en voiture, on roule, puis on sort, basta!).

    L'un des gros coups de ces apps est que ce ne sont pas des sociétés de taxis à la base. Comme pour beaucoup de startups, ils ne font que l'intermédiaire (crowdsourcing!), et donc ce sont souvent des sociétés tierces qui ont des voitures et commencent un nouveau marché de taxi moderne (je suis pas sûr si des particuliers peuvent rentrer dans le jeu en se proposant comme conducteur cependant). Donc ils ont complêtement empiété sur le marché des taxis. Concurrence directe. Les sociétés de taxi essaient même de faire fermer certaines de ces startups (comme toujours: on ne peut pas concurrencer à la loyale par notre qualité de service? Appelons nos potes politiciens et régulons à la place)!

    Ceci dit, je serais clairement pas contre une version de ces apps mais plus communautaire et juste, comme de l'auto-stop (d'où "Hitchik'R"). Simplement on a une voiture et quelqu'un à proximité va dans la même direction? Hop on donne un coup de main, et ce faisant on réduit l'emprunte carbone de nos voyages, etc. :-)
    Un peu à la CouchSurfing (sauf qu'eux font l'inverse et sont passés de communauté à société), mais pour les déplacements.
    Ce serait beaucoup plus cool.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # Merci!

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Meilleurs contributeurs LinuxFr.org : les gagnants d'octobre 2013. Évalué à 6.

    Merci Linuxfr et merci aux sociétés donatrices.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Tu compiles depuis Win ou en natif?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GTK+ 3 disponible officiellement pour Win32 !. Évalué à 3.

    Salut,

    Désolé pour la réponse tardive

    Même tard, merci pour la réponse. Je ne crois pas qu'on puisse se faire prévenir par email sur linuxfr (et franchement dans les cas où un de nos commentaires innocents déclenchent des discussions déchaînées par certains des trolls sévissant ici, franchement non merci!).
    Par contre on peut peut-être continuer la discussion par email. :-)

    Tu peux réessayer maintenant, il est tout à fait probable que ça fonctionne.

    Ok je réessaierai et je t'enverrai un email directement, avec les messages d'erreur, si ça foire. :-)

    autotools/mingw, avec des scripts perso.

    C'est peut-être le problème. Je cross-compile sans rien ajouter en "script perso". Normalement un projet devrait bien cross-compiler de la même manière que la compilation native, avec les autotools (on ajoute simplement les options qui vont bien. Je réalise que tes scripts persos, c'est peut-être juste ça: des scripts pour rajouter les options qui vont bien au ./configure et mettre à jour les variables d'environnement. Pour ça j'ai développé mon outil générique en fait: crossroad).
    J'arrive parfaitement à cross-compiler la branche gtk-2-24 par exemple sans rien faire spécial (pas tout à fait vrai, j'ai un petit patch en attente, mais une fois ce patch appliqué, c'est bon).

    Bon en tous cas, je réessaye pour master, et je te tiens au courant.
    Merci pour la réponse.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # Tu compiles depuis Win ou en natif?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GTK+ 3 disponible officiellement pour Win32 !. Évalué à 4.

    Salut Tarnyko,

    Si je comprends bien, tu es celui qui maintient ces paquets. J'ai voulu cross-compiler gtk+ master à l'instant, et ça foire. Quand je regarde les Makefile.am, je constate que c'est normal car il y a des règles vraisemblablement manquantes requises par d'autres règles conditionnelles entourées de "if OS_WIN32" (donc ça reste invisible jusqu'à ce qu'on compiles pour Win).

    Donc la question que je me pose est: tu compiles avec les autotools ou avec un autre système de build (je vois des makefile.msc qui parle de compiler avec Microsoft C apparemment et je vois des fichiers pour Visual Studio)?
    Autre question: tu compiles sous Windows, ou tu cross-compiles?
    Merci!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Troll

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche FFmpeg 2.1. Évalué à 5.

    Ahahah. Tu aimes bien dialoguer et argumenter tout seul, même lorsqu'on te dit qu'on est d'accord avec toi.

    Et oui j'ai été un peu fort dans mon propos, ce que je n'aime pas faire. Mais c'est vraiment parce que c'est toi. :-D Tu aimes tellement troller juste pour troller que j'ai même plus envie de répondre à tes messages. D'ailleurs c'est ma dernière réponse sur le sujet. Comme j'ai dit, je suis d'accord. À toi de pas me croire et de savoir mieux que moi ce que je pense, si ça t'amuse. :-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Troll

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche FFmpeg 2.1. Évalué à 6.

    C'est ce que je dis, apprends à lire.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Troll

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche FFmpeg 2.1. Évalué à 3.

    Petit ajout:

    Bref, ffmpeg s'occupe d'être rétro-compatible […] et d'être compatible avec libav.

    Juste au cas donc où j'étais pas assez clair, le bug que j'avais patché était justement qu'a priori le code marchait avec le libav du projet libav, mais pas le libav de ffmpeg que j'avais sur ma machine. Donc ffmpeg n'était pas compatible avec "l'autre" libav.
    Note encore une fois: je ne dis pas que c'est de leur faute, et je suis aussi neutre que possible. Je ne prends pas trop parti. C'est juste une constatation et en tant qu'utilisateur, ben on se retrouve avec des bugs, et dire que le libav de ffmpeg est "compatible avec libav" — juste parce que c'est écrit — n'est pas toujours vrai (même si probablement ils essaient, j'ai pas vérifié, mais c'est apparemment ce qui ressort des dires de gens comme toi, et je veux bien vous croire).
    C'est pourquoi je dis que la solution n'est pas tenable, et même en choisissant libav comme base en se disant que ça marchera partout (en partant du principe que ffmpeg se dit compatible avec libav), ben on se retrouve avec des bugs. C'est chiant et intenable comme situation.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Troll

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche FFmpeg 2.1. Évalué à 1.

    Salut,

    Je ne parlais pas de différence, mais de compatibilité au niveau des arguments en ligne de commande, voire de l'API (pouvoir remplacer ffmpeg par libav et inversement sans que ton script/programme se retrouve cassé. Ce qui compte quand on remplace ffmpeg par libav dans une distrib')

    J'avais bien compris, et je dis justement que c'est pas suffisant. L'API peut être similaire, mais avec les mêmes arguments justement, un programme se retrouvera cassé selon l'implémentation. C'est le cas dans le bug que j'ai corrigé sur blender où on se retrouvait avec diverses implémentations d'un même codec selon le projet (à l'époque où j'ai patché, j'utilisais l'implémentation libav de ffmpeg!), et on doit tester à l'exécution. Avec les mêmes arguments justement, c'était pas portable de l'un à l'autre, ni réciproquement.

    Morceaux choisis :

    Je donnais des cas réels avec patchs à l'appui. Pas des "morceaux choisis" extraits de doc ou de beaux discours.

    Maintenant soyons clair. Je ne dis pas que l'un est mieux que l'autre et je ne jette sûrement pas la pierre à l'équipe de ffmpeg sur le coup. Vu de l'extérieur (de loin, car je ne suis pas vraiment cette histoire, en gros les commentaires dans ton genre ou les blog posts dont les liens sont donnés plus haut sont informatifs pour moi), il semblerait que l'équipe de ffmpeg a en effet un comportement plus sain que ceux de libav, ou du moins font plus d'efforts. Peut-être que le problème que j'avais patché à l'époque n'était qu'une erreur passagère, un oubli, et que depuis l'équipe de ffmpeg a amélioré la compatibilité des codecs avec libav.
    Néanmoins je dis juste que tout n'est pas aussi bien et bon avec l'implémentation de ffmpeg qu'ils le prétendent. Probablement pas de leur faute s'ils doivent constamment faire avec une équipe hostile chez libav, mais c'est un fait, appuyé par des patchs ici et là de divers dév, et des logiciels qui cassent, etc.

    Pour moi, c'est une situation qui ne peut pas tenir. C'est pas sain. On ne peut pas avoir deux équipes hostiles dont l'une refuse catégoriquement de collaborer avec l'autre, et qui travaillent sur une API de même nom. Même si la première fait énormément d'efforts dans ce sens, les efforts doivent être dans les 2 sens, sinon ça ne peut être que bancal!
    Il faut que l'une accepte de renommer ou alors que les deux équipes se mettent finalement d'accord pour collaborer. Et je suis d'accord que ce serait bien plus justifié si le fork (donc le projet libav) était celui qui renomme, car après tout… ben ils sont un fork du premier! Mais de manière évidente (ne serait-ce que par le nom de projet qu'ils ont choisi: libav), il semblerait qu'ils ne veulent vraiment pas et qu'ils sont bornés. Donc je vois pas de solution, mais tout ce que je constate, c'est que la situation est devenue un véritable enfer pour les utilisateurs comme pour les développeurs tiers. Et ce, quelque soit la bonne volonté de l'équipe ffmpeg. Là n'est pas la question.
    Les faits sont dans les patchs et les commits des projets, dans les tentatives de compilation, et dans les logiciels qui cassent à l'usage (même en utilisant ffmpeg!), pas dans des "morceaux choisis" sur des sites web.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Troll

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche FFmpeg 2.1. Évalué à 10.

    Je sais pas vraiment ce que signifie "l'inverse n'est pas vrai" (j'entends par là: "ça veut rien dire" car si A fait différent de B, alors B est différent de A). Il s'agit "soi-disant" de deux implémentations de libav, et elles sont différentes. Donc c'est juste pénible. J'ai déjà dû corriger un problème avec des patchs dans deux softwares que j'utilise à cause de différences entre les implémentations: blender et DVDStyler. Et c'est des bugs plus subtils que juste une API différente (en gros, des implémentations différentes de même codecs), donc plus difficiles à repérer et corriger (détection à l'exécution), comme on peut le voir dans mes patchs, ce qui fait que ces bugs ont été présents un moment dans la nature et sont probablement encore présents dans divers logiciels.

    Aussi j'ai régulièrement des problèmes avec mplayer depuis que je suis passé sous Mint alors que c'était mon logiciel vidéo phare. A priori c'est parce que les paquetages utilisés sont ceux de libav (alors que les dév mplayer utilisent bien sûr la version de ffmpeg).
    Et lorsque j'essaie de compiler certains software qui utilisent libav, j'ai régulièrement des problèmes, selon que les dévs utilisent plutôt une version, et moi une autre.

    Franchement c'est juste ridicule. C'est une guerre de gamins. La solution est pourtant simple: s'ils veulent réellement faire différent, très bien! Aucun problème pour moi. Mais renommez. Que l'une des équipes trouve un nouveau nom et on peut installer les deux libs côte-à-côte, et ainsi les divers logiciels choisissent la librairie de leur rêve et les blems sont finis. Je comprends bien que le nom est important pour la notoriété et la base utilisateur, mais c'est pas notre problème! Ils ont fait un choix conscient de forker, ils pourraient assumer jusqu'au bout.
    Parce que là en tant que simple utilisateur, on se retrouve pris en sandwich/otage dans une guerre absurde où on nous demande de choisir aussi en gros, sauf qu'en vrai, on nous laisse pas le choix (c'est en général notre distrib qui choisit), et on se retrouve avec des blems sur une moitié des logiciels qui utilisent libav.
    Et en tant que dév tier neutre, c'est aussi chiant, car on doit constamment corriger des bugs et des changements pour essayer non plus de suivre 1 librairie, mais pour contourner les différences qui apparaissent progressivement entre 2 librairies qui prétendent être la même sans l'être.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Enfin !!!

    Posté par  (site web personnel, Mastodon) . En réponse au journal GTK+ 3 disponible officiellement pour Win32 !. Évalué à 5.

    C'est toujours base sur le X11 de mascosx ou ils ont finit par utiliser cocoa?
    Entre x11 et les raccourcis mappes sur ctrl plutot que cmd, c'etait vraiment une plaie a utiliser.

    Pour GIMP, on conseille aux gens d'utiliser le backend Quartz de GTK+ pour OSX (= Cocoa d'après ce que je lis sur le web), car GTK+ sous OSX avec X11 serait vraiment trop mauvais/cassé.
    Donc la réponse est "oui, GTK+ marche avec Cocoa", et c'est même conseillé (en tous cas par l'équipe GIMP). Cependant il semblerait que les "ports" (des sortes de paquetages pour OSX, si je pige bien) fournissent plus souvent un GTK+ compilé pour X11. L'autre jour, le designer principal de l'équipe réinstallait GIMP et il a dû compiler GTK+ à la main avec la cible "quartz" (option --with-gdktarget=[x11/win32/quartz/directfb]) à cause de cela.

    Tout cela avec beaucoup d'incertitudes dans mes propos, car je n'ai moi-même accès à aucun Mac, donc je ne sais pas à quel point le port Quartz est bien ou non. Et a priori il a aussi pas mal de bugs. Mais il reste mieux que sous X11 pour OSX d'après ce que disent ceux qui utilisent GIMP sous OSX (du moins pour GTK+ 2, car GIMP n'a pas encore migré vers GTK+ 3).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]