Jehan a écrit 1667 commentaires

  • [^] # Re: Cible ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Lancement de la campagne de financement de la caméra libre AXIOM Beta 4K . Évalué à 4.

    1) peuvent se permettre de mettre plusieurs milliers d'euros pour une caméra professionnelle?

    D'après moi clairement. Dans le milieu du cinéma, ils mettent vraiment des sommes faramineuses. Alors dans le milieu amateur ou semi-professionnel, ils n'ont pas les mêmes fonds, mais ils sont tout de même habitué à mettre plus que le particulier dans leur matériel vidéo et audio.
    Ensuite le financement parviendra-t-il à son but? L'avenir nous le dira mais même un échec ne pourra être interprété comme un échec plus générique de l'open-hardware dans le cinéma. Plein d'autres raisons peuvent expliquer cela. De toutes façons, perso j'y crois.

    2)qui ne l'auraient pas déjà fait en s'achetant un autre appareil du commerce,

    Bah les gens sont prêts à changer de matos s'il le faut. Et puis c'est pas comme si y a pas des nouveaux tous les ans (comme dans tous les métiers: les jeunes sont les futurs vieux!). C'est absurde de supposer que tous les cinéastes ont déjà leur matos pour les prochaines années. Dans ce cas là, y aurait pas qu'Apertus dans la merde. Le marché des caméras de cinéma serait verrouillé et plein de boites couleraient! uhuh

    3)prendraient le risque, pour un tel montant, d'un appareil non éprouvé?

    Ben ça reste raisonnable pour beaucoup de gens au contraire. Une location de caméra pour un film ciné à petit budget est déjà plusieurs fois ce prix là.

    L'AXIOM BETA est la BETA d'une caméra qui va évoluer pour arriver à l'ALPHA

    Euh non c'est l'inverse. Alpha, c'est fait, c'est maintenant. C'est le prototype qui est présenté maintenant tout de suite, les premiers tests, les premiers essais. Puis on s'est rendu compte des erreurs de conception, de jeunesse, le fait que ce premier prototype est trop cher et compliqué à dupliquer, que plusieurs des choix et designs électroniques n'étaient pas idéaux, etc. Beta sera donc le résultat suite au financement collaboratif, bénéficiaire de ce qu'on apprend de nos erreurs, et sera ce que les "financeurs" recevront à la fin.
    Plus tard y aura gamma, qui devrait être un modèle plus "prêt à l'emploi". Et j'imagine que si ça continue comme ça, un jour il pourrait y avoir delta, etc. ;-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: hcl + client

    Posté par  (site web personnel, Mastodon) . En réponse au journal h-node.org : GNU/Linux matériel compatible, base de données. Évalué à 6.

    C'est bizarre, la page dit "Laptops are currently unsupported". Quelle est la différence entre un ordi portable et de bureau? C'est la même chose fondamentalement. C'est la première fois que je vois un programme faire une telle différence, et je me demande si le programme refusera de marcher si je le lance depuis un portable, ou bien si le site refusera mes rapports de compatibilité s'il détecte que je les ai envoyé depuis un portable…

    Sinon la seconde chose qui me chagrine est que pour rapporter du matériel, il est écrit qu'on doit utiliser une des distribs appuyées par la FSF (c'est à dire pas grand chose d'utilisé, ça fait vraiment un micro pourcentage des utilisateurs), ou une Debian avec seulement le dépôt "main" activé (là y en a plus, mais ce choix est arbitraire).
    Encore une fois, je me demande ce qu'il se passe si on envoie un rapport de matos fait depuis une autre distrib. Sera-t-elle refusée? Non parce que cela rend le site beaucoup moins utile si quelques pourcents des utilisateurs GNU/Linux seulement peuvent rapporter.

    Bien sûr, je comprends tout à fait qu'ils limitent leur site aux matos qui ne marchent qu'avec du Libre, tout comme je comprends qu'ils appuient particulièrement les distribs qui prennent le parti de ne rien accepter de non-Libre. C'est la FSF, c'est leur rôle. Par contre tout le monde aurait à y gagner si tout le monde pouvait faire des rapports de matos. Y a des moyens de savoir si un matériel donné utilise des drivers/firmware non-Libre.
    Sans compter que ça veut rien dire si les dépôts non-Libres d'une Debian sont pas activés au moment du test: il suffit qu'ils aient été activés à un moment pour avoir installé des drivers proprios à ce moment là. De même qu'il est possible aussi de désactiver les dépôts non-Libre sur toute (ou presque, je sais pas si y a des distribs qui ne séparent pas le non-Libre dans un dépôt à part, mais ce serait l'exception) distrib GNU. Sur le coup, ils mettent uniquement Debian à part parce que c'est une collaboration entre FSF et eux. Mais c'est loin d'être une différenciation justifiée.
    D'ailleurs même les distribs 100% Libres, les utilisateurs ont pu installer "à la main" des drivers non-Libres à un moment.

    Enfin voilà, ce serait bien plus logique de faire une détection automatique du driver utilisé pour un composant particulier, de l'envoyer avec le rapport, et là les utilisateurs qui savent peuvent flagger le driver comme Libre ou non (et ne pas afficher sur le site tout rapport avec un driver non-Libre). Y aurait donc une table dans la base pour les drivers qui dise s'il est Libre ou non et s'il utilise un blob binaire ou non. L'utilisateur n'aura donc pas à se poser de question et pourra envoyer son rapport, qui sera automatiquement ajouté si on sait que le driver associé est Libre, ou refusé avec message explicatif dans le cas contraire. Si c'est un driver inconnu, le rapport peut rester en attente d'autres membres de la communauté à même de dire si c'est un driver Libre ou pas.
    D'ailleurs je suis à peu près sûr que leur client envoie déjà automatiquement le driver utilisé au serveur (en tous cas, je vois qu'ils listent les drivers par périphérique sur le site), y a plus qu'à (comme on dit) implémenter le système de validation sur le site. Deuxième chose serait de s'assurer qu'ils l'acceptent et qu'ils soient pas trop arrêté sur leur décision de privilégier certaines distribs.

    Je jetterai un œil plus tard, y a peut-être un patch à faire et à leur envoyer. :-)
    Mais comme je dis toujours, si quelqu'un aime l'idée et veut proposer avant moi, faites vous plaisir! J'ai pas exclusivité sur les idées et je serais pas contre utiliser mon temps autrement.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Je suis tout fou-fou à l'idée que ça marche! :)

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Lancement de la campagne de financement de la caméra libre AXIOM Beta 4K . Évalué à 6.

    Salut,

    Pour répondre au message originel: c'est bien leur but de coupler ce projet avec un projet de montage. En fait ils sont très ouverts sur "comment", ils veulent juste un bon logiciel. Cela pourrait être un logiciel existant qu'ils pourraient améliorer pour le rendre pro et compatible à leurs exigences; cela pourrait être faire un logiciel eux-même qui répondra parfaitement au cahier des charges (oui je sais, c'est trop gros, mais en même temps, ils font aussi une caméra à partir de zéro, ça aussi c'est gros!); cela pourrait se mettre en collaboration avec un projet existant pour travailler main dans la main (y a eu un tel rapprochement avec une société qui faisait un logiciel de montage OpenSource dont j'avais jamais entendu parler. Mais ça n'est jamais allé plus loin que la discussion, sauf si j'ai loupé qqch).

    Dans tous les cas, il manque une chose dans leur projet: des développeurs. C'est marrant mais de notre côté dév, on a toujours l'impression qu'on n'a que des développeurs et qu'il manque tous les autres. Ben de leur côté, ils ont réussi à chopper plein de mecs super compétents en électronique, qui ont même déjà participé à des élaborations de caméras du marché pour certains, mais les dévs? Que dalle. Oh y a eu pas mal de mecs qui se sont proposés (dont moi), mais au final sans vrai résultat (j'ai d'autres priorités malheureusement dans l'immédiat). C'est donc assez drôle et même socialement intéressant de constater que le problème n'est pas qu'il manque de mecs pour le hardware, mais c'est juste qu'on n'arrive pas à se mettre ensemble plus.

    Enfin oui, tout ça pour dire: c'est l'idée, mais ils n'attendent que les dévs. Qu'attendez-vous?! :-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # Fête de lancement IRC

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Lancement de la campagne de financement de la caméra libre AXIOM Beta 4K . Évalué à 2.

    Salut,

    Pourrait-on rajouter cette info dans la dépêche. Voici l'email envoyé sur la mailing liste communautaire:

    To participate in the "hopefully" very successful launch of the campaign tomorrow you are all invited to the IRC Launch party starting 1 hour before the campaign launches at 9 AM (Central European Summer Time)

    Where: #apertus on irc.freenode.org
    Alternatively you can use the webclient https://www.apertus.org/irc-chat

    When: Wednesday 10th of September 9AM (CEST)

    I will share some treasures from the AXIOM development history like renderings how we anticipated the camera to look over 3 years ago and we can just have a good time, like a real party just without seeing each other :)

    Hope to see you on IRC!

    En gros, une heure avant la fin du décompte, ils proposent à toute la communauté de se rendre sur IRC pour discuter, et ils partageront quelques "trésors" de l'histoire du développement d'AXIOM.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Je suis tout fou-fou à l'idée que ça marche! :)

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Lancement de la campagne de financement de la caméra libre AXIOM Beta 4K . Évalué à 6.

    Je suis assez d'accord. Pour moi cinelerra, cela fait longtemps que je ne le considère même plus dans mes comparaisons et tests de logiciels de montage vidéo.

    Les dernières fois où j'ai essayé de l'utiliser, il y a peut-être 2/3 années de cela, il était tout simplement instable. Il crashait toutes les 10 secs pour un oui ou un non. Donc franchement j'ai laissé tomber avant même de savoir si le logiciel "pourrait" être bien ou non, s'il ne se crashait pas constamment.

    Les fois où j'ai essayé de le compiler, à peu près à la même période, soit 2/3 ans auparavant aussi (donc peut-être qu'à l'époque je m'y connaissais moins aussi), c'était la croix et la bannière.

    Il n'est même plus dispo de base dans pas mal de distributions. Déjà parce qu'il dépend fondamentalement de la libfaac qui a des problèmes de brevets (or si certains logiciels ont une dépendance optionnelle, cinelerra apparemment ne peut pas faire grand chose sans libfaac). Donc les distribs qui n'ont pas de dépôts teintés ne proposent pas cinelerra (par exemple: mageia). D'ailleurs je viens de vérifier, même si ma Linux Mint propose libfaac, elle, ben y a pas de cinelerra pour autant dans les dépôts. C'est clairement plus un logiciel prioritaire pour personne.

    Enfin regarde le résumé des commits du projet communautaire sur les dernières années sur ce site: https://www.openhub.net/p/cinelerra/commits/summary
    Y a eu quasi absence de commits entre 2007 et 2014! C'était donc un projet mort. Je remarque d'ailleurs que ça reprend seulement depuis avril 2014 (tout frais! Je jetterai un œil de temps en temps pour voir si le projet se relance vraiment ou si c'est juste un soubresaut. Si ça continue à un tel rythme de dizaines de commits par mois pendant des années, ça peut revenir dans la danse).

    Bon apparemment cinelerra est aussi développé par une société, Heroine Virtual LTD, mais bon la page de download indique tout de même « Downloads have no support or warranty and are not community approved. Linux derivatives are so incompatible, don't be surprised if the source code requires some tweeks and the binary doesn't work. » ce qui donne pas confiance dans leur qualité de développement (chez moi avec les bons outils, y a pas d'incompatibilités extraordinaires entre les diverses distrib GNU/Linux. Qu'on dise "attention testé seulement sur…" ok, mais là c'est bizarre comme tournure). Mais bon on peut s'attendre dans ce cas à ce que le logiciel s'améliore?.. À voir… Dans tous les cas, le problème de manque d'ouverture et d'absence de dépôt de source accessible au public rend ce développement plus hasardeux (ils font juste des sorties).
    Et on peut clairement lire que ce n'est plus la priorité de cette boîte. Ils l'ont présenté à quelques "shows" entre 2000 et 2004, puis plus rien, d'après leur site. Je parle même pas du copyright de bas-de-page: «(C) 2013 Unemployed, flat broke Programmers»

    Je constate aussi qu'il y a deux site web pour la version communautaire: le site originel cinelerra.org, qu'ils ont et un nouveau site web: http://cinelerra-cv.org/
    Apparemment cinelerra.org n'a pas été renouvelé et quelqu'un s'en est emparé. Mais de façon amusante, ça parle toujours de Cinelerra, mais seulement de la version pro, j'ai l'impression (est-ce la société Heroine Virtual qui a racheté? Le whois ne dit pas). Et il n'y a rien pour télécharger (par contre, on nous demande notre email pour un "download update").

    Enfin bon, tout ça m'a l'air bien compliqué. Peut-être cinelerra mérite-t-il de nouveaux tests? Mais j'espère vraiment qu'ils ont amélioré la stabilité car c'est vraiment là où ça pêchait.
    Tout ça pour dire que cela ne m'étonne pas qu'on ne considère plus cinelerra dans la course. Blender aussi à l'époque les gens disaient qu'ils avaient un UI dur à prendre en main, etc. Ben ils ont bossé comme des dingues pour s'imposer (et changer ce qu'il fallait) et ils sont loin de cette époque maintenant. Cinelerra aurait pu faire la même chose, mais j'ai l'impression que cela fait longtemps qu'ils se sont laissé aller.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Lien ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Lancement de la campagne de financement de la caméra libre AXIOM Beta 4K . Évalué à 4.

    Clairement oui, le lien est manquant. C'est un peu inutile sans lien. Lien vers le site du projet avec décompte: https://www.apertus.org/

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Les liens qui surprennent

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Journée du logiciel libre 2014 : des activités gratuites à Québec. Évalué à 2.

    Ok.
    Je serais personnellement pour prévenir l'association LinuQ, et retirer le lien de linuxfr (éventuellement temporairement le temps qu'ils trouvent le problème) avec un petit message expliquant pourquoi. Je doute qu'un lien en première page de linuxfr qui redirige sur un site de cul soit vraiment idéal.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Les liens qui surprennent

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Journée du logiciel libre 2014 : des activités gratuites à Québec. Évalué à 2.

    Uh! J'ai eu exactement la même page que toi à l'instant (sauf que la mienne, y avait pas de culotte)! Mais si je réessaie immédiatement après, ça me donne dorénavant la bonne page. Y a un problème quelque part là, le système de redirection de linuxfr n'aurait-il pas été corrompu et redirigerait de temps en temps vers ce site? Ou alors c'est le site du lien lui-même qui aurait ce problème. Mais dans les deux cas, je doute que ce soit normal.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pourquoi ne pas prendre une "rolling release" comme ArchLinux

    Posté par  (site web personnel, Mastodon) . En réponse au journal OpenMandriva Lx 2014, sortie presque inaperçu… . Évalué à 2.

    Sur testing c'est ce que tu as (les paquets n'entrent jamais directement dans testing, ils entrent sur sid (= unstable) puis après une semaine arrivent dans testing.

    Ah ok. On entends tout de même pas mal d'histoires terribles sur les problèmes rencontrés en utilisant Debian testing. C'est pour cela que je faisais cette distinction.
    Je me demande d'ailleurs à quel point on peut tester un build en une seule semaine. Dans Gentoo, je sais pas combien de temps les paquets restaient "unstable", mais cela pouvait durer longtemps, surtout pour les petites applications pas très utilisées (qui parfois restent même indéfiniment "unstable" si le peu d'utilisateurs fait que personne ne remonte rien). Évidemment les gros logiciels connus eux passent stable bien plus rapidement (mais en combien de temps? Une semaine me paraît tout de même un chouille court, non? Quoique si c'est Firefox, les retours doivent être par dizaines au bout de quelques jours…).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pour ma gueule, et je partage ensuite

    Posté par  (site web personnel, Mastodon) . En réponse au journal Pourquoi je contribue ?. Évalué à 2.

    J’ai dit Gi*s*t, pas Git.

    Ah ok, bon ben voilà. S'ils inventent encore d'autres trucs pour contourner le fait qu'ils prennent pas de fichiers… C'est pourtant simple les fichiers. Un concept que tout le monde comprend parmi les développeurs, non? Pourquoi remplacer cela par un service de copier-coller en ligne?

    bla bla mailing list

    La plupart des mailing-list accepte les mails des gens hors-ml (souvent après modération dans 99% du temps). Donc ce n'est pas un grave problème. D'autant plus que si c'est un simple "bug + patch", le bugtracker est plus approprié (et celui-ci ne spam pas grand chose en général).

    Effectivement ça peut déranger d'envoyer ton patch sur la mailing list, mais donc uniquement parce que c'est pas vraiment l'endroit (c'est dur de faire du suivi dans un contexte de flot d'emails. On perdrait les patchs!). D'ailleurs certains projets filtrent même les fichiers des emails (pour éviter les gens qui mettent d'énormes fichiers, ou bien les fichiers à but malveillant, etc.). Sur les mailing lists GIMP par exemple, ton email arriverait sans le patch. Tout ça pour dire que c'est vraiment pas l'endroit.

    Ensuite oui, je suis d'accord que ça veut dire devoir s'inscrire encore à un énième site pour déposer son rapport de bug. Et ça c'est chiant. C'est un problème qui existe depuis l'aube de l'internet. Mais centraliser tout dans les mains d'une unique entreprise n'est pas, et ne sera jamais selon moi, la solution (même si c'est effectivement celle que poussent comme par hasard toutes les entreprises, entre les "connect by Facebook" et autres trucs du même acabit). Les solutions acceptables seraient plus dans l'optique openid, avec le succès (peu) qu'on connaît (mérité peut-être car je ne trouve pas la solution technique si adéquate). En attendant, faut faire avec. Je préfère tout de même faire un énième compte sur le site d'un projet auquel j'ai décidé de faire confiance (sinon je leur enverrais pas de patch probablement), plutôt que pousser l'ensemble des développeurs du Libre à s'enfermer dans un unique "réseau social développeur", propriétaire et sous le contrôle d'une unique société.
    Note que j'ai rien contre les sociétés qui font cela. C'est une très bonne idée et un plutôt ok service dans le cas de github. Je suis juste pour la diversité, et je refuse de mettre tous mes œufs dans un même panier. Donc je ne ferai jamais la promotion publique d'un service en particulier. Enfin si, je peux dire "c'est bien, ça marche" (c'est le cas de github: "c'est bien, ça marche", mais ça a vraiment rien d'une révolution et leur workflow est tordu et mal-foutu par endroit. Cf. cette discussion), si on me demande, mais ça s'arrête là. :-)

    Mais il illustre un autre avantage (mineur je le reconnais) de cette incitation au fork : même si un jour le dev initial décide (sur un coup de tête, problème légal,…) de tout supprimer, le code est toujours là. Avantage que n’auront pas les petits projets sur des trucs genre sourceforge.

    Euh, par définition, tous les gens qui ont le dépôt git ont la même chose, pas besoin de github …

    Tout pareil: c'est le principe de git. Je vois pas le rapport avec le fait que ce soit sous github, sourceforge, auto-hébergé ou autre. À te lire, on dirait que github a inventé git!

    [Note: pour être clair, je réponds à Moonz, pas à Zul. Mais comme je suis globalement d'accord avec Zul, j'ai pris son message comme base.]

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pourquoi ne pas prendre une "rolling release" comme ArchLinux

    Posté par  (site web personnel, Mastodon) . En réponse au journal OpenMandriva Lx 2014, sortie presque inaperçu… . Évalué à 0.

    Moi, quand je dis "rolling release", j'entends "stable". Je sais pas comment c'est sur Arch, mais en lisant la description plus haut, cela m'a l'air similaire à ce que j'avais sur Gentoo: des paquets stables et déjà testés. Mon expérience Gentoo fut vraiment très satisfaisante. C'était très stable. Une mise à jour ne pêtait pas tout.
    Ça ne dit pas qu'il ne peut y avoir un problème innattendu qui pête ta machine, mais comme pour toute autre distribution stable: ce serait une erreur passée entre les mailles du filet, et à corriger rapidement, non la norme.

    Debian testing au contraire, c'est de l'expérimental (d'où le nom "testing"). Les utilisateurs sont des contributeurs qui acceptent d'être les premiers à essayer des paquets non-testés, pour ensuite remonter les problèmes, avec tous les risques que cela comprend. Ensuite c'est peut-être à considérer "rolling release" aussi, mais c'est juste pour dire que c'est pas du tout la même catégorie. C'est pas fait pour être sur ta machine principale (enfin tu peux, mais à tes risques et périls). Gentoo par contre si (note que sous Gentoo aussi, on peut récupérer les paquets non-testés si on veut, et on se retrouverait alors dans le cas Debian testing. Ce qui est super bien ceci dit, c'est la gestion fine des tests: un flag au niveau des paquets. Donc on peut télécharger certains paquets en tests, et le reste en stable par exemple).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pour ma gueule, et je partage ensuite

    Posté par  (site web personnel, Mastodon) . En réponse au journal Pourquoi je contribue ?. Évalué à 9.

    Ce qui t'embète sans doute, c'est de simplifier la vie de mainteneur (sur GitHub, il accepte ou pas ton patch, tout est prêt, pas à s'embeter, ton nom tout ça tout comme il faut, la discussion a eu lieu ailleurs).

    La discussion, qu'elle ait lieu dans une mailing list, sur un bugtracker ou sur github, je vois pas la différence.
    Ensuite j'ose espérer que les mainteneurs github testent les patchs sur leur dépôt local, et se contentent pas de croire sur parole un inconnu. Quand ça vient d'un contributeur habituel ou que c'est un patch très mineur (changement de string ou autre), ok, se contenter de regarder la syntaxe peut suffire. Mais sinon, même un patch d'une ligne peut casser des choses, et la plupart du temps, ne pas tester n'est pas conseillé.
    Donc déjà à partir de là, faut quitter son navigateur et appliquer le patch. Une fois fait, testé et approuvé, y a juste à git push. Avec github, il faudrait revenir dans son navigateur pour faire le changement.

    Ensuite quand tu me dis "pas à s'embeter, ton nom tout ça tout comme il faut", j'ai tendance à penser que tu n'as jamais fait ou reçu de patch git, ou alors je comprends pas ce que tu veux dire.
    Quand quelqu'un m'envoie un patch git, je le git am, et j'ai un git log parfaitement "comme il faut", avec le nom de l'auteur et son email, la date de son commit (pas seulement la date à laquelle j'ai appliqué le patch, qui elle correspond au CommitDate), et finalement le message de commit qu'il avait déjà préparé. "Pas à s'embêter", comme tu dis. Une fois bien testé et approuvé, j'ai juste à git push, et c'est fini. On gère un patch envoyé en deux commandes (avec les commandes de build, etc. et tests entre-deux normalement, mais ça, c'est pareil quelque soit le workflow si on fait les choses consciencieusement), en restant dans sa console.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pour ma gueule, et je partage ensuite

    Posté par  (site web personnel, Mastodon) . En réponse au journal Pourquoi je contribue ?. Évalué à 9.

    ça me paraît normal que ce sot le mainteneur qui définisse le workflow qu’il préfère — après tout c’est lui qui a à gérer des patchs tous les jours.

    Ça je suis d'accord. Je ne me suis d'ailleurs jamais plaint à un mainteneur d'un projet sur github directement, et je suis le processus demandé douloureusement mais silencieusement. Je répondais juste à la remarque générale comme quoi tu trouvais ce nouveau workflow git (car non ce n'est pas le workflow prévu pour git, j'y reviens plus bas) révolutionnaire.

    Gist est fait pour ce genre de choses.

    Tututut. Demandons par exemple au développeur originel de git, Linus Torvalds: https://github.com/torvalds/linux/pull/17#issuecomment-5654674
    Donc non clairement, ce n'est pas le workflow prévu par git.
    Ensuite il y a des logiques de workflow différentes, et chacun est libre, encore une fois. Je n'arrive pas avec mes gros sabots voir un mainteneur d'un projet et lui dire que son workflow pue et qu'il devrait changer. Mais lire que git est fait pour ce workflow, ben non clairement. Là faut pas abuser, surtout quand l'auteur de git a déjà dit maintes fois que c'est pas le cas et refuse tout "pull request" passant par le système complètement cassé de github.

    Dans le workflow git (git en général, pas github) conseillé par 99% des gens (statistiques Bullshit©), les patchs sont supposés se faire dans des branches à part, et les merge se faire en mergant des branches, pas des patchs individuels à coup de cherry-pick.

    Comme dit juste au dessus, c'est pas vrai. Cette façon de faire est une spécificité github. Mais effectivement quand on reste dans la "communauté" github de gens qui ne connaissent que cette façon de faire, on a l'impression que tout le monde aime cela. Ben moi en dehors de cette communauté, je rencontre aussi plein de gens qui n'aiment pas.
    Je fais des branches à part pour à peu près tout (je suis un grand partisan d'un workflow par "branche de fonctionnalité"), mais il y a plein de cas pour lesquels ne pas avoir 2 branches séparées est valable, ne serait-ce que pour 2 patchs mineurs sans aucun rapport, et sur des fichiers totalement différents (ils ne peuvent pas interférer). En gros faut quand même distinguer une branche de fonctionnalité d'un bug fix de quelques lignes.

    Ensuite, dans mon précédent message, je parlais pas de cherry-pick (j'ai pas compris pourquoi tu m'en parlais). On ne fait pas de cherry-pick tout le temps, effectivement ce serait très lourd. Non on git am (on peut le git apply d'abord s'il s'agit d'un patch compliqué et qu'on veut le tester en profondeur sans avoir peur de le pousser par erreur) un patch proprement formatté par github, avec message, auteur et tout. On teste, puis on pousse.
    Pour des petits contributeurs, il est normal de faire les choses par fichiers. Rends toi compte que le système à la github est en train de pousser les gens à mettre en ligne un dépôt public, pour des fois un patch d'une ligne, et qu'ils ne reviendront jamais sur ce dépôt? C'est le marteau pour écraser la mouche. Github simplifie cela en rendant cette partie facile, mais la contrepartie c'est qu'on se retrouve à avoir des dizaines de clones publiées pour plein de projets (les fameux "forks") qui sont juste des zombies laissés à l'abandon.
    Donc non le coup de merger des branches, c'est bien entre contributeurs importants, ceux pour qui effectivement cela devient plus pratique d'avoir une branche publique. Tu penses que combien de personnes ont leur propre branche sur les projets énormes comme linux? Les divers mainteneurs, et quelques contributeurs très prolifiques. Et encore souvent, eux se feront des branches sur un même dépôt, pas leur propre dépôt!
    Et tu penses que faire son propre dépôt devrait être la norme, même pour les contributeurs mineurs? C'est de la folie. C'est pas pour rien que git send-email a été inventé. C'est parce que contribuer par patch est la norme des petits contributeurs, les branches publiques, on les laisse aux gros contributeurs.

    Encore une fois, de la littérature par l'auteur de git: https://www.kernel.org/doc/Documentation/SubmittingPatches
    Comme tu le vois, les pull requests sont un seul point, le dernier, pour envoyer des patchs (point 16 de la section 1). Tout le reste se concentre sur le formattage de patch en fichier à envoyer par email (note que lu comme ça, ça a l'air compliqué, mais je pense que c'est parce que c'est un vieux texte. De nos jours, quasi tout ce blabla se fait en une ligne: git format-patch origin/master, "master" à remplacer par une autre branche selon la branche qui sert réellement d'origine). Parce que franchement faire un dépôt public pour un patch, c'est vraiment en faire un peu trop.

    Je pense que github a même cet effet pervers d'empêcher les gens à apprendre à connaître vraiment git et son fonctionnement. On rencontre régulièrement des gens qui veulent qu'on fasse tout sur github, mais c'est uniquement parce qu'il ne connaissent que cela et qu'ils se rendent compte qu'il ne savent pas utiliser git en dehors des boutons du navigateur (sérieusement, le fait que tu me répondes "cherry-pick" à un "format-patch" par exemple me fait des doutes quant à ta compréhension de comment marchent les patchs formattés par git; le fait que tu me parles de "branches" alors que github fait même carrêment des clones de partout aussi).

    • c’est vachement plus simple pour rebase (rebase sur master c’est une très très mauvaise idée)

    Oulaaaaah! C'est une très mauvaise idée… sur toutes les branches publiques! Encore une fois, il y a plusieurs logiques. Certains vont effectivement rebaser des branches de fonctionnalités, même publiques (il y a effectivement 2 écoles majeures: les rebaseurs fous, et les mergeurs fous. Curieusement tu m'as l'air d'être un mix des deux…). Mais c'est loin de faire l'unanimité. Encore une fois, tu dis ça à Linus, il t'insultera allégrement. Sa logique, qui est le workflow du projet du noyau linux, et donc probablement très répandue, est de ne jamais rebaser une branche de fonctionnalité publique. C'est exactement la même chose que master, dont tu parlais plus bas. Une branche publique, quelle qu'elle soit, se retrouve copiée dans les dépôts locaux de tous ceux qui ont cloné le dépôt. Et il est tout à fait possible que quelqu'un ait commencé à bosser dessus. Rebaser dans ce cas fout le bordel (oblige de créer une série de patchs et/ou stasher pour ce qui n'est pas déjà sous la forme de commits, supprimer sa branche locale, la recréer, et ré-appliquer tous ses propres patchs. Très lourd). En outre tu casses un historique de hash de commit, ce qui peut créer des problèmes de discussions. À partir du moment où une branche a été rendue publique, on a pu discuter certains commits sur une mailing-list/chat/tracker/etc. Et on rend tout nommage de commit inutile si on se permet de renommer (par rebase) à tout va.

    Alors bien sûr, master est la pire, puisque c'est la branche principale où les chances que quelqu'un ait déjà commencé à bosser à partir de là est la plus forte, mais les autres branches publiques sont aussi en danger.
    La technique du rebase sur les branches de fonctionnalité publique peut fonctionner "à peu près" pour les projets avec très peu de développeurs, et en particulier où en général une branche de fonctionnalité ne sera éditée que par une seule personne. Dans le cas de github (qui encore une fois, ne fait rien comme les autres), ça passe souvent car non seulement y a qu'un mec qui bosse seul sur la branche, mais surtout il a son propre dépôt avec en général le seul à y avoir les droits d'écriture. Il reste tout de même le problème de l'historique des hashs, mais au moins on ne se marche pas sur les pieds. En gros ils ont réglé le problème du travail collaboratif en le rendant intrinsèquement non-collaboratif. :-/
    Et encore une fois, parce que malheureusement tu sors à chaque fois que ce sont les workflows prévus pour git, et donc je crains que tu me croiras pas si je te dis qu'énormément de gens en dehors de github ne veulent pas de cela, je te redonne le workflow de Linus: https://www.mail-archive.com/dri-devel@lists.sourceforge.net/msg39091.html
    J'aime pas jouer à l'argument d'autorité, mais tu me laisses pas le choix avec tes arguments de "statistiques Bullshit©", qui sont effectivement erronés (et surtout biaisé par le prisme de ceux qui sont beaucoup sur github, je pense). :P

    Heu… tu vas sur https://github.com/joincamp/flp.mobi/ par exemple, et juste en dessous du nom tu as « forked from fmap/flp.mobi ». Tu vas sur https://github.com/joincamp/flp.mobi/network/members et tu as le graphe des forks, avec l’upstream en tant que racine de l’arbre. Le seul truc un peu mal fait c’est que c’est pas clair du tout pour un mainteneur de dire « je passe la maintenance à x » (je sais même pas si c’est possible autrement que par un README en fait). Mais c’est pas tellement dramatique dans la mesure ou tu peux autoriser celui à qui tu passes le lead à push dans ton dépot :)

    Mouais je comprendrais jamais comment on peut trouver sain cette nouvelle mode de tout forker. Comme tu le confirmes, rien n'est clair. Et je suis désolé, même le "forked from" est loin d'être la première chose que tu vois en arrivant sur la page (encore une fois, pour ceux qui passent leur temps dans github, c'est peut-être évident, mais pour les autres…).
    Avec ton exemple, je suis en effet totalement dans le flou. Y a une vingtaine de forks, la plupart quasi les mêmes, mais parfois avec une petite différence, rarement mais parfois avec beaucoup de différences. Et ironiquement, le dépôt original a été vidé (et le README ne passe pas la maintenance justement). Donc si t'es un dév, ou un utilisateur, tu fais quoi? Tu testes les 21 forks un à un pour voir ce qui a changé?
    Franchement ce système de fork, c'est plus du réseau social qu'autre chose (plein de gens me forkent! Oh oui allez y, forkez moi! ;-p), mais je trouve cela anti-productif.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pour ma gueule, et je partage ensuite

    Posté par  (site web personnel, Mastodon) . En réponse au journal Pourquoi je contribue ?. Évalué à 10.

    J’ajouterai que github est une petite révolution

    Sérieux, je suis pas d'accord. Github marche bien quand on est toujours dedans, et qu'on ne bosse qu'avec ça. C'est d'ailleurs le but de la plateforme: enfermer les développeurs à l'intérieur et faire en sorte qu'ils n'en sortent pas.

    J'ai essayé l'autre jour de patcher des bugs dans un projet hébergé par github. Au début, je fais un rapport de bug, me disant que je vais y uploader mon patch (correctement formaté avec git format-patch origin/master). Ah pas possible. On peut seulement uploader des images. Sérieux?!
    Je me suis retrouvé à devoir "forker" le projet (sur le site web seulement), modifier mon .git/config pour ajouter mon remote, pousser mes commits, retourner sur le site, et finalement faire une demande de pull (on peut même pas faire une demande par commits, mais pour tous les commits d'une branche donné. Uh?!). Sérieux, on trouve ça plus simple?!? En plus si je veux suivre le projet, je me retrouve à devoir gérer 2 remotes depuis mon dépôt local. Note que c'est courant voire normal de gérer plusieurs remotes si t'es un mainteneur d'un gros projet, mais c'est lourd pour un contributeur intermittent (qui envoie un patch tous les 36 du mois) car on peut se retrouver vite à s'emmêler les pinceaux. Avoir des branches locales et se baser sur un seul remote est bien plus facile.
    Bien sûr la raison est de te pousser à gérer tout cela dans ton navigateur, sur le site web, puisque leur UI a un workflow adapté à ces logiques incongrues. Mais franchement je préfère de loin gérer le plus de truc possible dans ma console.

    Je parle même pas de la sémantique. C'est pas un fork que je veux faire! Je veux juste patcher un projet, pas le forker. C'est d'ailleurs terrible pour les petits projets: combien de fois (des dizaines!) je me suis retrouvé sur un projet github à me demander s'il s'agit de l'upstream ou non. Pour des petits projets, un moteur de recherche peut répondre plusieurs pages github et la première n'est régulièrement pas l'upstream.

    Non, moi si je veux publier un projet, je reste sur tuxfamily ou autre petit hébergeur. Au moins, ils essaient pas de se faire passer pour du réseau social.
    Et je dis tout ça, mais j'ai pas mal utilisé Github, quotidiennement et des milliers de commits lorsque je bossais pour une startup qui l'utilisait. Ça marche très bien tant qu'on reste dedans et qu'on s'adapte à leur logique bizarre de fork, y a pas à dire. Mais c'est loin d'être la meilleure logique de contribution.

    Sinon pour répondre, moi aussi, c'est pour moi: je veux réparer des logiciels ou avoir des fonctionnalités, je les code. J'ai appris à ne plus me reposer sur et attendre les autres, mais à faire les choses moi-même.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: pilote noyau

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche scdrand: alimenter le pool d’entropie du noyau à partir d’une carte à puce. Évalué à 3.

    C'est vrai, y a de quoi se poser la question. D'ailleurs quelque chose d'autre m'a intrigué: pour les utilisations "routinières" dont tu parles (signer, déchiffrer, authentifier), s'il n'y avait pas la carte, les logiciels de cryptage (GnuPG en tête donc) tirerait profit de /dev/(u?)random, non? Donc finalement, ton programme ne pourrait-il pas tout simplement remplacer Scdaemon de manière transparente? GnuPG ne communiquerait plus directement avec la carte, mais en cherchant de l'aléa dans les /dev/(u?)random, il utiliserait indirectement la carte en fait, sans même avoir à le savoir.
    Ou alors la carte a d'autres fonctionnalités et son rôle n'est pas uniquement de produire de l'aléa rapidement. Y a un processeur dédié pour accélérer des calculs de crypto aussi, peut-être?

    Comme je le disais, je connais rien à ces cartes, donc ces questions sont peut-être un peu ridicules, mais bon. C'est bien pour ça qu'on demande un article supplémentaire dessus. ;-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Vitesse d'utilisation seulement ou aussi sécurité?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche scdrand: alimenter le pool d’entropie du noyau à partir d’une carte à puce. Évalué à 3.

    Mais ce type de carte ne marche qu'avec GNUPG? J'imagine que c'est quand même plus générique et que cela peut avoir d'autre usage, non? Parce que si c'est le cas, je préférerai un article sur ce type de carte et ses différents usage, à quoi ça sert, à quoi ça ne sert pas (par ex si j'ai bien compris, cela ne rend pas les choses plus sûrs, mais plus rapides, etc.), quels logiciels peuvent en tirer profit, etc.

    Ça empêche pas de faire aussi un article séparé sur GNUPG si vous voulez, mais je ne voudrais pas que cela éclipse le sujet de ce type de carte, perso. Donc 2 articles, c'est peut-être mieux. Un qui focalise sur les cartes, l'autres sur GNUPG. Car GNUPG, bon je suis pas expert, mais je connais déjà un peu. Par contre ces cartes, ça m'intrigue. Je savais que ça existait, mais c'est la première fois que je lis un cas d'utilisation.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # Vitesse d'utilisation seulement ou aussi sécurité?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche scdrand: alimenter le pool d’entropie du noyau à partir d’une carte à puce. Évalué à 10.

    Salut,

    C'est vachement intéressant, mais je me demandais si le but est seulement d'améliorer la vitesse d'utilisation des logiciels qui utilisent /dev/random et /dev/urandom ou si cela en améliorait aussi la "qualité" d'aléatoire. De l'aléa de meilleur qualité que ce qu'il y a en général dans ces interfaces.

    Aussi quand tu crées une clé, pour reprendre ton exemple, la clé peut-elle être plus "sûre" avec du bon aléa? Y a-t-il une notion de qualité d'une clé, deux clés de la même taille peuvent-elles avoir intrinsèquement une sécurité différente?

    Sinon oui, comme le commentaire au dessus, je suis curieux de connaître l'utilité générale d'une telle carte, car je n'ai jamais eu affaire à quiconque qui en avait une. Comment ça s'utilise, etc.
    En tous cas, ton outil a quand même l'air extra et améliore grandement l'utilité existante de ces cartes en les rendant utile génériquement (transparent pour toute application qui utilise /dev/(u?)random et qui utilisera donc la carte indirectement sans le savoir). C'est génial. Si ce n'est déjà fait, tu devrais t'associer avec un projet plus gros, probablement GNUPG, et leur soumettre ton utilitaire pour que cela soit installé par défaut chez toute autre personne qui aurait une telle carte.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Peut être à rien pour toi

    Posté par  (site web personnel, Mastodon) . En réponse au journal Jabber ça sert à quoi pour un particulier ?. Évalué à 10.

    j'ai déjà eu une réflexion similaire: il serait relativement facile d'automatiser la recherche de fonctionnalités disponibles dans des clients. Des batteries de tests par XEP seraient intéressantes aussi, mais un peu plus compliquées à mettre en place. Malheureusement c'est un gros boulot que personne n'a le temps de faire. Ça serait bien dans le rôle de la XSF de faire ça, mais je pense qu'ils ont d'autres chats à fouetter.

    Et c'est bien dommage. Je trouve qu'il y a un gros gâchis de compétences à la XSF. J'y ai été membre quelques années, j'ai vraiment cru à XMPP. Note que j'aime toujours XMPP et que j'aimerais toujours que cela remplace les réseaux proprios, mais désormais j'y consacre moins de temps et suis passé d'acteur à spectateur. On verra. Comme tu dis, je pense qu'ils ont raté non pas un seul virage, mais une succession de virages les uns après les autres. Il faut voir si la communauté est capable de revenir dans la course. Des fois je pense que je reviendrai peut-être dans le cercle des gens qui poussent ce proto, et à développer dessus, mais je sais pas. J'aimerais bien. Qui vivra verra. :-)

    Quand j'étais à la XSF, je voulais participer et faire des choses (je dis pas ça en l'air, d'ailleurs mon nom est dans la section "Acknowledgements" ("Remerciements") des RFC 6120 et 6121 pour justifier que quand je dis que je veux contribuer, je contribue). Mais je n'avais pas le temps ni l'envie non plus de le faire à temps plein (j'avais mes propres projets, certains en rapport avec XMPP d'ailleurs, mais je voulais aussi participer à l'effort de la fondation: code/scripts, doc, promotion, ce qu'on pouvait avoir à faire selon les projets du moment!). Nombreux peuvent se permettre le temps plein, car c'est leur emploi. Que ce soit Peter Saint André ou d'autres, ils sont payés pour cela (en plus d'aimer!). Moi j'aimais et je voulais aussi participer, mais en amateur, en contributeur régulier. C'était un choix. Au final, rien ne se passait jamais. Notre seule activité de membre était de voter 4 fois par ans pour les nouveaux membres. Régulièrement j'envoyais des emails pour proposer de l'aide pour ceci ou cela, mais rien ne se passait non plus. Je ne voulais pas être leader. Comme je disais, je ne voulais pas bosser dessus à temps plein. Je voulais "contribuer". Je voulais un projet organisé où je puisse "patcher", non pas "maintenir". Mais non, vraiment rien. D'ailleurs je proposais même des participations plus grosses de temps en temps. J'avais par exemple fait un plugin wordpress pour s'identifier sans mot de passe, de manière très sécurisé (basé sur la XEP-0070). Je trouvais que c'était un super cas d'utilisation de XMPP en dehors du chat, et que la XSF pouvait l'utiliser pour promouvoir le concept. D'ailleurs y avait aussi une partie visible par les utilisateurs puisqu'on pouvait aussi commenter sur le site en s'authentifiant par son compte IM. C'était donc un super moyen de lutter aussi contre le spam tout en promouvant le protocole! Mon code marchait du tonnerre, je leur proposais de l'intégrer et de le maintenir; et même s'il avait fallu, je leur ai dit que je pouvais donner mon copyright sur ce code à la fondation. Je n'ai jamais eu de refus (ce qui aurait été ok! J'accepte un refus clair), mais pas non plus d'engouement. Au final, comme tout à la XSF, ça finissait en eau de boudin, sans vraiment de fin claire.
    Au final je me suis lassé. J'ai eu l'impression qu'être membre de la XSF n'avait aucun sens puisqu'ils ne nous utilisaient pas à notre plein potentiel (c'est peu dire!).

    Les batteries de test dont tu parles, je ne sais pas ce qu'il en est de nos jours, car je ne suis plus les activités de la XSF, mais cela fut en projet à un moment. Je me rappelle que Bear, un contributeur important de la XSF, avait lancé le projet, annoncé qu'il avait commencé à le coder en python, et fait un appel à contributeurs. J'avais été un des premiers à répondre, et à demander où était le code. Bear m'a répondu qu'un dépôt de source allait être créé. J'attends toujours. C'était en 2011. La page wiki ne montre aucun historique depuis. J'attends.

    Au final, il y a beaucoup de gâchis de potentiel. La XSF a énormément de membres qui n'attendent que ça: aider. Ils veulent des petites tâches, et ils se proposent sans cesse pour cela. Mais ils ne veulent pas faire du leadership. Ça tombe bien, y en a aussi d'autres à la XSF qui adorent cela. C'est comme cela que ça se passe habituellement dans les projets Libres: certains veulent juste envoyer des patchs; d'autres veulent organiser, faire de la revue, décider; d'autres encore veulent faire de l'infra, monter des serveurs, etc.. Et c'est très bien comme ça! À la XSF, en tous cas à l'époque, le problème était que les leaders ne savaient pas utiliser leur communauté. Ceux qui voulaient participer aux projets. C'est dommage, tout le monde sait que les petits contributeurs sont extrêmement importants dans le Libre.

    Donc voilà. Tout ça pour dire que c'est bien dommage. J'aimerais bien que la XSF fouette ce chat là (violence animale!), comme pleins d'autres, et je vous assure qu'ils auraient les ressources humaines pour le faire s'ils s'organisaient pour gérer les contributeurs, qui n'attendent que ça.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: GNU Radio

    Posté par  (site web personnel, Mastodon) . En réponse au journal GNU Radio et l’exploration spatiale. Évalué à 10.

    A priori, l'article dit qu'ils ont modifié GNU radio pour communiquer avec la sonde (je sais pas si ça a été remonté upstream, une courte recherche ne me donne pas trop d'info dessus. Peut-être aussi que c'était des changements trop spécifiques à cette sonde qui poseraient problème pour les usages plus courants). Si cela avait été un logiciel proprio, ils n'auraient pas eu accès aux sources vraisemblablement, donc ils n'auraient pas pu modifier. Même s'ils avaient eu accès aux sources, ils n'auraient probablement pas eu le droit de les modifier, même pour leur utilisation personnelle. Ou alors c'eût été par un système de plugin qui permettrait de spécifier le protocole de la sonde, et donc limité en fonctionnalité. Et puis il aurait fallu voir le tarif éventuel de ce logiciel propriétaire (la radio n'étant pas quelque chose de commun, donc dit "logiciel métier", quelque chose me dit que des logiciels proprios de radio, ça doit coûter bonbon). Je dis pas que c'est impossible, mais cela fait beaucoup de "si" et de barrières potentielles, éventuellement dangereux juridiquement.
    En choisissant un logiciel Libre, ils se sont tout de même vraiment simplifié la tâche.

    Quant à réécrire tout un logiciel de radio à partir de rien, c'est possible aussi bien sûr, mais il faut bien voir que c'est pas la NASA justement. Il s'agit d'un groupe d'amateur, qui y ont sûrement passé beaucoup de temps, mais en auraient passé 100 fois plus s'il fallait tout refaire (et donc probablement n'auraient pas fait).

    C'est ainsi que je vois les choses. Certes tout le monde peut théoriquement tout faire. On n'a pas besoin de logiciels Libres pour faire quelque chose. Mais dans la pratique, on ne peut pas tout faire. Déjà par manque de temps, puis d'argent, ensuite par connaissance, etc. Or le Logiciel Libre a permis a donner aux mondes accès à des activités qui avaient été jusque là impossible pour des particuliers, des petits groupes de personnes, associations, petites entreprises, etc. Par exemple contrôler des sondes dans l'espace! Tu penses vraiment que sans GNU radio, ce groupe d'amateur (en regardant sur le site, il s'agit apparemment d'un organisme non-lucratif sur l'éducation en exploration spatiale, qu'ils ont créé cette année à l'occasion de ce premier projet) aurait monté ce projet? Pas complètement impossible, mais beaucoup moins probable.
    Donc je reviens sur ce que j'ai dit plus haut: on n'a pas fondamentalement besoin de Logiciels Libres pour survivre, mais c'est quand même une grande avancée pour l'humain en matière de partage, d'accès aux connaissances, d'auto-enseignement, etc. Et donc au final, je trouve que la FSF a bien raison de présenter cet article ainsi. Car si ce projet est un très bel exemple de ce qu'il est possible de faire de nos jours avec les LL, notamment sans être riche, un organisme gouvernemental ou une multi-nationale.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: La Corée: future championne du Libre?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Revue de presse de l'April pour la semaine 26 de l'année 2014. Évalué à 3.

    Ben de manière général, c'est le Libre qui est pas encore un grand succès. Pour ça que les utilisateurs d'OS libres tournent autour des 2% (moins ou plus selon les stats). Donc quel que soit le pays, c'est normal de pas avoir l'impression d'un esprit "ouvert en informatique", si par "ouvert", on entend "quelqu'un pour qui les licences FLOSS importe, ou les formats importent, etc.". La vérité est que la plupart des gens s'en foutent, et ce quelque soit le pays.

    Ensuite la France est pas si mal. J'arrive pas à avoir de statistiques sur les contributeurs libristes par pays (en même temps, c'est dur à faire, je pense que la plupart des contributeurs ne disent pas leur pays. Je sais que personnellement, je ne me sens pas défini par ma nationalité. Ceci dit, des sites comme Ohloh doivent avoir les données pour faire des stats pas trop loin de la réalité), mais mon ressenti général est qu'y a quand même pas mal de français dans les contributeurs de pas mal de projets majeurs.

    De manière générale, l'Europe est vraiment pas mal. On a pas de quoi avoir honte. L'US est pas trop mal non plus, notamment par leur culture forte de start-up, je pense. L'Extrême Orient maintenant est à l'heure actuelle un gros trou-noir du Libre. Le Libre là-bas est anecdotique, si ce n'est quasi inexistant (attention, je dis pas que ça existe pas! On rencontre, rarement mais ça arrive, quelques contributeurs sur la toile, et j'ai même visité Mozilla Japan. Donc je sais qu'ils ont une présence. Simplement elle me paraît bien moindre comparé à la France par ex). Tiens cette carte du navigateur web le plus utilisé par Pays (source Wikipedia - CC BY-SA 3.0 - Roke, Altes, and Peeperman) est assez explicite:
    Countries by most used web browser  - CC BY-SA 3.0 - Roke, Altes, and Peeperman
    En bleu, IE, vert Chrome et Orange Firefox.

    Bon bah on voit que l'Europe et l'US, c'est globalement Chrome, avec Firefox qui domine anecdotiquement dans quelques pays. L'Afrique et les îles du Pacifique, beaucoup de Firefox, mais je me demande si cela n'a pas à voir avec la forte présence d'aides et accompagnements humanitaires là-bas (dont notamment des assoces qui veulent apporter l'informatique en promouvant des solutions Libres). Puis y a soudain ce gros pavé bleu qui comprend Chine, Corée et Japon (+ quelques autres pays, mais je garde le focus sur l'Extrême-Orient). Cette petite partie du monde qui n'a pas abandonné IE, qui s'accroche encore à un univers purement propriétaire (et Windows uniquement).
    Alors c'est bien, y a des annonces, y a des projets (la Chine avait aussi des projets d'OS basé sur Linux si je me souviens, et y a de plus en plus de startup là-bas aussi), mais le chantier est vaste et loin d'être terminé.

    En France aussi, le chantier est vaste, mais on l'a commencé plus tôt, je pense. C'est la différence. Et on est peut-être pas les meilleurs, mais c'est pas grave: c'est pas une compétition. ;-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: La Corée: future championne du Libre?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Revue de presse de l'April pour la semaine 26 de l'année 2014. Évalué à 3.

    Tout à fait. :-)

    J'ai vécu en Corée pendant un an, il y a très peu. Je réagissais donc à maclag qui voyait la Corée comme "future championne du Libre", pour relativiser un peu ses dires.

    De son côté, la France est plutôt bonne élève pour le Libre et les formats ouverts (malgré quelques couacs tout de même de temps en temps), comme tu le fais très bien remarquer Kerro. C'est justement ce que je disais. :-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: La Corée: future championne du Libre?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Revue de presse de l'April pour la semaine 26 de l'année 2014. Évalué à 2.

    C'est une bonne nouvelle, mais ça reste qu'une annonce. On a aussi pas mal d'annonces officielles en faveur du Libre ou des formats ouverts en France, par divers organismes publics. Et même si ça avance globalement dans le bon sens, on voit que cela reste lent, avec parfois des à-coups en arrière (contrats avec Microsoft sans appels d'offres, etc.).

    Donc pour la Corée, c'est plutôt bien, mais ça reste un sacré chantier. Quasi aucune banque ne permet la banque en ligne avec autre chose que Windows; et même sous Windows, ça oblige à utiliser IE, aucun autre navigateur, faut télécharger un plugin opaque avec autorisation de s'exécuter sur l'ordi (ce que je trouve vraiment contraire à tout bon principe de sécurité, mais pas le choix: c'est ça ou pas de gestion de ses comptes en ligne).
    Et de manière générale, c'est vrai pour énormément de sites, notamment la plupart des trucs officiels, ou les universités (télécharger des attestations de diplôme, etc.), etc. L'autre jour par exemple, mon amie coréenne voulait regarder une chaîne de télé en streaming. Elle a dû lancer Windows en VM car elle est sous Linux (et que pareil, il fallait obligatoirement IE, ça télécharge un truc à accepter, etc.).

    Donc je dis: c'est cool et oui, ça va dans le bon sens. Mais la situation est si terrible là-bas du côté du Libre que de toutes façons, c'est dur d'aller dans l'autre sens (car on est à l'extrême déjà). C'est loiiin d'être le paradis du Libre et la Corée est loin d'être championne du Libre pour au moins quelques années. C'est vrai de manière générale pour le Japon aussi d'ailleurs. Pareils, ils sont retardés du Libre, et trouver des libristes par chance là-bas tient du miracle.
    Maintenant reste à voir si l'effet d'annonce est suivi d'actes, mais faut pas s'attendre à ce que ça arrive d'un seul coup (faut déjà qu'ils refassent tous les sites web!).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: pour Inkscape

    Posté par  (site web personnel, Mastodon) . En réponse au journal Campagne Kickstarter pour Krita. Évalué à 7.

    Je ne comprends pas où tu veux en venir, le SVG n'est clairement pas destiné à l'impression.

    Je pense que vous parlez pas du même type d'impression. D'ailleurs il donne en exemple des machines de découpe et parle de logos. Alors en effet, quand tu veux imprimer un poster, ce sera souvent du raster (mais en fait pas forcément. Y a pas mal de posters où fournir du vectoriel pourrait être adapté). Par contre quand tu imprimes des "formes", genre logos ou autres designs stylisés, vaut mieux le faire en svg.

    Regarde les multitudes de sites pour faire ses propres t-shirts par exemple: selon la technique d'impression que tu choisis, tu dois soit uploader du raster, soit du vectoriel. Et c'est parfois même pas du "au choix": sur ce site par ex, 2 (impressions "flex" et "flock") des 3 techniques pour imprimer sur t-shirt requiert du vectoriel; ou encore pour imprimer des logos sur des clés usb, on demande en général du vectoriel si possible.

    Ensuite les machines de découpe laser ou gravure, c'est aussi du vectoriel. Tu vas découper/graver selon des formes (lignes droites ou courbes, etc.). La couleur a encore moins d'importance là (en fait même aucune!).
    Dans les fablabs que j'ai visité, ils envoyaient des designs dessinés sur Inkscape dans leur découpeuse/graveuse laser.

    l'important étant surtout l'utilisation de l'espace de couleur CMYK […]
    De plus il y a quelques imprimeurs à qui tu peux envoyer des fichiers en RGB ou n'importe quel autre format « exotique » (pour un imprimeur) comme PNG ou GIF, ils te feront tes vinyles adhésifs, tu seras peut-être surpris par les couleurs ou la pixelisation sur le résultat final :)

    CMYK sur un écran n'est qu'une simulation, par définition. Si tu as bien calibré ton écran, ce qui sortira chez l'imprimeur devrait être très proche de ce que tu as sur ton écran en RGB. Inversement si tu n'as pas calibré ton écran (ce qui est le cas de quasi tout le monde), voir ton image dessus en simulation CMYK n'a absolument aucun intérêt. Limite c'est plutôt ridicule et montre juste une complète incompréhension de tout ça. Ceci dit, c'est un sujet très compliqué, donc c'est pas non plus une honte de pas comprendre. Par contre, c'est idiot de se braquer sur des discours marketing (qui vont vous vendre du "CMYK" comme un truc magique), ce que beaucoup de pros font sans chercher à comprendre la technique.
    Et encore même ça c'est pas suffisant. Idéalement il faut demander à son imprimeur le profil de l'(imprimante, papier choisi) (j'appuie sur le fait que c'est un profil pour un couple imprimante+papier. Utiliser un autre papier sur la même imprimante générera un profile différent. Et encore, on suppose qu'il ne change pas de couleur/marque d'encre, car ça générerait bien sûr un nouveau profil). Ce profile peut permettre de simuler le rendu sur votre écran (lui-même correctement configuré), si votre programme permet ce genre de chose.

    Mais dans tous les cas, il faut bien être conscient que tout cela n'est que simulation. Seul une impression réelle donnera le vrai rendu à coup sûr. "Utiliser" CMYK n'y change absolument rien.
    Quant au bon imprimeur, il travaille parfaitement bien avec du RGB et y a aucune surprise chez personne. Faut juste discuter avec lui des détails techniques pour avoir le rendu attendu.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Vie privée et Piwik

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Un nouveau pelage pour Firefox 29. Évalué à 10. Dernière modification le 01 mai 2014 à 23:21.

    Beaucoup d'utilisateurs contribuent aussi en rapportant des bugs, en exprimant leurs besoins, en donnant leurs avis et conseils, en s'entraidant ou encore en faisant la promotion.

    C'est vrai, et ça c'est bien. Fort heureusement il y a beaucoup de bonnes contributions hors-code. Mais il y a aussi beaucoup de contributions très nocives. À certains moments, la critique va trop loin, surtout quand elle part en insultes et attaques personnelles. On en a régulièrement sur les listes et le tracker de GIMP par exemple (notamment au sujet des fonctionnalités controversées, qui dérivent sur des fils de discussions virulents et font perdre beaucoup de temps aux contributeurs utiles). Alors bien sûr, on pourrait passer outre l'insulte, mais on est humain. Quand quelqu'un nous dit en substance "corrigez ça, vous nous le devez, ou sinon vous servez à rien, votre logiciel est nul et vous êtes un abruti", franchement ça donne pas envie de corriger du tout (bien qu'on le fait quand même quand il s'agit d'un vrai bug) et c'est une "contribution" dont on se passerait. L'autre jour, sur IRC, on a même eu une personne qui s'est connectée 10 secondes, a proféré une série d'insultes en CAPS lock en italien, puis s'est barré. Pour sûr aucune idée si c'était juste un fou ou ciblé bien sûr, mais bon…

    GIMP est exactement dans le cas cité: très peu de contributeurs, et parmi eux extrêmement peu de codeurs actifs et réguliers (ça se compte sur les doigts d'une main). En plus, à l'heure actuelle, c'est du 100% bénévoles. Personne n'est employé, même indirectement ou partiellement, pour améliorer GIMP. Par contre beaucoup de gens se plaignent et nous disent qu'on a un devoir envers eux, qu'on se croit supérieur car on écoute pas les critiques et que la fonctionnalité ou bug qui leur pose problème est bien évidemment critique. Mais la vérité est qu'on aimerait corriger tous les bugs et avoir pas mal des fonctionnalités vraiment cool dont quelqu'un a exprimé le besoin. Mais on a pas le temps, on a nos priorités personnelles (puisqu'on est bénévole en particulier, c'est aussi normal), donc on leur dit "ben si quelqu'un code ça, on prend"! Et bien sûr, on passe pour des raclures qui prennent pas en compte le besoin utilisateur. Et d'un autre côté, quand des choix ont été fait dans un but précis et expliqué, on va pas revenir dessus tous les 5 matins. On pourrait si vraiment on se rend compte d'une erreur, mais nous insulter et rabâcher sur le sujet n'est pas pour nous inciter à le faire.
    En gros la critique, c'est bien, mais à un certain moment, faut savoir poser une limite quand la dite critique devient non-constructive, puis même nocive et anti-productive.

    Edit: juste pour préciser, il y a aussi beaucoup de contributeurs et gens sur les mailing listes et bug tracker cool, et c'est globalement très sympa de contribuer à GIMP. La plupart du temps, les retours sont très bon et on est heureux d'y participer. Mais je pointe juste les parties négatives ici qui arrivent aussi régulièrement, puisque c'est le sujet du fil de discussion!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Hitchhik'R

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Hackathon 76 : les lauréats et le clip. Évalué à 4.

    Aux US, il existe des startups/apps similaires pour smartphone qui — paraît-il — sont vraiment en train de mettre à mal le business des taxis. Déjà apparemment énormément de monde se mettent à utiliser ces apps car: c'est bien plus simple (juste un clic sur son smartphone et la voiture libre la plus proche peut répondre à l'appel); plus rapide pour se faire prendre en voiture qu'avec les taxis normaux; et aussi moins cher (et surtout le prix est connu d'avance, si je ne m'abuse, et payé directement au travers de l'app. Pas besoin de sortir du cash ou sa carte. On rentre en voiture, on roule, puis on sort, basta!).

    L'un des gros coups de ces apps est que ce ne sont pas des sociétés de taxis à la base. Comme pour beaucoup de startups, ils ne font que l'intermédiaire (crowdsourcing!), et donc ce sont souvent des sociétés tierces qui ont des voitures et commencent un nouveau marché de taxi moderne (je suis pas sûr si des particuliers peuvent rentrer dans le jeu en se proposant comme conducteur cependant). Donc ils ont complêtement empiété sur le marché des taxis. Concurrence directe. Les sociétés de taxi essaient même de faire fermer certaines de ces startups (comme toujours: on ne peut pas concurrencer à la loyale par notre qualité de service? Appelons nos potes politiciens et régulons à la place)!

    Ceci dit, je serais clairement pas contre une version de ces apps mais plus communautaire et juste, comme de l'auto-stop (d'où "Hitchik'R"). Simplement on a une voiture et quelqu'un à proximité va dans la même direction? Hop on donne un coup de main, et ce faisant on réduit l'emprunte carbone de nos voyages, etc. :-)
    Un peu à la CouchSurfing (sauf qu'eux font l'inverse et sont passés de communauté à société), mais pour les déplacements.
    Ce serait beaucoup plus cool.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]