freejeff a écrit 897 commentaires

  • [^] # Re: Risque de déconvolution ?

    Posté par  . En réponse au journal Deface: flouter simplement et automatiquement les visages dans une vidéo. Évalué à 4.

    Bon il y a du niveau …

    Peut être, mais quand on est n'est pas capable de distinguer un filtre de flou d'un filtre de bougé…

    Bon, photoshop, ce n'est pas la science hein, il va falloir réfléchir un peu avant d'écrire des sottises.

    Vous ne comprenez visiblement rien au sujet, mais vous insistez pour avoir le dernier mot …

    Non, ça mérite bien le fameux duty call Titre de l'image

    Tout les flous que je connais peuvent être vus comme un opération de convolution (peut être qu'il en existe qui échappent à cette affirmation) entre une image non-floutée et un noyau de convolution appelée fonction d'étalement du point ou PSF, comme expliqué précédemment. Donc, si on connaît la PSF, on peut déconvoluer.
    Dans ce contexte, la distinction entre un flou isotrope tel que celui appliqué sur l'image se révèle être une PSF différente, point final. Créer une PSF revient à prendre une réponse impulsionnelle et appliquer le filtre, puis normaliser par la moyenne des niveaux de gris …
    Ce n'est pas bien dur à faire. Ensuite, on passe dans un algo de type déconvolution de Wiener, on choisi l'amplitude du bruit qui imposera une coupure fréquentielle à l'image et c'est fini. On n'est pas dans les experts à Miami là tout de même …

    Au passage un flou de bougé est infiniment plus difficile à reconstruire qu'un simple flou gaussien isotrope avec un gros écart type … Donc, si ça marche pour le flou de bougé, ne parlons pas du flou appliqué ici.

    point. Final. A la ligne.

    Un peu confus non ? C'est final genre -->[] ou c'est à la ligne …

  • [^] # Re: Risque de déconvolution ?

    Posté par  . En réponse au journal Deface: flouter simplement et automatiquement les visages dans une vidéo. Évalué à 0.

    Et bien, si :

    Ces petites blagues sur le dos des gens, sans chercher à comprendre, sont agaçantes, mais cela n'a rien de grave, juste un peu agaçant.

    c'est monter sur ses grands chevaux … Du coup, il n'est pas possible de signifier son agacement dans un échange ?

    Ton exemple était faux, et ta tournure de phrase :

    En 4ème, j'ai eu 12 de moyenne. Quelles étaient mes notes de français ?

    sous-entend explicitement qu'un enfant que 15 ans (4ième) n'aurait pas fait une telle erreur …

    Il me semble l'avoir expliqué ton erreur de raisonnement de manière non condescendante et non agressive.

    Ton post est inutilement désagréable, du coup si ce n'est pas de l'humour au dépend d'une personne qu'est-ce ?

    Après, c'était peut être une réponse trop rapide. Tu considères que je te prête "un comportement et une volonté que tu démens", soit, mais du coup le sens de ton commentaire m'échappe totalement. Je t'ai juste signifié que ta blague m'avait agacé et que visiblement, tu n'avais pas compris la teneur de mon questionnement, mais sur ce point, c'est bien ma faute, que de ne pas avoir bien posé le problème.

    La bienveillance des échange est bien souvent conditionnée par leurs antécédents. Il est clair que j'ai fait le choix de te signifier que tu m'avais agacé, tout en exprimant que ce n'était pas grave.

    Du coup, je ne vois pas trop le problème.

    Par contre, je n'ai pas mis d'intention, ta phrase semble être humoristique et tourne en dérision mon questionnement, sans que tu n'aies pris le temps de le comprendre. C'est une interprétation et pas un procès d'intention. Je ne cherche pas à savoir pourquoi tu as fait ça, je signifie mon agacement, sur l'interprétation de ton post.

    évite peut être de prêter de mauvaises intentions comme cela aux autres.

    par contre, l'impératif est une injonction, de plus sur un point que j'estime faux : prêter de mauvaise intentions, avec une fin de post en bref, pouvant être aisément interprété comme la manifestation d'une lassitude, permettant de couper court à une conversation désagréable.

    Du coup, tu ne veux pas envenimer, tu ne tiens pas à débattre, ridiculise mon agacement (monter sur tes grands chevaux) mais tu formules des injonctions et coupes court à la discussion.

    Dans l'absolue, je n'ai pas à t'expliquer comment avoir des échanges sains, mais en tout cas tes modalités pour échanger avec moi ne me conviennent pas du tout.

  • [^] # Re: Risque de déconvolution ?

    Posté par  . En réponse au journal Deface: flouter simplement et automatiquement les visages dans une vidéo. Évalué à 2.

    Tout les arguments sont valides mais la conclusion est discutable. La vrai quesiton est celle de la réversibilité de la perte d’entropie de l'image. C'est justement le point des méthodes de déconvolution. Si il est clair qu'un calcul d'entropie avant et après donnera des résultats différents, il n'est pas si évident que l'opération inverse ne soit pas accessible dans une certaine mesure. Les questions sont est-ce que la quantification des niveaux de gris (codage sur 3*8bits ) entraîne une irreversilité et est-ce que la transformation en vidéo (probablement h26{4|5}) apporte une sécurité suffisante si quelqu'un s'amuse à essayer de reconstruire les visages.

  • [^] # Re: Risque de déconvolution ?

    Posté par  . En réponse au journal Deface: flouter simplement et automatiquement les visages dans une vidéo. Évalué à 1.

    Le message répondait principalement à ça :

    En 4ème, j'ai eu 12 de moyenne. Quelles étaient mes notes de français ?

    Il est bien indenté par rapport au poste de barmic, même si j'inclue des éléments de vos postes, donc pas de problème d'amalgames tout seul dans ma tête. En général sur ce forum, lorsque l'on répond à quelqu'un l'indentation permet de comprendre qui est destinataire direct.

    Enfin pour être plus clair :

    On ne peut pas reconstituer une information qui a été "détruite", c'est en dehors des théories de la physique. N'importe quel filtre de floutage est destructeur, donc c'est physiquement impossible de reconstituer une image parfaitement identique à elle-même après sa "destruction".

    Évoquer de manière péremptoire que l'on est en dehors des lois de la physique, est assez désagréable, lorsque l'on ne cherche pas à comprendre les enjeux et les possibilités qu'il existe en analyse d'images, et c'est d'ailleurs sur ce sujet que Francesco vous répondait.

    Ce n'est pas un problème pour moi de se tromper, mais ayant un on égo de chercheur de la génération Y, les positions d'autorités me rendent souvent agressif, encore plus dans cette période de police de la pensée liée à la Covid19.

    Désolé, de vous avoir vexé.

  • [^] # Re: SVG ?

    Posté par  . En réponse à la dépêche YOGA Image Optimizer v1.1 : résultats des travaux de l'été. Évalué à 3.

    Avec comme limite de ne pas convertir de matriciel en SVG (mais du SVG en matriciel, oui).

    Quand j'utilise la découpe laser, je pars souvent de PNG N&B et je dois les vectoriser. Je trouve que ce processus est assez marrant, mais pour l'instant les meilleurs outils sont ceux du web !

    Après, c'est clairement un sujet trop éloigné de Yoga.

  • [^] # Re: Optimisation présentations et fichiers textes

    Posté par  . En réponse à la dépêche YOGA Image Optimizer v1.1 : résultats des travaux de l'été. Évalué à 2.

    Merci, mais je l'avais trouvée !

    C'est tellement simple qu'en faire une dépêche parait pas pertinent.

    C'est tout aussi vrai pour la GUI, non ?

    Je trouve au contraire, que le fait que cela soit simple justifie que ça apparaisse dans la dépêche ! Après, c'est vous qui l'écrivez, donc c'est vous qui décidez !

    Merci pour le soft, j'essayerais de voir ce que j'arrive à faire sur un document un de ces jours !

  • [^] # Re: Risque de déconvolution ?

    Posté par  . En réponse au journal Deface: flouter simplement et automatiquement les visages dans une vidéo. Évalué à 3.

    Ce n'est pas vous mais barmic :

    En 4ème, j'ai eu 12 de moyenne. Quelles étaient mes notes de français ?

    Ces petites blagues sur le dos des gens, sans chercher à comprendre, sont agaçantes, mais cela n'a rien de grave, juste un peu agaçant.

    Attention aussi aux confusions : "deconvoluer" une image ça n'est pas la même chose que faire des corrections d'images d'observation astronomique.

    Confus. Il y a d'autres corrections dans l'analyse d'image astronomiques que la déconvolution, mais celle-ci en fait partie.

    Faire une déconvolution va peut-être aider éventuellement une IA en réduisant le champ des possibilités, mais sûrement pas à faire des miracles.

    Non, de ce que j'ai lu (mais c'est pour moi un sujet marginal d'intérêt), la plupart des algos d'IA sur la déconvolution travaillent à chercher la PSF, en partant du principe que le flou de bouger se traduit par une "trajectoire" à identifier, car celle-ci peut se traduire par une PSF dédiée. Il s'agit donc de trouver le mouvement qui a eu lieu entre le moment où l'on a commencé à intégrer le flux rayonné, et le moment où on a arrêté. Trouver une trajectoire spatio-temporelle avec comme seul indice le résultat en terme de flou est un problème mal posé. Sur les problèmes mal posés, l'IA peut apportés beaucoup pour éviter les minimums locaux, et trouver le bon espace d'exploration à moindre coût.

    Sur des images sans flou de bougé mais avec un flou, dont on ne peut pas avoir d'autre représentation des objets qu'avec la seule modalité floutée, alors, il y a sûrement du travail qui peut être fait en IA sur l'identification de la PSF.

    Lorsque l'on peut aller lire le code de floutage, reconstruire la PSF, ne doit pas être bien difficile.

    En bref, je suis d'accord avec les autres moules, le plus sûr est le carré noir. C'est une destruction certaine de l'information, nécessaire à la reconnaissance, pour le flou, il faudrait y passer un temps important pour trancher.

  • [^] # Re: Risque de déconvolution ?

    Posté par  . En réponse au journal Deface: flouter simplement et automatiquement les visages dans une vidéo. Évalué à 6.

    Désolé, mais j'ai peut être été un peu rapide.

    un flou n'est pas une moyenne et peut être représenté mathématiquement par une convolution. Une moyenne prend N valeur et en retourne 1, la convolution prend N valeurs et en retourne N via une relation avec son voisinage.

    Il existe un pan de l'analyse d'image qui travaille à des stratégies de déconvolution, qui permettent de déflouter les images par exemple.

    Il s'agit de trouver une fonction d'étalement du point (point spread function PSF) qui est en somme la représentation de la convolution et de l'appliquer à l'image par des méthodes telles que la déconvolution de Wiener.

    Il en existe plein pour par exemple corriger des flous de bougé, lorsque l'on ne connaît pas la trajectoire, il faut la retrouver, cela s'appelle à déconvolution aveugle.

    Lorsque l'on connaît la fonction de convolution il est assez simple de déconvoluer. Et comme c'est du LL, il est simple d'aller regarder le code du flou et de fabriquer un psf.

    Après, c'est vrai que la déconvolution n'est jamais parfaite, pas (plus qu'une transformation géométrique inverse ne conservera parfaitement les niveaux de gris), le fait de sauver une image avec un format destructeur avec des niveaux quantifié sur 8 ou 10 bits, peut faire que la déconvolution crée des hautes fréquences parasites qui la rendront inopérante …

    C'était sur ce point que je me posais des questions, mais il est vrai que je n'avais pas pris le temps de bien poser le problème.

    Il existe aussi des algorithme de superrésolution sur des vidéos qui associés à la déconvolution pourraient régulariser le problème.

    De manière générale, il est sain d'éviter de penser que la personne qui écrit quelque chose est une abrutie et de faire un raisonnement par l'absurde faux derrière, mais bon vous n'avez pas été le seul :

    N'importe quel filtre de floutage est destructeur, donc c'est physiquement impossible de reconstituer une image parfaitement identique à elle-même après sa "destruction".

    Il n'est pas question d'être identique, mais de pouvoir reconnaître un visage, cela fait une très grosse différence.
    De plus sur un signal continu, il est assez simple d'inverser la convolution, le fait que le signal soit quantifié, et ensuite compressé destructivement, doit probablement réduire les chances de pouvoir recréer une image acceptable.

    La seule possibilité de s'en approcher est d'utiliser des IA, et encore, il ne faut pas que le filtre appliqué ait été trop important (trop de flou, trop de mélange et/ou déformation). Dans l'exemple du journal, le flou est tellement important qu'on n'arrive même pas à distinguer l'implantation des yeux, donc aucune chance même pour l'IA la plus sophistiquée de reconstituer un visage, en tout cas qui ressemble à la personne de départ.

    Il faudrait tester, on est souvent surpris, mais il est très probable que cette personne ait raison. Il n'est par contre absolument pas nécessaire d'utiliser de l'IA, lorsque l'on a la donnée de sortie et le modèle. On résout des problèmes mal posés depuis des siècles (merci Hadamard), appeler l'IA, dès que l'on n'a pas envie de réfléchir est un peu facile.

    J'avais lu cette publi, il y a quelques années, mais il est vrai que le niveau de convolution ici, est bien plus élevé. Mais comme on n'a pas la PSF, celle identifiée est forcément moins précise qu'une que l'on peut reconstruire avec un algo.

    Donc pas si trivial au final.

  • # Risque de déconvolution ?

    Posté par  . En réponse au journal Deface: flouter simplement et automatiquement les visages dans une vidéo. Évalué à 4.

    Est-il assuré que l'on ne puisse pas dé-flouter les visages ?

    Si l'algo est ouvert, alors trouver la meilleure déconvolution sur la séquence d'image semble possible, non ?

    Un pédocriminel avait été arrêté, car il avait appliqué une déformation en spirale sur sa photo, et la police scientifique avait réussi à trouver la transformation inverse et reconstituer sa photo !

    La c'est encore plus simple !!

    Du coup, quelle est la sécurité associée à ce genre d'outils ?

    Bon après je n'ai que très peu joué avec les outils de déconvolution, donc ce n'est peut être pas si simple !!

  • [^] # Re: Optimisation présentations et fichiers textes

    Posté par  . En réponse à la dépêche YOGA Image Optimizer v1.1 : résultats des travaux de l'été. Évalué à 3.

    Ceci dit, étant donné que YOGA est aussi un outil en CLI et une bibliothèque Python, il est tout à fait possible d'écrire un script ou un outil qui s’appuierait sur YOGA pour effectuer ce genre d'opération.

    Tout à fait juste. C'est dommage que la dépêche soit si orientée interface graphique.

    Peut être qu'illustrer les nouveautés avec des insertions de codes aurait été plus parlant !

    Avez vous pensé à faire une galerie de type matplotlib, avec des exemples de codes et les résultats. Ça pourrait être assez simple à faire et rendre une image dans le navigateur est assez simple !

  • # Optimisation présentations et fichiers textes

    Posté par  . En réponse à la dépêche YOGA Image Optimizer v1.1 : résultats des travaux de l'été. Évalué à 2.

    Salut,

    un truc qui pourrait être super utile, serait de pouvoir prendre un fichier odf, le décompresser, récupérer les images et les réduire dans Yoga avant de les remplacer par celles optimisées et refaire l'archive !

    Il y a un outil de redimensionnement dans libreoffice, mais il n'est pas forcément hyper intéressant, dans le sens ou son principal intérêt est de réduire la résolution de l'image par rapport à sa taille dans la présentation ou dans le fichier texte.

  • [^] # Re: Félicitations

    Posté par  . En réponse à la dépêche GIMP 2.10.24: version cartographe. Évalué à 4.

    Salut Jehan,

    Je me doute bien que le sujet est bien sensible et complexe.
    De ce que j'ai vu, la plupart des gens qui arrivent à monétiser leurs travaux sont les influenceurs sur youtube. Le problème, c'est que cela demande de passer un temps énorme à faire ce travail. Il faut faire au moins une vidéo par semaine pour attirer durablement, et le temps d'arriver à créer une communauté se chiffre en années sur ce genre de sujets.

    Mais des choses comme des timelaps de création sur ZeMarmot, des nouvelles fonctionnalités de gimps comme tu le fais ici, mais avec une vidéo et quelqu'un qui parle dessus, attirerais plus de monde.

    Honnêtement, mon temps passé sur youtube n'est pas raisonnable et je ne peux pas aller ailleurs, car il n'y a juste pas le contenu que j'aime regarder, ou il faut aller sur trop de plateformes pour le trouver.

    Youtube est une des meilleures plateforme pour inciter les gens à aller sur vos plateformes de financement.

    Et pour être tout à fait clair, vous n'êtes pas X, Y. La démarche est fantastique, si vous aviez une chaîne youtube, je serais abonné directement sans me poser de question.

    Après, il est clair que ça demande un taf de dingue, mais peut être qu'une personne qui aime le montage vidéo pourrait s'associer à vous.

    Franchement, je suis désolé, si tu trouves que j'enfonce des portes ouvertes, mais quand je vois des gens comme Linus de LTT qui se font des millions, je trouve que c'est bien dommage que des gens comme vous n'arrivent pas à vivre de leur passion.

  • # Félicitations

    Posté par  . En réponse à la dépêche GIMP 2.10.24: version cartographe. Évalué à 10.

    C'est vraiment chouette que votre collaboration à tout les deux ait donné autant d'amélioration pour tout les utilisateurs de GIMP.

    Peut-être faudrait il faire un peu de pub, je sais bien que cela nécessite de passer par des plateformes de type youtube, mais quand on voit les donations à votre projet qui sont de 1256€/mois, au regard de l'ampleur du projet et de ce que ça rapport au collectif avec GIMP, peut être que mettre en avant cela en allant chez des influenceurs dans le domaine de la création graphique, vous permettrait de toucher un autre public.

    1256€ à deux par mois, ce n'est vraiment pas grand chose, c'est être dans la précarité si vous vous y consacrez à 100% ou faire des jobs alimentaires. C'est un peu triste, car votre projet est vraiment chouette et vertueux. Peut être communiquer en anglais pour augmenter la base de donateurs ?

    Il me semble que vous avez ciblé 8k€ pour pouvoir travailler sereinement, cela ne semble pas inaccessible, par exemple marcan semble avoir réussi à se faire un salaire normal pour travailler sur le portage de linux sur le macbook ARM. Il y a aussi Syama Pedersen qui a 7800 contributeurs avec un minimum à 2€/mois et un max à 22€/mois. Du coup, ne pensez vous pas qu'en essayant de créer une petite communauté autour d'une plateforme non-libre, vous pourriez vous autofinancer de manière pérenne ?

    Je n'y connais rien, mais je trouve cela dommage que votre démarche ne touche que si peu de monde !

  • [^] # Re: Parallèle avec la politique

    Posté par  . En réponse au journal GNU t'es la ?. Évalué à 6.

    Ou c'est peut être que la FSF ne sert plus à grand chose aujourd'hui. Ils n'ont pas su embrasser la culture libre et finalement n'ont pas de contributions majeures ces dernières années, du coup tout le monde se fou un peu de ce qu'ils peuvent bien dire. Avoir RMS est peut être pour eux, à la vue de leur inutilité, le seul moyen d'espérer avoir une influence. C'est assez affligeant à vrai dire.

  • [^] # Re: Salome-Meca, Code Aster vs COMSOL

    Posté par  . En réponse à la dépêche ParaView, une bibliothèque libre pour la visualisation scientifique. Évalué à 5.

    Salut,

    J'ai testé Elmer FEM et à l'époque, un peu SALOME, il faudrait tester FreeFEM, j'en ai conclu que je n'ai plus (j'ai failli faire un PhD sur les plasmas, comme un con j'ai dit non) le niveau, et de loin.

    Elmer est une bonne solution mais si ce que tu veux faire n'est pas dedans, contrairement à COMSOL, tu auras du mal …

    La solution OpenSource la plus proche de COMSOL est fenics. C'est une code FEM qui permet de résoudre des formulations variationnelles. Donc si tu es capable de formuler ton problème sous forme variationnelle affaiblie, et du coup compatible avec la FEM, tu pourras le résoudre avec fenics.

    le coeur est en C++ mais tu peux accéder à la partie formulation variationnelle, choix des éléments, mise en données, lancement de la simulation et récupération des données en python.

    Une tentative d'intégration avec FreeCAD a été lancée, elle permet d'exporter au format de mise en données de fenics les groupes de noeuds et d'éléments nécessaires à la simulation.

    Il existe aussi sfepy qui permet de faire des choses assez avancées il faut voir si ton problème peut se formuler simplement avec.

    Après tu peux aussi faire du couplage faible avec Salome et des codes dédiés, mais ne connaissant pas la physique du plasma, je ne sais pas trop si il y a des outils disponibles.

    En ce qui concerne OpenFOAM, ce n'est pas des éléments finis, mais des volumes finis, Une discrétisation par la méthode des volumes finis (MVF) est basée sur une forme intégrale de l'EDP à résoudre (par exemple, la conservation de la masse, de la quantité de mouvement ou de l'énergie). L'EDP est écrite sous une forme qui peut être résolue pour un volume fini (ou cellule) donné. Le domaine de calcul est discrétisé en volumes finis, puis les équations de base sont résolues pour chaque volume. Le système d'équations résultant implique généralement des flux de la variable conservée, et donc le calcul des flux est très important dans le MVF, alors que la discrétisation par la méthode des éléments finis (FEM) est basée sur une représentation par morceaux de la solution en termes de fonctions de base spécifiées. Le domaine de calcul est divisé en domaines plus petits (éléments finis) et la solution dans chaque élément est construite à partir des fonctions de base. Les équations réelles qui sont résolues sont généralement obtenues en reformulant l'équation de conservation sous une forme faible : les variables de champ sont écrites en termes de fonctions de base, l'équation est multipliée par des fonctions de test appropriées, puis intégrée sur un élément. La solution FEM étant formulée en termes de fonctions de base spécifiques, on en sait beaucoup plus sur la solution que pour MVF.

    Il faut donc vraiment évaluer ce que tu veux récupérer comme infos sur ton problème avant de savoir si tu vas pouvoir basculer sur la MVF.

  • [^] # Re: Beaux documents

    Posté par  . En réponse au journal C'est foutu pour LibreOffice. Évalué à 10.

    En fait Zenitram et toi vous parlez de deux choses différentes.

    Zenitram dit que si les options par défaut sont mauvaises les gens considéreront que le logiciel n'est pas au niveau de la concurrence sans faire le moindre effort. Là ou il trolle un peu, c'est qu'il dit qu'ils ont raison. Personnellement, je ne juge pas le bien ou le mal, je constate, que quand je dis que je trouve LO super, les gens ouvrent grands les yeux et quand j'explique pourquoi, les gens soufflent et disent, c'est pas pour moi trop compliqué. On parle de BAC+8, mais les sujets attenants à mon choix les indiffèrent !

    Donc ces personnes là, sont inaccessibles, et c'est selon moi le pb principal de LO, d'être un MSO à la ramasse dans la tête des gens in-intéressés au LL.

    C'est cette masse qui fait basculer et permet d'avoir de l'argent pour des développeurs. C'est un produit end-user, pas comme le noyau, ou une lib pour analyser des codecs ! Ça doit plaire au end-user point.

    MSO l'a compris et investi beaucoup dans ces aspects et du coup fidélise sa clientèle qui est prête à payer, et de ce fait nous empêche d'échanger avec eux quand on est sur Linux.

    Honnêtement, vu le temps que cela me fait perdre, si il y avait une version native à jour sur Linux, je pense que je l’achèterais non pas pour un usage quotidien, mais pour juste avoir la paix dans les échanges …

    Tu représentes une experte qui apporte énormément et met tout à disposition des autres, et je te remercie beaucoup pour ça, mais un dirait un utilisateur de Vim fasse à un utilisateur de Visual Studio Code !
    Ils ne s'entendront jamais !

  • [^] # Re: Beaux documents

    Posté par  . En réponse au journal C'est foutu pour LibreOffice. Évalué à 9.

    Salut Ysabeau.

    Tu as tout à fait raison ! On peut faire de magnifiques choses avec LO, si il y a un léger avantage sur la justification des paragraphes et des tableaux plus élégants (mais très chiant à faire), qui font un style sympa (fait par d'autres, hein), le style par défaut de LaTeX est beau. Celui de LibreOffice est ideux. Je suis désolé mais ce n'est pas normal de devoir être un pro pour faire un document élégant. C'est bien dommage que tes modèles ne soient pas par défaut dans LibreOffice, et c'est bien dommage qu'ils ne fassent pas un effort pour avoir un document élégant par défaut.

    Il ne faut pas se mentir, le principal avantage de LO est de faire comme MSO en libre, mais du coup toutes les mises en pages sous impress sont ratée, non pas par un manque de compatibilité, mais par le fait qu'il y a des tas de polices non-libres dans MSO. Il serait tellement simple d'analyser les polices présentes dans un document et de proposer de les installer, soit sur le système, soit dans le document si nécessaire … Alors oui, si le document embarquait les polices alors il serait plus lourd (quelques centaines de ko …), mais à l'époque ou des gens sont d'accord pour tout mettre en conteneurs dockers, cela me semble vraiment stupide comme objection. La taille d'une image haute résilution est certainement supérieure à la taille de toutes les polices présentes dans MSO.

    C'est donc bien le pb, on voit bien que leur objectif n'est pas de capter un public, sinon ces améliorations triviales auraient été faites depuis bine longtemps.

    Si les développeurs s'éclatent et que des gens comme toi ou moi arrivons à faire des documents de qualité, c'est déjà pas mal, mai ça ne changera pas le rapport de domination de MSO sur LO.

    OO tente de faire changer ce rapport de domination, et les gens trouvent que ce n'est pas si mal.

    Personnellement, les animations, les vidéos, marchent tellement mal depuis MSO que je n'ai jamais trouvé cela utile.

    Et j'ai tellement de polices moisies sur mon laptop, que je n'ai pas trop de pb de compatibilité !

    Donc oui, tu as raison LO est un formidable logiciel, et ils ont raisons LO ne fait pas assez pour faciliter la migration, alors que c'est quasiment sa raison d'être.

    Et ne pas venir me dire, c'est libre tu n'as qu'à le faire. Perso, je suis assez expert pour qu'il fasse ce que je veux, donc non, je ne passerais pas de mon temps pour changer ça.

  • [^] # Re: Jitsi ne suffit malheureusement pas tout le temps

    Posté par  . En réponse au journal Comment et quoi répondre aux invitations Zoom et Microsoft Team → vs Jitsi Meet. Évalué à 3.

    Tout à fait.

    Au CNRS on fait rendez-vous.renater.fr, qui nous permet de faire tourner jitsi. Même avec ça, on s'en sortait pas, même quand le serveur n'était pas chargé. Donc, ce n'est vraiment si simple, de plus la possibilité de rejoindre l'audio par téléphone n'était pas activée …

    Le problème est que l'on ne peut pas être de tout les combats, et comme je ne suis pas dans la confidence des gens des SI des écoles d'ing ou fac, c'est un peu dur de pouvoir avoir un quelconque moyen autre que des plateformes extérieures. Il y a sûrement un travail à faire.

  • [^] # Re: Jitsi ne suffit malheureusement pas tout le temps

    Posté par  . En réponse au journal Comment et quoi répondre aux invitations Zoom et Microsoft Team → vs Jitsi Meet. Évalué à 2.

    Très pertinent !

    Il l'ont mis en place là ou j'enseigne, mais le cours que j'ai donné, je l'ai fait à titre gracieux (la flemme de faire un dossier de vactaire pour 2h de cours …) et de ce fait, je n'avais pas accès à cette plateforme. Ce n'est pas mon taf de gérer ces choses. tout le monde a zoom, du coup, tu es sûr d'avoir les étudiants et pas de pb de bande passante. Du coup j'ai abdiqué.
    Mais c'est sûr que pour être cohérent, il vaudrait mieux faire avec du libre. J'espère de ne plus avoir besoin de faire cela, mais si je dois refaire ce cours en présentiel, je rajouterais ce cas d'école dans mon cours, c'est plutôt cool à analyser en fait !

  • # Jitsi ne suffit malheureusement pas tout le temps

    Posté par  . En réponse au journal Comment et quoi répondre aux invitations Zoom et Microsoft Team → vs Jitsi Meet. Évalué à 10.

    Comme évoqué dans un autre commentaire, lorsque le nombre de personnes augmente, Jitsi est à la ramasse. Donc si tu prends la responsabilité d'imposer Jitsi et que tu pénalises tout ceux qui ont une petite connexion ou que ça ne marche pas, tout devient assez compliqué.

    De plus avec les stations d’accueil, il y a souvent plusieurs cartes sons sur le bureau et tu te retrouves souvent avec le mauvais micro, la mauvaise sortie son …
    Devoir sortir un pavucontrol pour changer la source son, n'est pas ce qu'il y a de plus simple …

    En bref, si tu veux faire cela, il faut t'assurer que tout est pris en charge, que c'est adapté à la bande passante de tes interlocuteurs et si tu fais ce travail, tu te rendras compte, qu'en général, c'est plus sûr avec Zoom.

    Je le regrette, mais Zoom et teams engendrent moins de blocage, ont une meilleure gestion des micros des gens qui ne parlent pas. De plus, il sont disponibles sur linux.

    En général lorsque l'on est moins de 5, je propose Jitsi, lorsque l'on dépasse, c'est zoom. J'ai fait un cours sur le libre avec 30 personnes connectées et cela a bien fonctionné avec écran partagé toujours lisible et pas de coupures de son. Donc qu final, il faut faire avec la maturité des outils. Le jour ou Jitsi fera aussi bien je sais que les gens autour de moi y passeront sans problème.

    Mais pour moi, c'est suffisamment contraignant de devoir faire toutes ces visioconf pour ne pas rajouter des contraintes supplémentaires aux gens déjà au bord de la rupture. Il faut savoir quand militer et quand s'arrêter. Pour moi, je m'arrête là. Chacun set libre de mettre la barrière où il veut, mais du coup le risque de passer pour un extrémiste est fort.

  • # Libre vs OpenSource ?

    Posté par  . En réponse à la dépêche Liiibre, une solution complète pour vos projets collaboratifs. Évalué à 3.

    Sur le principe nous préférons Collabora (libre), mais chez OnlyOffice (open‑source) la performance et l’interface utilisateur nous semblent bien meilleures pour le moment.

    Où là, c'est glissant. OnlyOffice Community edition est totalement libre, ils utilisent la licence AGPLV3, qui est libre.

    Le principal point de clivage est la représentation interne du modèle de document qui est faite avec Office Open XML, ce qui leur assure une très bonne compatibilité avec les documents offices, mais dégrade la compatibilité avec les documents odf.

    Ils ont choisi cette représentation, ça leur permet d'aller chercher un autre segment que celui visé par Collabora en permettant de se focaliser sur le passage de MS office vers cloud. Bon microsoft ayant sortie son offre cloud, ils ont aussi de la concurrence, mais pas en Libre, justement.

    Après, il est possible que je rate quelque chose dans la distinction que tu as voulu faire, n'hésite pas à préciser en ce cas !

  • [^] # Re: Résumé

    Posté par  . En réponse au lien Électricité bas carbone et vision politique en cette période de canicule. Évalué à 2.

    Dans ma vie et sur cette chaîne, j’ai choisi d’avoir une vision du monde en adéquation avec les éléments scientifiques disponibles. Si je découvre que mon opinion sur un sujet particulier n’est pas en adéquation avec les éléments scientifiques, je change mon opinion. C’est une approche du monde qui prend du temps, qui oblige à se documenter et ce n’est pas toujours facile, cela oblige à toujours remettre en question ce que l’on croit. Il est bien plus facile et agréable d’avoir l’approche de l’auteur et de placer son opinion au-dessus des faits.

    Ça c'est de la propagande. Il n'y a pas de consensus dans le monde scientifique, il y a toujours des débats et des remises en causes …

    C'est donc normal dans ce contexte d'avoir des biais de confirmation, et c'est bien de cela qu'il s'agit …

    S'il cherche les arguments pour dire que le nucléaire est une solution, il va trouver beaucoup de publications scientifiques allant dans ce sens.

    Et c'est également vrai dans l'autre sens …

    C'est donc très difficile de se forger une opinion.

    Je ne dis pas que c'est impossible, ce n'est juste pas objectif, il y a une infinité de critères qui sont d'importances différentes pour chacun, ce qui fait forcément que l'on aura des conclusions différentes, et le pire, c'est que l'on aura tous raison, car notre fonction coût optimisée ne sera pas la même …

    Je trouve donc que d'aller chercher systématiquement, le nananananère lui il dit que j'ai raison, fatiguant … Il y a eu plein de référence à des autorités, et en quoi le débat à avancé, on sait que ce personnage pense cela et a arbitrer dans ce sens. La belle affaire …

    Si un très grave accident arrive en France alors tout le monde changera d'avis mais on aura perdu un pan du territoire, pour des centaines et des centaines d'années …

    Donc on voit bien que la fonction coût peut vite changer en fonction de l'importance de ce simple critère.

    Allé hop, je m'en vais à l'apéro -->[]

  • # On n'est pas à l’hôpital

    Posté par  . En réponse au journal Le masque obligatoire une fausse bonne idée ?. Évalué à 10.

    Les arguments sur le prix me semblent stupides …

    Tu dois avoir un masque, le but est d'éviter que tes postillons se retrouve dans un flux d'air qui pourrait aller vers d'autres personnes et les contaminer …

    Cela ne sert pas à te protéger, mais à protéger les gens en face de toi des projections, ça n'a pas d'autre intérêt.

    Si tu es le seul à manipuler ton masque en tissu, peu importe que tu l'aies porté plusieurs heures ou que tu le remettes le lendemain, tu assureras la mission de protection des gens en face de toi, en tout cas, il ne me semble pas que le contraire ait été démontré.

    Ce que tu décris est l'utilisation pour les cas très rapprochés des masques de chirurgie, mais la distanciation interperonnelle est sensée te contraindre à ne jamais être dans ces conditions, de ce fait ces consignes sont trop restrictives pour des gens se tenant à bonne distance.

    Bon après, le masque peut commencer à sentir mauvais, un peu d'eau et du savon sous un robinet, un essorage à la main et c'est bon !

    C'est sûr que si on voulait tous savoir gérer le port de masques FFP2, ça serait une autre histoire …

    Donc oui, porter des masques qui font barrières à ton flux de postillons expiré est une très bonne chose, pour réaliser cela, ce que tu décris n'est pas nécessaire.

    Le vrai conseil est de se laver les mains tout le temps, 'est bien connu des services d'infections, ça devrait être le premier geste à mettre en avant, et ce bien avant les masques. Les chirurgiens et médecins des hôpitaux le font plusieurs dizaines (centaine ?) de fois par jour, si on compte savon et solutions hydroalcooliques.

    Le problème des masques malpropres est la contamination par contact de ta main sur la surface extérieure du masque qui se retrouvera sur les poignées de portes ou autre surface, mais c'est toujours mieux que de se prendre les postillons des autres !

  • [^] # Re: Tester l'ACPI

    Posté par  . En réponse au message impossible de sortir de veille. Évalué à 3.

    Pas trop, je ne vois pas trop le rapport avec mon problème,

    Si ton problème est la sortie de veille, comme tu le décris, c'est un problème d'ACPI. Il faut donc regarder si des paramétrage de ton ACPI peuvent le régler. C'est la chose la plus logique à faire.

    c'est un peu trop tech pour moi.

    Malheureusement, ce genre de problème est de nature technique. La prise en compte de la veille sur un PC Linux est dépendante de la bonne implémentation de l'ACPI par le constructeur, de ce fait, si il utilise des contournements pour windows, ceux-ci peuvent mal se passer sur Linux, qui va réveiller des périphériques dans le mauvais ordre … Si tu ne testes pas les différents modèles d'ACPI alors, tu n'as aucune chance de le régler … Une mise à jour du noyau ne changera rien à cela …

    La commande strings ne me renvoie rien

    Je vois mal comment c'est possible …

    et je n'ose pas rajouter ce que tu dis dans le fichier grub car j'ai trop peur de faire n'importe quoi et là je ne saurais pas m'en sortir.

    Tu peux essayer de rajouter l'option lors du boot, comme expliqué ici, il suffit alors de rebooter …

    Tu n'auras pas de réponses ne demandant pas une compétence technique avancée sur ce sujet. Peut être te faudrait il aller dans un GULL pour voir quelqu'un de compétent, en lui montrant ce message.

    Bon courage

  • [^] # Re: Tester l'ACPI

    Posté par  . En réponse au message impossible de sortir de veille. Évalué à 5.

    Oui, je comprends, ce n'est pas évident …

    Les paramètres du noyau sont documentés sur le site kernel.org.

    Pour comprendre ce que fait acpi_osi, tu dois savoir en gros comment fonctionne l'ACPI. L'ACPI consiste en des tables que le BIOS charge dans la mémoire vive avant le démarrage du système d'exploitation. Certaines d'entre elles contiennent simplement des informations sur les périphériques essentiels de la carte mère dans un format fixe, mais certaines, comme la table DSDT, contiennent du code AML. Ce code est exécuté par le système d'exploitation et fournit au système d'exploitation une structure arborescente décrivant de nombreux appareils sur la carte mère et les fonctions appelables qui sont exécutées par le système d'exploitation lorsque, par exemple, l'économie d'énergie est activée. Le code AML peut demander au système d'exploitation de quel système il s'agit en appelant la fonction _OSI. Cette fonction est souvent utilisée par les fournisseurs pour contourner les problèmes, par exemple en cas de bogue dans certaines versions de Windows.

    Comme de nombreux fournisseurs de matériel informatique ne testent leurs produits qu'avec la dernière version de Windows (à ce moment-là), les chemins de code "normaux" sans solution de contournement sont souvent bogués. C'est pourquoi Linux répond généralement par l'affirmative lorsqu'on lui demande si c'est Windows. Linux avait également l'habitude de répondre oui lorsqu'on lui demandait s'il s'agissait de "Linux", mais cela amenait les vendeurs de BIOS à contourner les bogues ou les fonctionnalités manquantes dans la (à l'époque) dernière version du noyau Linux au lieu d'ouvrir des rapports de bogues ou de fournir des correctifs. Lorsque ces bogues ont été corrigés, les solutions de contournement ont entraîné des baisses de performance et d'autres problèmes pour toutes les versions ultérieures de Linux.

    acpi_osi=Linux fait en sorte que Linux réponde à nouveau oui lorsqu'on lui demande si c'est "Linux" par le code ACPI, permettant ainsi au code ACPI d'activer les contournements pour Linux et/ou de les désactiver pour Windows.

    acpi_backlight=vendor modifie l'ordre dans lequel les pilotes ACPI pour les rétroéclairages sont vérifiés. Habituellement, Linux utilise le pilote vidéo générique lorsque le DSDT ACPI fournit un périphérique de rétro-éclairage revendiquant une compatibilité standard et ne vérifie les pilotes spécifiques d'autres fournisseurs que si un tel périphérique n'est pas trouvé. acpi_backlight=vendor inverse cet ordre, de sorte que les pilotes spécifiques des fournisseurs sont essayés en premier.

    Tu peux donc tester quelques options pour vérifier ce que ton PC supporte.

    La commande :

    sudo strings /sys/firmware/acpi/tables/DSDT | grep -i 'windows '

    te permet de vérifier les versions de Windows supportées, la dernière est celle qui est utilisée par défaut lors du lancement de ton noyau.

    Du coup tu peux rajouter

    GRUB_CMDLINE_LINUX= xxxx "acpi_osi=Windows 2015"
    

    ou

    GRUB_CMDLINE_LINUX= xxxx "acpi_osi=Linux"
    

    dans le fichier /etc/default/grub

    puis mettre à jour grub avec :

    sudo update-grub
    

    Essaye les différentes options et regarde si ça règle ton problème !!

    Plus clair comme ça ?