Ce n’est d’ailleurs pas la seule bibliothèque catholique qui utilise Koha, celle du diocèse de Fréjus-Toulon aussi =). Bon par contre pour être fan du logiciel libre on repassera : si le personnel de ce diocèse et les services sont effectivement bienveillants voire convaincus au point d’avoir présenté le projet Philémon comme modèle et avoir contacté la société Akretion, les instances dirigeantes de ce diocèse apparaissent très opposées au logiciel libre (ça peut aller jusqu’au licenciement pour le personnel informatique). Ce qui est assez inexplicable puisque les “décideurs” de cette abbaye et de ce diocèse sont très proches et l’on pourrait s’attendre à ce que les succès de l’un soient convaincants pour l’autre.
J’avais entendu il y a quelques années que c’était pas moins de sept abbayes ou monastères qui utilisaient Odoo dans le sillage de la réussite de l’abbaye du Barroux. Que ce soit Odoo, Koha ou d’autres, les logiciels libres sont bienvenus quand leur connaissance est acquise, et qu’il n’y a pas de résistance de principe pour des motifs non-avoués. Moralement le logiciel propriétaire est difficilement tenable, donc lorsqu’un catholique est sensibilisé à ces questions, le logiciel libre devient une évidence.
ce commentaire est sous licence cc by 4 et précédentes
C'est normal de payer des frais pour acheminer le produit jusqu'à chez toi.
Il ne parle pas des frais de transport, il parle des frais de douane et des frais de dossiers.
De la même manière, un jour j’ai acheté une batterie à 30€, il y avait 30€ de frais de ports, j’avais un peu mal mais bon, il faut bien que ça soit transporté… À l’arrivée il y avait des frais de douane, et ceux-ci étaient calculés sur l’intégralité de ce que j’avais payé (prix de la batterie et prix des frais de ports = 60€) et étaient de 50%, ce qui fait que j’ai dû payer 30€ de plus à l’arrivée. Au final cette batterie m’a coûtée 90€… et en fait elle n’a pas marché et je n’ai pas réussi à la renvoyer… Fin de l’histoire ? le transporteur perdu les frais de douane en route et me les a réclamé par recommandé pendant des mois… J’ai rien donné de plus.
J'ai eu écho de pratiques de ce type uniquement sur des commandes passées aux États-Unis.
En fait j’aimerai bien qu’on m’explique ce qui se passe avec les États-Unis. Qui demande ces frais de douanes exorbitants ? Les États-Unis à l’export ou la France à l’import ? Parce que clairement, quand tu cherches sur eBay un produit, s’il est dispo aux États-Unis c’est comme s’il n’existait pas. Que les frais de douanes soient annoncés à l’avance ou pas, à vrai dire c’est pas le sujet, mais pourquoi c’est si cher ? C’est généralement très élevé genre au moins le quart…
Si ces frais de douane sont fixés par les États-Unis c’est quoi le but de cette politique ? C’est quel type de protectionnisme qui empêche les exports ?
Si ces frais de douane sont fixés par la France, c’est quoi le but ? C’est sensé produire quel effet ?
De plus, j’ai remarqué que la douane est super zélée avec ce qui vient des États-Unis, c’est rare qu’un produit passe à travers. Alors qu’un produit qui vient d’Asie… comment dire… faudrait vraiment avoir pas de chance pour se manger la douane. Ou peut-être que la quantité de colis n’a rien à voir mais qu’ils ont le même nombre de gus en charge de chaque continent ?
ce commentaire est sous licence cc by 4 et précédentes
C'est vraiment un gain? En tous état de cause, il faut juste être conscient de ce qu'on fait (filer plus de données à une entité tierce, avec laquelle on a aucun contrat).
Exactement, la question est “à qui on donne nos données”.
Il n’est pas dit que le FAI soit le plus grand méchant entre le FAI et CloudFlare.
Une chose de bien, c’est qu’on peut changer de FAI pour accéder à son site préféré si on n’est pas content de son FAI, alors qu’on ne peut pas se passer de CloudFlare si son site préféré utilise CloudFlare. Et ça c’est problématique : CloudFlare est, entre autre, devenu le frontal du web.
Le silo CloudFlare est peut-être même plus problématique que le silo Facebook, parce qu’au moins pour ce dernier tu sais quand tu es sur facebook et quand tu ne l’est pas (et tu peux facilement bloquer les petits traceurs intégré sur les sites tiers) : C’est tout ou rien pour Facebook, mais tu peux visiter les autres sans Facebook. Pour CloudFlare, tu passe par chez CloudFlare pour aller chez les autres, c’est tout ou rien pour aller chez les autres, et de manière ordinaire tu ne le vois pas.
Autant je trouve sain d’entretenir une certaine méfiance (ou prudence, pour un mot non négatif) envers son FAI, autant je trouve étrange cette manière de donner carte-blanche à n’importe qui tant que ce n’est pas le FAI. C’est pareil pour l’état d’ailleurs : être discret autant que possible est une chose, le faire vis à vis de l’état en se mettant à poil devant la première multinationale aux intérêts privés et étrangers en est une autre. Et si le VPN magique était un pot de miel ? Et si le moteur de recherche n’était pas si discret que ça ? Et si le serveur DNS n’était pas si respectueux de la vie privée qu’il le dit ? À un moment il faut bien faire des choix et prendre des risques pour vivre, et garder en tête que ce n’est pas magique.
CloudFlare voit le trafic déchiffré de ce qu'il héberge, et seulement ça.
Par contre là-dessus, merci Capitaine obvious. Je faisais référence au fait que CloudFlare est tellement présent qu’il est un fournisseur d’accès pour une grosse partie du web, même s’il y a ton « FAI » traditionnel entre, CloudFlare se place juste après ton « FAI » et avant le site que tu visites.
ce commentaire est sous licence cc by 4 et précédentes
Bah, clairement oui c’est un problème de riche. Il faut être privilégié pour mettre en concurrence les fabricants de téléphones au lieu de mettre en concurrence nos dépenses et notre accès aux ressources naturelles.
ce commentaire est sous licence cc by 4 et précédentes
Pour d'aussi mauvaises specs, c'est 2x moins cher, donc ça fait dans les $70 le prix de l'OS open source…
Pourquoi tu supposes que $70 c’est le prix de l’OS open source ? Ça peut-être plein de trucs, comme :
une plus petite série,
des salaires plus justes,
des meilleures conditions de travail,
payer ses cotisations sociales…
Ysabeau disait :
En revanche, compte tenu du prix, de l'ordre de 150 €, ce qui n'est pas très cher, je trouve ça plus que correct.
Personnellement, je trouve ça plus que correct de payer 150€ un téléphone s’il me convient.
Si un téléphone me satisfait je peux mettre 150€ dedans, et j’en aurai rien à foutre qu’il soit virtuellement possible de me le vendre pour moitié prix en étant un connard.
Je sais que 150€ ce n’est pas cher pour moi si le téléphone me convient. Peut-importe le nombre de cœurs ou je sais pas quoi. Si j’en ai besoin, si je veux celui-là, je sais que je peux me le permettre.
ce commentaire est sous licence cc by 4 et précédentes
FreeRadicalSoftware announced on August 12, 2002 plans to open-source the entire suite under the GNU GPL, but then in December 2002 had to announce that sufficient funds—about US $100k—couldn't be raised to license the source code.
From: “Scott Lindsey” (wombat AT gobe DOT com)
To: (gobe-usertalk AT gobe DOT com)
Sent: Thursday, December 05, 2002 1:02 AM
Subject: [gobe-usertalk] FreeRadical
What has happended to the Open sourcing of the code ??
At this time, Free Radical has been unable to raise the money necessary
to license the code from Gobe Software Inc.
Free Radical is effectively a nonstarter at this point.
Donc Free Radical Software n’aurait en fait pas réussi à lever les fonds nécessaires pour libérer le code…
😢
Note : dans cette seconde page il y a un lien vers une brève au sujet du succès de la levée de fond qui a libéré Blender… c’est de l’archéologie tout ça… bon voyage dans le temps !
ce commentaire est sous licence cc by 4 et précédentes
Je ne serai pas surpris si la non-ouverture des pilotes NVidia était la cause du choix d’Apple en faveur d’AMD pour les GPUs.
Parce que macOS distribue lui-même les pilotes, et généralement il semble qu’Apple semble vouloir avoir la main sur le code qu’ils distribuent eux-même, ce qui est tout à fait rationnel même quand on fait du propriétaire.
Sur console c’est pareil, la seule console actuelle qui a du NVidia c’est la Switch, ce qui récompense probablement plus leur positionnement sur le marché des cartes intégrées ARM + GPU (AMD semble avoir abandonné son expérience ARM) que les conditions de collaborations avec les autres industriels. Si la Xbox première du nom et la PlayStation 3 ont eu un GPU NVidia, la GameCube, la Wii, la Xbox 360, PlayStation 4, Xbox One, et les consoles à venir Atari VCS, Xbox Series X et PlayStation 5 sont toutes sous AMD (les autres consoles non-citées ont eu du SGI, du PowerVR et autres marques minoritaires sur ce marché). Il est connu qu’AMD développe ses pilotes Linux sur la base d’un tronc commun interne, commun à « 4 ou 5 architectures ». Et AMD est très enclin à documenter ses architectures et à montrer son code, si AMD le fait en libre, rien ne les empêche de le faire sous NDA.
ce commentaire est sous licence cc by 4 et précédentes
L'affirmation était sur 10 ans et pareil il y a 10 ans AMD c'était pas vraiment ça.
J’ai tout à fait conscience qu’AMD était vraiment pas au top il y a 10 ans. C’est pourquoi l’écart entre les AMD actuels et les Intel d’avant n’est pas aussi énorme qu’entre les AMD actuels et les AMD d’avant… Mais c’est indéniable, AMD a fait une progression extra-ordinaire. Intel ne peut pas se vanter de progresser autant. Aujourd’hui j’ai l’impression de voir Intel comme AMD était il y a 10 ans… raboter dans les coins pour ne pas trop perdre de place. Cet exemple du FX 9590 était un bon exemple de « faire feu de tout bois » pour réussir à placer des produits dans certains rayons quoi qu’il en coûte. Intel use d’autres manœuvres qu’un OC d’usine, mais c’est un peu la même logique : garder une place dans le rayonnage quoi qu’il en coûte.
Ça montre surtout l'erreur d'Apple de ne pas être passé chez AMD et d'avoir vendu très cher des ordis inférieurs.
Peut-être y-a-t-il une clause d’exclusivité dans un contrat ? Sur le plan des GPU, Apple n’a aucun problème à intégrer du AMD.
ce commentaire est sous licence cc by 4 et précédentes
+10% à chaque génération, en 10 ans ça finit par être conséquent.
Dans le même temps, AMD a multiplié la performance de ses processeurs sur certaines tâches par 20 en moins de 7 ans (cf. benchmark Phoronix) :
En juillet 2013 le FX 9590 était ce qu’AMD avait de mieux à offrir pour le marché « desktop » (avec un TDP de 220W). En février 2020 le meilleur qu’AMD propose pour le même marché est le ThreadRipper 3990X (avec un TDP de 280W).
Si tu linéarises la progression, ça fait du +300% par an. D ’ici 2021/2022 AMD aura atteint les 4nm dans sa gravure en production et pourra offrir plus encore. En 10 ans ça va finir par être conséquent.
Alors oui c’est un benchmark favorable, mais même avec un benchmark pensé pour être défavorable car n’utilisant qu’un seul thread (et le point fort du TR 3990X est d’être le CPU avec le plus de cœurs/threads du marché), t’as plus de 200% de gain en moins de 7 ans.
Je n’ai pas de ThreadRipper 3990X, mais j’ai des tâches qui ont la même progression sur le matos AMD que le raytracer testé par Phoronix (j’utilise un autre raytracer) et j’ai un FX 9590 sous la main pour comparer. Si j’extrapole les performances que j’ai pu tester sur d’autres processeurs actuels d’AMD, une tâche que met près de 2 jours (1 jour et 18 heures avec tous les cœurs à 100%) à produire un rendu sur un FX 9590 mettrait 15 minutes sur un TR 3990X.
Et si tu ne peux pas acheter « le meilleur qu’AMD a à offrir » (qui est grave cher, ne le nions pas, 4000€) mais que tu te contentes d’acheter un processeur qui est dans la gamme de prix où était le FX 9590 à l’époque comme un Ryzen 9 3900X (400€), tu multiplies facilement par 5 les performances. Sur un test réel, un rendu qui mettait 5h ne dure plus qu’une heure. Et le TDP du Ryzen 9 3900X c’est 105W.
Donc, comparons 7 heures de calcul avec un CPU à 220W de TDP contre 1 heures de calcul à 105W de TDP… ou 42 heures de calcul avec un CPU à 220W de TDP et 15 minutes avec un CPU à 280W de TDP… La progression d’AMD est énorme, Intel ne suit pas.
Ironiquement, le fait qu’Apple intègre du Intel réduit énormément le gap entre ce que leurs processeurs ARM sont capable de faire et ce qu’un client Apple attend d’eux.
Q: Is Apple's 2019 Mac Pro already obsolete now that AMD has released a 32-core Threadripper CPU and plans to launch a 64-core CPU soon?
A: No, the AMD CPUs are irrelevant to the Mac Pro because the high end workstation/towers, from Apple, H-P and Dell exclusively use Intel Xeon CPUs because they are optimized for high end workloads that those workstations are intended for.
Certaines personnes en sont là pour ne pas se confronter au réel : « le Mac Pro à base de Xeon n’est pas rendu obsolète par la sortie des AMD ThreadRipper parce que de toute façon HP et Dell ne te vendront pas de machine avec un ThreadRipper », et paies-toi l’argument très Apple-compatible : « ils ne te vendront pas du ThreadRipper parce qu’ils vendent du haut de gamme, tu vois ». 🙈
Pour être honnête, la personne donne ensuite un vrai argument avec un exemple de cas d’usage à grande mémoire qui est actuellement réservé à l’offre processeur de serveur d’AMD (Epyc). En gros aujourd’hui le seul argument pour mettre un Xeon dans un ordinateur de bureau c’est si tu as besoin de plus de 256 Go de RAM. Si tu n’as pas besoin de plus de mémoire vive, prendre du Xeon c’est une perte d’argent et un renoncement de puissance insensés. Cela ne fait donc aucun sens (autre que des contrats d’exclusivité) si de grands constructeurs n’intègre pas des offres avec ThreadRipper dans leur haut de gamme pour tout ceux qui n’ont pas de besoin spécifique en mémoire, à côté des offres minoritaires avec Xeon pour ceux qui ont des besoins spécifique en mémoire.
Bref, le fait qu’Apple intègre du Intel dans son haut de gamme et le fait qu’Intel soit à la traîne réduit fortement le chemin à parcourir par Apple pour apporter à ses clients une architecture ARM qui ne soit pas inférieure, non pas à ce que propose le marché, mais à leurs offres précédentes. La captivité de la clientèle rend ce genre de manœuvre plus aisée.
ce commentaire est sous licence cc by 4 et précédentes
Je suis un développeur et un utilisateur de logiciel libre et cette association entre falsification et logiciel libre est susceptible de porter atteinte à la considération que l’on me porte.
Un employé en charge de la facturation doit pouvoir utiliser des logiciels libres pour éditer les factures sans que son employeur ne le soupçonne de faux sur la seule base de cet usage. Un prestataire doit pouvoir utiliser des logiciels libres pour éditer ses factures sans que ses clients ne les soupçonne de fraude, etc.
ce commentaire est sous licence cc by 4 et précédentes
Oui mais à ce que je sache, pour le moment ne pas les avoir rend les fonctionnalités indisponibles, je pensais plus à des périphériques sans lequel le système ne peut pas démarrer.
Je pourrais donner comme exemple la différence entre une Xbox première du nom et un PC. Cette machine avait beau être très proche d’un PC, elle n’est toujours pas émulée correctement même en reprenant 90% de qemu… Un Mac me semble aussi spécifique qu’une console de salon.
ce commentaire est sous licence cc by 4 et précédentes
Ça fonctionne, mais c’est (au moins) 10 fois plus cher.
Plus cher ne signifie pas forcément acheter des licences ou du matériel, plus cher en coût caché, en temps passé à s’arracher les cheveux. Et quand ça marche, tu ne peux pas parier sur le futur, c’est toujours du court-terme.
Pour essayer de faire sentir du doigt l’incertitude sur le futur de n’importe quelle technologie Apple, relis le fait que la vidéo annonçant la migration vers ARM prend aussi soin de montrer que Linux est toujours bootable dans une machine virtuelle depuis un macOS de bureau et de signifier par là qu’ils en prendront soin. C’est important pour Apple de montrer cela pour faire taire les craintes de ceux qui craindraient qu’un ordinateur sous macOS devienne aussi fermé qu’un iBidule où seul iOS est installable. Problème : certaines personnes faisaient plus que démarrer Linux dans une machine virtuelle sur un mac, mais démarrer Linux sur un mac. Que faut-il en penser ? Les craintes sont-elles infondées ? Saurons-nous démarrer Linux sur un mac ARM directement sans virtualisation ?
Saurons-nous virtualiser un mac ARM ? Faudra-t-il émuler des périphériques spécifiques et introuvable ailleurs que dans un mac ARM ?
Bref, ça marche mais faut toujours garder en tête qu’il faut considérer par défaut que c’est du no future.
Et mon témoignage personnel c’est que sur les logiciels libres auxquels je contribue, prendre soin de la plate-forme d’Apple ce sont des mois de travail pour un nombre d’utilisateur qui se compte sur les doigts d’une seule main (parfois sur un seul doigt).
ce commentaire est sous licence cc by 4 et précédentes
Cette phrase reste toujours vraie pour les ordinateurs :
Il n'y avait aucun défi hardware, la comparaison n'a pas lieu d'être.
Apple maîtrise très bien le hardware désormais, mais il n’est pas dit que ce hardware soit prêt pour tenir la route sur le plan des performances face au hardware x86 actuel de leur haut de gamme.
Alors qu’au moment de la migration PPC vers x86, Intel proposait des CPUs qui tenaient largement la route pour le besoin de performance haut-de-gamme.
Bref, je vois bien Apple commencer à vendre des macs mini ou des laptops requérant de faible puissance avec ses processeurs ARM, et basculer les gammes requérant plus de performances au fur et à mesure des années, de manière beaucoup plus lissée et plus étendue dans le temps qu’à l’époque de la migration PPC vers x86.
ce commentaire est sous licence cc by 4 et précédentes
les greffons PNG et TIFF ont dorénavant pour comportement par défaut de ne pas enregistrer la valeur des couleurs lorsqu’un canal alpha est présent et a pour valeur 0, ce changement fait suite aux problèmes de fuite de données lorsqu’on se contente de découper des morceaux d’image pour en cacher le contenu en y laissant de la transparence ;
Où se trouve l’option, dans la fenêtre d’export ? Il me semble en effet impératif que la valeur de cette option soit très facilement basculable à l’export.
J’ai un avis mitigé sur le fait que ce comportement soit activé par défaut. Je comprends parfaitement la problématique de fuites de données.
Je me souviens d’une étude dont la source de donnée avait été publiée sous forme de google doc, et tous les noms des milliers de personnes sondées avaient été « anonymisées » avec une couleur de fond noir et une couleur de texte noir, une simple sélection ou un simple copier-coller dans un bloc note révélait les noms des sondés… 🤦
De l’autre, il existe de réelles situations où il peut y avoir des données RGB à conserver dans un pixel avec un canal alpha complètement transparent.
1. Cas rencontré de données RGB à ne pas détruire (canal alpha erroné)
Par exemple avec le projet Unvanquished, j’ai rencontré avec de vieilles cartes de Tremulous une skybox qui apparaissait comme entièrement transparente dans les miniatures de l’explorateur de fichier nautilus ou dans un éditeur d’image, mais apparaissait comme correctement opaque et coloré dans le jeu. Les faces de la skybox était des images en TGA, mais la conversion en PNG conservait le comportement étonnant. J’avais découvert que tout simplement le canal alpha était à zéro mais que le rendu de skybox dans le jeu n’utilise pas le canal alpha (ce qui fait sens puisqu’il s’agit de couvrir le « vide » du fond de l’écran et qu’il n’y a par définition derrière la skybox que du vide, donc des valeurs indéterminées. Le canal alpha était donc simplement une donnée inutile qui ne codaient rien.
Un utilisateur qui convertirait naïvement les textures en ouvrant le TGA dans GIMP et exporterait en PNG détruirait les données.
La bonne chose à faire pour celui qui manipule de telles images serait de supprimer le canal alpha erroné, mais il est dangereux de supprimer les données en faisant une simple conversion de format, ce qui peut arriver avant que l’utilisateur ne découvre que le canal alpha est erroné.
Dans mon cas je me suis rendu compte du problème bien après avoir converti les images en PNG.
2. Données stockées dans des canaux RGBA qui ne sont pas vraiment des images (le canal alpha ne code pas la transparence)
Les images au format PNG et autres formats ne servent pas nécessairement à stocker les couleurs et la transparence d’un objet sur lequel la texture est appliquée. Il est courant par exemple de stocker les coordonnées XYZ d’une carte normale dans les canaux RGB, et l’élévation d’un champs de hauteur dans le canal Alpha.
Il est par exemple tout à fait légitime de stocker une carte normale plate avec une hauteur nulle (une profondeur maximale). Avec des valeurs dans l’ensemble [0.0, 1.0], une carte normale plate est codée comme (0.0, 0.0, 0.5) et une profondeur maximale est codée [0.0]. Dans le cas d’un fichier PNG stockant une carte normale et un champ de hauteur, dans le cas d’un canal alpha entièrement nulle, la destruction des canaux RGB doit produire des pixels de (0.0, 0.0, 0.5), pas de (0.0, 0.0, 0.0). Cet exemple de carte normale plate avec une profondeur maximale ne ressemble pas vraiment à un cas réel, mais c’est l’exemple le plus simple à décrire pour aborder le sujet. De réels cas avec tout un panachage de valeurs et quelques pixels avec un canal alpha à zéro est tout à fait réaliste.
Aussi, il existe des tas d’autres combinaisons de stockage de textures dans les canaux. Par exemple le moteur Unity recommande une valeur « smoothness » dans les canaux alpha des textures spéculaires ou métalliques. Dans ces cas on ne peut pas se baser sur la valeur du canal alpha d’un pixel pour détruire les données des autres canaux.
De manière générale, c’est une très mauvaise idée de détruire les données RGB en se basant sur le canal alpha pour tout ce qui ne code pas la couleur et la transparence d’une texture.
Il est tout à fait légitime de manipuler et d’éditer de telles « images » dans un éditeur comme GIMP.
Pour référence, l’outil d’optimisation de compression PNG oxipng propose l’option --alpha pour détruire les canaux RGB invisibles en cas de transparence complète pour gagner de la place, mais cette option n’est pas active par défaut, et heureusement ! Il est tout à fait possible de coder du « noir » (0, transparence complète) dans un canal alpha pour coder autre chose que de la transparence.
3. Il est possible de coder de la transparence mais de la faire varier ensuite
Il est tout à fait rationnel d’imaginer un logiciel (comme un jeu), qui lirait des composants RGB dans les composants RGB et un canal alpha dans le canal alpha, mais se garderait le droit de modifier le canal alpha pour réaliser certains effets. Par exemple on peut imaginer une image qui doit être pleinement transparente tant qu’aucun effet n’est utilisé, il ferait donc sens de mettre un canal alpha entièrement transparent dans ce cas, car ce serait la valeur par défaut. Il est impératif dans ce genre de situation que le canal RGB ne soit pas détruit.
4. Cas spécifiques de codage exotique
Il y a aussi le cas particulier où les canaux RGB ne sont pas stockés dans les canaux RGB pour produire une compression plus efficace avec des formats qui n’ont pas le même algorithme de compression selon les canaux (ce qui est vrai de PNG en fait) ou qui n’ont pas le même nombre de bit pour coder chaque composant, et dans certains cas, il est courant dans l’industrie de stocker les canaux RGB dans une autre disposition de canaux arbitraires. Par exemple il est courant pour une carte normale (qui n’aurait pas de donnée d’élévation dans le canal alpha) de ne pas stocker les coordonnées XYZ dans RGB mais X dans A, Y dans G, et de reconstruire Z par un calcul. Pour être honnête je mets ce cas en dernier parce que je doute beaucoup que des utilisateurs rencontrent ce problème avec GIMP.
En général ce genre d’optimisation se fait avec des format d’images spécifiques (DDS, CRN…), mais comme le PNG ne stocke pas le canal Alpha de la même manière que les canaux RGB, il n’est pas absurde de penser que des hacks de ce type puissent être utilisé avec le PNG. Il n’est pas absurde que des gens utilisent le format PNG comme format intermédiaire, même si je pense sincèrement qu’à peu près tout le monde utilise des outils qui échangent les canaux au moment de convertir un format comme le PNG vers le format final, sans stocker le fichier intermédiaire pour édition. Mais je ne peux pas garantir à 100% que ça n’arrive jamais nulle part.
Question probabilité que ces cas ce produisent, les cas 3. et 4. relèvent plus de l’expérience de pensée, j’ai déjà rencontré le cas 1. pour de vrai même si je reconnais que c’est exceptionnel, et pour le cas 2. ça peut concerner des milliers d’artistes et développeurs.
ce commentaire est sous licence cc by 4 et précédentes
Merci France Inter pour l’emploi inutile de « marquante », à ranger avec les adjectifs comme « puissant » (comme dans « un film puissant sur […] »). C’est insupportable, ça n’apporte rien au sens du titre, juste à ajouter une emphase gratuite dénuée de sens, c’est pire que rien. En fait le problème c’est que ce genre d’adjectif suppose une impression que le lecteur devrait partager, ou plutôt, dirige l’impression que doit avoir le lecteur. Il ne s’agit même plus de diriger l’opinion, mais à diriger l’impression. France Inter, votre dealer d’émotion.
ce commentaire est sous licence cc by 4 et précédentes
Oui, le design que tu montres est certainement le plus efficace en terme de circulation d’air, avec un chemin assez contraint ! Par contre ce n’est probablement pas le plus discret question son: un seul petit ventilateur qui doit turbiner très vite !
Avec ce genre de conception, même s’il y a une ouverture à l’arrière, je ne vois rien qui empêche 90% de l’air de retourner immédiatement dans le boîtier :
Cependant, j’ai eu cette carte (Radeon HD 7970), et elle était inaudible en dehors de fortes charges.
Avec ce genre de conception cependant (Radeon HD 3650 a priori), là c’est certain, l’intégralité de l’air chaud revient dans le boîtier, il y a bien une direction de l’air vers l’arrière, mais la sortie d’air est dans le boîtier :
Et là c’est sûr, c’est juste pour faire pression localement, charge au boîtier de renouveler l’air :
Beaucoup de ventilateurs de CPU sont comme ça par ailleurs…
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Mise à jour
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche Logiciel de gestion de moulin à huile. Évalué à 2.
Il y a très longtemps (14 ans ?) un de mes amis faisait tourner Mac OS pour PowerPC sous Linux avec PearPC.
Qu’est ce qui serait bloquant aujourd’hui (au risque d’émuler un MacOS 9 PPC dans un MacOS X PPC dans un Linux x86)?
C’était très lent à l’époque cela-dit…
Les autres qui émulaient des PC x86 avec Bochs avant que Qemu rafle toute l’attention (et le défunt KQemu), qu’ils lèvent la main !
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Bibliothèque du Barroux
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche Logiciel de gestion de moulin à huile. Évalué à 7.
Ce n’est d’ailleurs pas la seule bibliothèque catholique qui utilise Koha, celle du diocèse de Fréjus-Toulon aussi =). Bon par contre pour être fan du logiciel libre on repassera : si le personnel de ce diocèse et les services sont effectivement bienveillants voire convaincus au point d’avoir présenté le projet Philémon comme modèle et avoir contacté la société Akretion, les instances dirigeantes de ce diocèse apparaissent très opposées au logiciel libre (ça peut aller jusqu’au licenciement pour le personnel informatique). Ce qui est assez inexplicable puisque les “décideurs” de cette abbaye et de ce diocèse sont très proches et l’on pourrait s’attendre à ce que les succès de l’un soient convaincants pour l’autre.
J’avais entendu il y a quelques années que c’était pas moins de sept abbayes ou monastères qui utilisaient Odoo dans le sillage de la réussite de l’abbaye du Barroux. Que ce soit Odoo, Koha ou d’autres, les logiciels libres sont bienvenus quand leur connaissance est acquise, et qu’il n’y a pas de résistance de principe pour des motifs non-avoués. Moralement le logiciel propriétaire est difficilement tenable, donc lorsqu’un catholique est sensibilisé à ces questions, le logiciel libre devient une évidence.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: America ? Say no more...
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal 1er retour sur le Pinebook pro. Évalué à 9.
Il ne parle pas des frais de transport, il parle des frais de douane et des frais de dossiers.
De la même manière, un jour j’ai acheté une batterie à 30€, il y avait 30€ de frais de ports, j’avais un peu mal mais bon, il faut bien que ça soit transporté… À l’arrivée il y avait des frais de douane, et ceux-ci étaient calculés sur l’intégralité de ce que j’avais payé (prix de la batterie et prix des frais de ports = 60€) et étaient de 50%, ce qui fait que j’ai dû payer 30€ de plus à l’arrivée. Au final cette batterie m’a coûtée 90€… et en fait elle n’a pas marché et je n’ai pas réussi à la renvoyer… Fin de l’histoire ? le transporteur perdu les frais de douane en route et me les a réclamé par recommandé pendant des mois… J’ai rien donné de plus.
En fait j’aimerai bien qu’on m’explique ce qui se passe avec les États-Unis. Qui demande ces frais de douanes exorbitants ? Les États-Unis à l’export ou la France à l’import ? Parce que clairement, quand tu cherches sur eBay un produit, s’il est dispo aux États-Unis c’est comme s’il n’existait pas. Que les frais de douanes soient annoncés à l’avance ou pas, à vrai dire c’est pas le sujet, mais pourquoi c’est si cher ? C’est généralement très élevé genre au moins le quart…
Si ces frais de douane sont fixés par les États-Unis c’est quoi le but de cette politique ? C’est quel type de protectionnisme qui empêche les exports ?
Si ces frais de douane sont fixés par la France, c’est quoi le but ? C’est sensé produire quel effet ?
De plus, j’ai remarqué que la douane est super zélée avec ce qui vient des États-Unis, c’est rare qu’un produit passe à travers. Alors qu’un produit qui vient d’Asie… comment dire… faudrait vraiment avoir pas de chance pour se manger la douane. Ou peut-être que la quantité de colis n’a rien à voir mais qu’ils ont le même nombre de gus en charge de chaque continent ?
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: DoH
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche Firefox 78 et 78 ESR. Évalué à 10. Dernière modification le 03 juillet 2020 à 10:58.
Exactement, la question est “à qui on donne nos données”.
Il n’est pas dit que le FAI soit le plus grand méchant entre le FAI et CloudFlare.
Une chose de bien, c’est qu’on peut changer de FAI pour accéder à son site préféré si on n’est pas content de son FAI, alors qu’on ne peut pas se passer de CloudFlare si son site préféré utilise CloudFlare. Et ça c’est problématique : CloudFlare est, entre autre, devenu le frontal du web.
Le silo CloudFlare est peut-être même plus problématique que le silo Facebook, parce qu’au moins pour ce dernier tu sais quand tu es sur facebook et quand tu ne l’est pas (et tu peux facilement bloquer les petits traceurs intégré sur les sites tiers) : C’est tout ou rien pour Facebook, mais tu peux visiter les autres sans Facebook. Pour CloudFlare, tu passe par chez CloudFlare pour aller chez les autres, c’est tout ou rien pour aller chez les autres, et de manière ordinaire tu ne le vois pas.
Autant je trouve sain d’entretenir une certaine méfiance (ou prudence, pour un mot non négatif) envers son FAI, autant je trouve étrange cette manière de donner carte-blanche à n’importe qui tant que ce n’est pas le FAI. C’est pareil pour l’état d’ailleurs : être discret autant que possible est une chose, le faire vis à vis de l’état en se mettant à poil devant la première multinationale aux intérêts privés et étrangers en est une autre. Et si le VPN magique était un pot de miel ? Et si le moteur de recherche n’était pas si discret que ça ? Et si le serveur DNS n’était pas si respectueux de la vie privée qu’il le dit ? À un moment il faut bien faire des choix et prendre des risques pour vivre, et garder en tête que ce n’est pas magique.
Par contre là-dessus, merci Capitaine obvious. Je faisais référence au fait que CloudFlare est tellement présent qu’il est un fournisseur d’accès pour une grosse partie du web, même s’il y a ton « FAI » traditionnel entre, CloudFlare se place juste après ton « FAI » et avant le site que tu visites.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: DoH
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche Firefox 78 et 78 ESR. Évalué à 10. Dernière modification le 03 juillet 2020 à 07:04.
T’es certain que ce n’est pas CloudFlare, ton véritable fournisseur d’accès à Internet ?
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: La solution serait un genre de bios
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal De la difficulté de mettre à jour Android (avec l'approbation Google). Évalué à 6.
Bah, clairement oui c’est un problème de riche. Il faut être privilégié pour mettre en concurrence les fabricants de téléphones au lieu de mettre en concurrence nos dépenses et notre accès aux ressources naturelles.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: La solution serait un genre de bios
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal De la difficulté de mettre à jour Android (avec l'approbation Google). Évalué à 10.
Pourquoi tu supposes que $70 c’est le prix de l’OS open source ? Ça peut-être plein de trucs, comme :
Ysabeau disait :
Personnellement, je trouve ça plus que correct de payer 150€ un téléphone s’il me convient.
Si un téléphone me satisfait je peux mettre 150€ dedans, et j’en aurai rien à foutre qu’il soit virtuellement possible de me le vendre pour moitié prix en étant un connard.
Je sais que 150€ ce n’est pas cher pour moi si le téléphone me convient. Peut-importe le nombre de cœurs ou je sais pas quoi. Si j’en ai besoin, si je veux celui-là, je sais que je peux me le permettre.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: La solution serait un genre de bios
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal De la difficulté de mettre à jour Android (avec l'approbation Google). Évalué à 5.
Oui mais renouveler les gammes renouvelle les pubs et la consommation. Il faut occuper le marché… /o\
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: mode 'brut'
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche Haiku R1 bêta 2. Évalué à 3.
Bon en fait je me réponds à moi même…
J’ai trouvé ici https://www.tldp.org/FAQ/WordPerfect-Linux-FAQ/future.html ceci :
Et un lien vers https://www.osnews.com/story/2308/obstacles-leave-gobeproductive-closed/ avec des explications et une copie de ce courriel :
Donc Free Radical Software n’aurait en fait pas réussi à lever les fonds nécessaires pour libérer le code…
😢
Note : dans cette seconde page il y a un lien vers une brève au sujet du succès de la levée de fond qui a libéré Blender… c’est de l’archéologie tout ça… bon voyage dans le temps !
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: mode 'brut'
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche Haiku R1 bêta 2. Évalué à 3.
Ça n’a finalement pas abouti : https://linuxfr.org/news/gobe-productive-libere ?
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: RISC-V
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal Transition ARM : Apple assistera certains projet open source . Évalué à 3.
Je ne serai pas surpris si la non-ouverture des pilotes NVidia était la cause du choix d’Apple en faveur d’AMD pour les GPUs.
Parce que macOS distribue lui-même les pilotes, et généralement il semble qu’Apple semble vouloir avoir la main sur le code qu’ils distribuent eux-même, ce qui est tout à fait rationnel même quand on fait du propriétaire.
Sur console c’est pareil, la seule console actuelle qui a du NVidia c’est la Switch, ce qui récompense probablement plus leur positionnement sur le marché des cartes intégrées ARM + GPU (AMD semble avoir abandonné son expérience ARM) que les conditions de collaborations avec les autres industriels. Si la Xbox première du nom et la PlayStation 3 ont eu un GPU NVidia, la GameCube, la Wii, la Xbox 360, PlayStation 4, Xbox One, et les consoles à venir Atari VCS, Xbox Series X et PlayStation 5 sont toutes sous AMD (les autres consoles non-citées ont eu du SGI, du PowerVR et autres marques minoritaires sur ce marché). Il est connu qu’AMD développe ses pilotes Linux sur la base d’un tronc commun interne, commun à « 4 ou 5 architectures ». Et AMD est très enclin à documenter ses architectures et à montrer son code, si AMD le fait en libre, rien ne les empêche de le faire sous NDA.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: RISC-V
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal Transition ARM : Apple assistera certains projet open source . Évalué à 3.
J’ai tout à fait conscience qu’AMD était vraiment pas au top il y a 10 ans. C’est pourquoi l’écart entre les AMD actuels et les Intel d’avant n’est pas aussi énorme qu’entre les AMD actuels et les AMD d’avant… Mais c’est indéniable, AMD a fait une progression extra-ordinaire. Intel ne peut pas se vanter de progresser autant. Aujourd’hui j’ai l’impression de voir Intel comme AMD était il y a 10 ans… raboter dans les coins pour ne pas trop perdre de place. Cet exemple du FX 9590 était un bon exemple de « faire feu de tout bois » pour réussir à placer des produits dans certains rayons quoi qu’il en coûte. Intel use d’autres manœuvres qu’un OC d’usine, mais c’est un peu la même logique : garder une place dans le rayonnage quoi qu’il en coûte.
Peut-être y-a-t-il une clause d’exclusivité dans un contrat ? Sur le plan des GPU, Apple n’a aucun problème à intégrer du AMD.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: RISC-V
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal Transition ARM : Apple assistera certains projet open source . Évalué à 5.
Dans le même temps, AMD a multiplié la performance de ses processeurs sur certaines tâches par 20 en moins de 7 ans (cf. benchmark Phoronix) :
En juillet 2013 le FX 9590 était ce qu’AMD avait de mieux à offrir pour le marché « desktop » (avec un TDP de 220W). En février 2020 le meilleur qu’AMD propose pour le même marché est le ThreadRipper 3990X (avec un TDP de 280W).
Si tu linéarises la progression, ça fait du +300% par an. D ’ici 2021/2022 AMD aura atteint les 4nm dans sa gravure en production et pourra offrir plus encore. En 10 ans ça va finir par être conséquent.
Alors oui c’est un benchmark favorable, mais même avec un benchmark pensé pour être défavorable car n’utilisant qu’un seul thread (et le point fort du TR 3990X est d’être le CPU avec le plus de cœurs/threads du marché), t’as plus de 200% de gain en moins de 7 ans.
Je n’ai pas de ThreadRipper 3990X, mais j’ai des tâches qui ont la même progression sur le matos AMD que le raytracer testé par Phoronix (j’utilise un autre raytracer) et j’ai un FX 9590 sous la main pour comparer. Si j’extrapole les performances que j’ai pu tester sur d’autres processeurs actuels d’AMD, une tâche que met près de 2 jours (1 jour et 18 heures avec tous les cœurs à 100%) à produire un rendu sur un FX 9590 mettrait 15 minutes sur un TR 3990X.
Et si tu ne peux pas acheter « le meilleur qu’AMD a à offrir » (qui est grave cher, ne le nions pas, 4000€) mais que tu te contentes d’acheter un processeur qui est dans la gamme de prix où était le FX 9590 à l’époque comme un Ryzen 9 3900X (400€), tu multiplies facilement par 5 les performances. Sur un test réel, un rendu qui mettait 5h ne dure plus qu’une heure. Et le TDP du Ryzen 9 3900X c’est 105W.
Donc, comparons 7 heures de calcul avec un CPU à 220W de TDP contre 1 heures de calcul à 105W de TDP… ou 42 heures de calcul avec un CPU à 220W de TDP et 15 minutes avec un CPU à 280W de TDP… La progression d’AMD est énorme, Intel ne suit pas.
Ironiquement, le fait qu’Apple intègre du Intel réduit énormément le gap entre ce que leurs processeurs ARM sont capable de faire et ce qu’un client Apple attend d’eux.
Certaines personnes font de très grand écarts pour ne pas voir le problème, exemple d’un parfait anonyme qui m’a fait bondir:
Certaines personnes en sont là pour ne pas se confronter au réel : « le Mac Pro à base de Xeon n’est pas rendu obsolète par la sortie des AMD ThreadRipper parce que de toute façon HP et Dell ne te vendront pas de machine avec un ThreadRipper », et paies-toi l’argument très Apple-compatible : « ils ne te vendront pas du ThreadRipper parce qu’ils vendent du haut de gamme, tu vois ». 🙈
Pour être honnête, la personne donne ensuite un vrai argument avec un exemple de cas d’usage à grande mémoire qui est actuellement réservé à l’offre processeur de serveur d’AMD (Epyc). En gros aujourd’hui le seul argument pour mettre un Xeon dans un ordinateur de bureau c’est si tu as besoin de plus de 256 Go de RAM. Si tu n’as pas besoin de plus de mémoire vive, prendre du Xeon c’est une perte d’argent et un renoncement de puissance insensés. Cela ne fait donc aucun sens (autre que des contrats d’exclusivité) si de grands constructeurs n’intègre pas des offres avec ThreadRipper dans leur haut de gamme pour tout ceux qui n’ont pas de besoin spécifique en mémoire, à côté des offres minoritaires avec Xeon pour ceux qui ont des besoins spécifique en mémoire.
Bref, le fait qu’Apple intègre du Intel dans son haut de gamme et le fait qu’Intel soit à la traîne réduit fortement le chemin à parcourir par Apple pour apporter à ses clients une architecture ARM qui ne soit pas inférieure, non pas à ce que propose le marché, mais à leurs offres précédentes. La captivité de la clientèle rend ce genre de manœuvre plus aisée.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: mode 'brut'
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche Haiku R1 bêta 2. Évalué à 5.
Ah? Toi aussi ton clavier se blo
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: mouais!
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche Une mise en cause infondée de logiciels libres dans une affaire de fausses factures ?. Évalué à 10.
Non, car cela ne contribue pas à l’affaire !
C’est tout aussi déplacé que d’écrire :
La diffamation est une allégation ou l'imputation d'un fait qui porte atteinte à l'honneur et à la considération d'une personne. (service-public.fr)
La diffamation est un concept juridique désignant le fait de tenir des propos portant atteinte à l'honneur d'une personne physique ou morale. (Wikipédia)
Je suis un développeur et un utilisateur de logiciel libre et cette association entre falsification et logiciel libre est susceptible de porter atteinte à la considération que l’on me porte.
Un employé en charge de la facturation doit pouvoir utiliser des logiciels libres pour éditer les factures sans que son employeur ne le soupçonne de faux sur la seule base de cet usage. Un prestataire doit pouvoir utiliser des logiciels libres pour éditer ses factures sans que ses clients ne les soupçonne de fraude, etc.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: RE: Transition ARM : Apple assistera certains projet open source
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal Transition ARM : Apple assistera certains projet open source . Évalué à 5.
Oui mais à ce que je sache, pour le moment ne pas les avoir rend les fonctionnalités indisponibles, je pensais plus à des périphériques sans lequel le système ne peut pas démarrer.
Je pourrais donner comme exemple la différence entre une Xbox première du nom et un PC. Cette machine avait beau être très proche d’un PC, elle n’est toujours pas émulée correctement même en reprenant 90% de qemu… Un Mac me semble aussi spécifique qu’une console de salon.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: RE: Transition ARM : Apple assistera certains projet open source
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal Transition ARM : Apple assistera certains projet open source . Évalué à 8. Dernière modification le 26 juin 2020 à 23:36.
Ça fonctionne, mais c’est (au moins) 10 fois plus cher.
Plus cher ne signifie pas forcément acheter des licences ou du matériel, plus cher en coût caché, en temps passé à s’arracher les cheveux. Et quand ça marche, tu ne peux pas parier sur le futur, c’est toujours du court-terme.
Pour essayer de faire sentir du doigt l’incertitude sur le futur de n’importe quelle technologie Apple, relis le fait que la vidéo annonçant la migration vers ARM prend aussi soin de montrer que Linux est toujours bootable dans une machine virtuelle depuis un macOS de bureau et de signifier par là qu’ils en prendront soin. C’est important pour Apple de montrer cela pour faire taire les craintes de ceux qui craindraient qu’un ordinateur sous macOS devienne aussi fermé qu’un iBidule où seul iOS est installable. Problème : certaines personnes faisaient plus que démarrer Linux dans une machine virtuelle sur un mac, mais démarrer Linux sur un mac. Que faut-il en penser ? Les craintes sont-elles infondées ? Saurons-nous démarrer Linux sur un mac ARM directement sans virtualisation ?
Saurons-nous virtualiser un mac ARM ? Faudra-t-il émuler des périphériques spécifiques et introuvable ailleurs que dans un mac ARM ?
Bref, ça marche mais faut toujours garder en tête qu’il faut considérer par défaut que c’est du no future.
Et mon témoignage personnel c’est que sur les logiciels libres auxquels je contribue, prendre soin de la plate-forme d’Apple ce sont des mois de travail pour un nombre d’utilisateur qui se compte sur les doigts d’une seule main (parfois sur un seul doigt).
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: RISC-V
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal Transition ARM : Apple assistera certains projet open source . Évalué à 6.
Cette phrase reste toujours vraie pour les ordinateurs :
Apple maîtrise très bien le hardware désormais, mais il n’est pas dit que ce hardware soit prêt pour tenir la route sur le plan des performances face au hardware x86 actuel de leur haut de gamme.
Alors qu’au moment de la migration PPC vers x86, Intel proposait des CPUs qui tenaient largement la route pour le besoin de performance haut-de-gamme.
Bref, je vois bien Apple commencer à vendre des macs mini ou des laptops requérant de faible puissance avec ses processeurs ARM, et basculer les gammes requérant plus de performances au fur et à mesure des années, de manière beaucoup plus lissée et plus étendue dans le temps qu’à l’époque de la migration PPC vers x86.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Mise en page
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal Transition ARM : Apple assistera certains projet open source . Évalué à 3.
Peut-être que ça coupe en fonction du nombre de mots indépendamment des sauts de lignes…
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Destruction de l’information RGB avec un canal alpha nul (transparence complète)
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche GIMP 2.10.20 : à votre santé !. Évalué à 7.
Autrement, bravo à l’équipe pour cette nouvelle version et merci pour le travail accompli, la fidélité tout ça. Et pour la dépêche ! 👍
ce commentaire est sous licence cc by 4 et précédentes
# Destruction de l’information RGB avec un canal alpha nul (transparence complète)
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse à la dépêche GIMP 2.10.20 : à votre santé !. Évalué à 10. Dernière modification le 22 juin 2020 à 01:36.
Où se trouve l’option, dans la fenêtre d’export ? Il me semble en effet impératif que la valeur de cette option soit très facilement basculable à l’export.
J’ai un avis mitigé sur le fait que ce comportement soit activé par défaut. Je comprends parfaitement la problématique de fuites de données.
Je me souviens d’une étude dont la source de donnée avait été publiée sous forme de google doc, et tous les noms des milliers de personnes sondées avaient été « anonymisées » avec une couleur de fond noir et une couleur de texte noir, une simple sélection ou un simple copier-coller dans un bloc note révélait les noms des sondés… 🤦
De l’autre, il existe de réelles situations où il peut y avoir des données RGB à conserver dans un pixel avec un canal alpha complètement transparent.
1. Cas rencontré de données RGB à ne pas détruire (canal alpha erroné)
Par exemple avec le projet Unvanquished, j’ai rencontré avec de vieilles cartes de Tremulous une skybox qui apparaissait comme entièrement transparente dans les miniatures de l’explorateur de fichier nautilus ou dans un éditeur d’image, mais apparaissait comme correctement opaque et coloré dans le jeu. Les faces de la skybox était des images en TGA, mais la conversion en PNG conservait le comportement étonnant. J’avais découvert que tout simplement le canal alpha était à zéro mais que le rendu de skybox dans le jeu n’utilise pas le canal alpha (ce qui fait sens puisqu’il s’agit de couvrir le « vide » du fond de l’écran et qu’il n’y a par définition derrière la skybox que du vide, donc des valeurs indéterminées. Le canal alpha était donc simplement une donnée inutile qui ne codaient rien.
Un utilisateur qui convertirait naïvement les textures en ouvrant le TGA dans GIMP et exporterait en PNG détruirait les données.
La bonne chose à faire pour celui qui manipule de telles images serait de supprimer le canal alpha erroné, mais il est dangereux de supprimer les données en faisant une simple conversion de format, ce qui peut arriver avant que l’utilisateur ne découvre que le canal alpha est erroné.
Dans mon cas je me suis rendu compte du problème bien après avoir converti les images en PNG.
2. Données stockées dans des canaux RGBA qui ne sont pas vraiment des images (le canal alpha ne code pas la transparence)
Les images au format PNG et autres formats ne servent pas nécessairement à stocker les couleurs et la transparence d’un objet sur lequel la texture est appliquée. Il est courant par exemple de stocker les coordonnées XYZ d’une carte normale dans les canaux RGB, et l’élévation d’un champs de hauteur dans le canal Alpha.
Il est par exemple tout à fait légitime de stocker une carte normale plate avec une hauteur nulle (une profondeur maximale). Avec des valeurs dans l’ensemble
[0.0, 1.0]
, une carte normale plate est codée comme(0.0, 0.0, 0.5)
et une profondeur maximale est codée[0.0]
. Dans le cas d’un fichier PNG stockant une carte normale et un champ de hauteur, dans le cas d’un canal alpha entièrement nulle, la destruction des canaux RGB doit produire des pixels de(0.0, 0.0, 0.5)
, pas de(0.0, 0.0, 0.0)
. Cet exemple de carte normale plate avec une profondeur maximale ne ressemble pas vraiment à un cas réel, mais c’est l’exemple le plus simple à décrire pour aborder le sujet. De réels cas avec tout un panachage de valeurs et quelques pixels avec un canal alpha à zéro est tout à fait réaliste.Aussi, il existe des tas d’autres combinaisons de stockage de textures dans les canaux. Par exemple le moteur Unity recommande une valeur « smoothness » dans les canaux alpha des textures spéculaires ou métalliques. Dans ces cas on ne peut pas se baser sur la valeur du canal alpha d’un pixel pour détruire les données des autres canaux.
De manière générale, c’est une très mauvaise idée de détruire les données RGB en se basant sur le canal alpha pour tout ce qui ne code pas la couleur et la transparence d’une texture.
Il est tout à fait légitime de manipuler et d’éditer de telles « images » dans un éditeur comme GIMP.
Pour référence, l’outil d’optimisation de compression PNG oxipng propose l’option
--alpha
pour détruire les canaux RGB invisibles en cas de transparence complète pour gagner de la place, mais cette option n’est pas active par défaut, et heureusement ! Il est tout à fait possible de coder du « noir » (0, transparence complète) dans un canal alpha pour coder autre chose que de la transparence.3. Il est possible de coder de la transparence mais de la faire varier ensuite
Il est tout à fait rationnel d’imaginer un logiciel (comme un jeu), qui lirait des composants RGB dans les composants RGB et un canal alpha dans le canal alpha, mais se garderait le droit de modifier le canal alpha pour réaliser certains effets. Par exemple on peut imaginer une image qui doit être pleinement transparente tant qu’aucun effet n’est utilisé, il ferait donc sens de mettre un canal alpha entièrement transparent dans ce cas, car ce serait la valeur par défaut. Il est impératif dans ce genre de situation que le canal RGB ne soit pas détruit.
4. Cas spécifiques de codage exotique
Il y a aussi le cas particulier où les canaux RGB ne sont pas stockés dans les canaux RGB pour produire une compression plus efficace avec des formats qui n’ont pas le même algorithme de compression selon les canaux (ce qui est vrai de PNG en fait) ou qui n’ont pas le même nombre de bit pour coder chaque composant, et dans certains cas, il est courant dans l’industrie de stocker les canaux RGB dans une autre disposition de canaux arbitraires. Par exemple il est courant pour une carte normale (qui n’aurait pas de donnée d’élévation dans le canal alpha) de ne pas stocker les coordonnées XYZ dans RGB mais X dans A, Y dans G, et de reconstruire Z par un calcul. Pour être honnête je mets ce cas en dernier parce que je doute beaucoup que des utilisateurs rencontrent ce problème avec GIMP.
En général ce genre d’optimisation se fait avec des format d’images spécifiques (DDS, CRN…), mais comme le PNG ne stocke pas le canal Alpha de la même manière que les canaux RGB, il n’est pas absurde de penser que des hacks de ce type puissent être utilisé avec le PNG. Il n’est pas absurde que des gens utilisent le format PNG comme format intermédiaire, même si je pense sincèrement qu’à peu près tout le monde utilise des outils qui échangent les canaux au moment de convertir un format comme le PNG vers le format final, sans stocker le fichier intermédiaire pour édition. Mais je ne peux pas garantir à 100% que ça n’arrive jamais nulle part.
Question probabilité que ces cas ce produisent, les cas 3. et 4. relèvent plus de l’expérience de pensée, j’ai déjà rencontré le cas 1. pour de vrai même si je reconnais que c’est exceptionnel, et pour le cas 2. ça peut concerner des milliers d’artistes et développeurs.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: putaclic BFM ? Ah non là c’est France Inter
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au lien Temps de travail, 110 sur l'autoroute, "écocide": 10 propositions marquantes de la Convention climat. Évalué à 3.
Il y a 150 propositions, titrer « dix propositions » c’est déjà annoncer une sélection en fonction de critères subjectifs.
ce commentaire est sous licence cc by 4 et précédentes
# putaclic BFM ? Ah non là c’est France Inter
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au lien Temps de travail, 110 sur l'autoroute, "écocide": 10 propositions marquantes de la Convention climat. Évalué à 5.
Merci France Inter pour l’emploi inutile de « marquante », à ranger avec les adjectifs comme « puissant » (comme dans « un film puissant sur […] »). C’est insupportable, ça n’apporte rien au sens du titre, juste à ajouter une emphase gratuite dénuée de sens, c’est pire que rien. En fait le problème c’est que ce genre d’adjectif suppose une impression que le lecteur devrait partager, ou plutôt, dirige l’impression que doit avoir le lecteur. Il ne s’agit même plus de diriger l’opinion, mais à diriger l’impression. France Inter, votre dealer d’émotion.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Bruit
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal Silence ! Contrôler le bruit des ventilos du portable. Évalué à 4.
À moins d’être un boîtier entièrement passif, à mon avis ce qui compte le plus c’est le circuit d’air avec les divers ventilos du boîtier.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Bruit
Posté par Thomas Debesse (site web personnel, Mastodon) . En réponse au journal Silence ! Contrôler le bruit des ventilos du portable. Évalué à 4. Dernière modification le 17 juin 2020 à 18:51.
Oui, le design que tu montres est certainement le plus efficace en terme de circulation d’air, avec un chemin assez contraint ! Par contre ce n’est probablement pas le plus discret question son: un seul petit ventilateur qui doit turbiner très vite !
Avec ce genre de conception, même s’il y a une ouverture à l’arrière, je ne vois rien qui empêche 90% de l’air de retourner immédiatement dans le boîtier :
Cependant, j’ai eu cette carte (Radeon HD 7970), et elle était inaudible en dehors de fortes charges.
Avec ce genre de conception cependant (Radeon HD 3650 a priori), là c’est certain, l’intégralité de l’air chaud revient dans le boîtier, il y a bien une direction de l’air vers l’arrière, mais la sortie d’air est dans le boîtier :
Et là c’est sûr, c’est juste pour faire pression localement, charge au boîtier de renouveler l’air :
Beaucoup de ventilateurs de CPU sont comme ça par ailleurs…
ce commentaire est sous licence cc by 4 et précédentes