Pour avoir une femme belge, je connais la situation locale, ne t'en fais pas.
En tout cas je ne suis pas convaincu que ton observation évalue la notion de nation. Dans n'importe quel pays tu as des différences culturelles plus ou moins prononcées sans remettre en question une nation "unique" comme aux États-Unis par exemple (où la culture texane n'a pas grand chose à voir avec la culture californienne). Même la France qui est un pays assez homogène culturellement a des variations Nord / Sud, campagnard / citadin, etc. N'ose pas dire qu'un corse et un breton c'est pareil (même si c'est français). :D
Cependant la situation n'est pas simple à décrire car la notion même de nation est ambigüe ou complexe. Donc si il y a clairement une limite géographique Flandre / Wallonie, ils sont tous de nationalité belges et partagent beaucoup ensemble malgré la complexité locale.
La question de savoir si la Belgique est constituée d'une ou plusieurs nations est globalement un gros troll assez difficile à trancher.
Le fait est que la Wallonie n'est pas française, la Flandre n'est pas néerlandaise et pourtant les deux utilisent une langue qui a été façonné en France ou aux Pays-Bas à l'origine (bien qu'ils aient leurs propres variations locales).
Ce qui invalide le raisonnement concernant l'association langue-nation-peuple.
Bref, ~10 % de la population (bien différent des chiffres avancés pour les intentions de vote sondées parmi les forces de l’ordre).
Oui enfin quand 6.8 millions font 10% de la population, c'est que tu inclus les bébés, enfants et personnes inaptes à voter. Forcément tu baisses artificiellement la popularité du FN ainsi en comptant ceux qui ne peuvent s'exprimer.
Puis parmi les absentéistes, d'après les études des sondages, la proportion des préférences est similaire dans cette population avec la population des votants. Ne pas tenir compte de cela rabaisse également artificiellement la popularité du FN…
Toute langue est attachée à un peuple, une nation, et c'est très bien comme ça car la diversité nationale
Tu vas dire ça aux pays qui ont plusieurs langues comme la Belgique ou la Suisse, ou même aux pays qui utilisent une langue façonnée par un autre État comme le français qui est utilisée ailleurs qu'en France.
C'est tellement vrai qu'on nous apprend dans nos cours à l'école "C'est l'exception qui confirme la règle"
Ce qui d'ailleurs est souvent mal exploitée.
Car l'expression en question ne signifie absolument pas ce que les professeurs veulent transmettre. En effet, l'exception qui confirme la règle est plutôt mise en évidence dans une phrase comme :
"Fermé le dimanche", dont l'exception permet de déduire la règle "Ouvert tous les jours du lundi au samedi". Ce qui n'a pas grand chose à voir avec les verbes irréguliers ou constructions grammaticales bizarres dont la connaissance de l'exception ne permet de pas de déduire la règle.
Il y en a quelques unes malgré tout, même si après tout est discutable.
Le droit européen et français privilégient la défense du consommateur par rapport aux entreprises dans l'ensemble.
Pratiquer des tarifs différents selon le moyen de paiement peut être source de discrimination en pénalisant certains consommateurs qui n'ont pas le choix du moyen de paiement (notamment pour les étrangers, France tourisme tout ça) mais aussi en facilitant la possibilité de duper le consommateur. N'oublions pas que sauf erreur évidente manifeste (genre l'iPhone étiqueté à 10€), le prix affiché sur le produit ou son rayon font foi. Avoir une valeur fixe et identique est donc essentiel.
Sans oublier que notre pays souhaite favoriser l'adoption des paiements par carte bancaires car technologie locale, facilite les transactions et est traçable. On pourrait dire que c'est aussi du au lobbying, potentiellement. Mais le fait est là, si on souhaite favoriser la CB par rapport au liquide par exemple, il faut faire ça.
Ne prends pas les programmeurs pour des billes non plus. La plupart du temps le SVG des icônes d'interface est utilisé comme référence mais ce qui est affiché est un bête PNG généré par le cache logiciel dont il suffit de vérifier que les dimensions changent à nouveau pour réutiliser le SVG…
Le VHDL n'est pas un langage de programmation, mais un langage qui permet de decrire un circuit numérique. ensuite ce circuit numérique peut être un processeur sur lequel tournera un programme, mais pas forcément.
Et alors ?
Cela restera un programme, un système qui aura des entrées et sorties, probablement numériques avec du traitement numérique dedans. Que ce soit exploité sous forme de jeu d'instruction d'un processeur ou d'un câblage en dur des portes logiques revient en soit au même.
Un algorithme reste un algorithme, un logiciel c'est de l'algorithmie et faire du FPGA ou de la conception de puces numériques également. Même si en général l'exécution de cet algorithme va différer niveau support, d'un point de vue mathématiques et logiques c'est la même chose.
Les FPGA sont effectivement limités en performances (nombre de portes) et ca n'a rien à voir avec la complexité du programme qu'on peut ensuite faire tourner dessus.
Bah si, comme la surface et le nombre de portes sont limités, tu ne pourras pas tout faire avec en même temps sans changer on architecture interne (dans le sens câblage produit par la synthèse) contrairement à un processeur qui reste fixe et dont seulement les commandes logicielles changent.
Sinon quel serait l'intérêt des FPGAs avec une grande surface et de nombreuses portes ?
Soit vous achetez une salle blanche et ca sera un (deux ?) milliard d'euros, soit vous demandez a un fondeur de vous le fabriquer, mais le ticket d'entrée ce chiffre en millions d'euros, donc faut être sur d'en vendre beaucoup.
Ça c'est une autre question, essentielle mais qui n'a pas grand chose à voir avec ce dont je parle.
Pour produire un circuit, on ne compile pas le VHDL on fait une synthèse, ca n'a rien à voir avec compiler un code.
En soit si, tout est identique sauf le support final (l'un est purement matérielle, faut le construire, l'autre faut juste le copier sur un support numérique et le lancer). Cela change beaucoup de choses sur le coûts, la complexité du développement, etc. Mais d'un point de vue purement logique, mathématique ou algorithmie, le matériel et le logiciel sont strictement équivalents question fonctionnel. Tu ne peux pas concevoir un matériel que le logiciel ne peut pas reproduire et inversement.
Tout à fait, le matériel, du moins les puces logiques, sont programmés en VHDL ou Verilog pour l'essentiel. Car d'un point de vue mathématiques il y a stricte équivalence entre un logiciel ou du matériel (numérique du moins).
La question de savoir ce qui est mis en matériel ou logiciels vient :
Des coûts : le matériel est difficile à mettre à jour, à corriger et coûte plus chère qu'un code logiciel équivalent à produire ;
Des performances : une implémentation matérielle directe est plus rapide ;
Les tests : tester du matériel reste très difficile et coûteux, il n'est pas rare d'avoir recours au logiciel lui même pour faire cela.
Ceci est d'autant plus visible avec les FPGA qui sont du matériel configurables à souhait. Et tout ceci est obtenu via du VHDL également.
Seulement les FPGA ont des limitations :
La surface étant réduite, il est impossible à implémenter n'importe quel programme ;
Comme il y a beaucoup de contraintes, notamment au niveau des timings, le logiciel met trois plombe à compiler et s'installer ;
Les moyens de tests physiques sont rudimentaires également, l'essentiel est fait par simulation uniquement ;
On peut aussi noter les outils de développement, pour l'essentiel chers, propriétaires et assez lourds (travailler sur FPGA de haut niveau avec une machine qui n'a pas 16 Gio de RAM est plutôt risqué).
Mais pour certaines fonctionnalités, le gain de performance est intéressant, et plus flexible que ce que propose le matériel (par exemple concernant le traitement vidéo).
Boarf ne t'inquiète pas, GPL ou pas le soucis existe.
Quantité de fabricants de téléphones ou de puces font des pilotes / sous-systèmes pour Linux. Ils distribuent le code dans un dépôt mais le code est tellement mal fait que tu peux bosser longtemps avant de le pousser upstream. Et du coup très souvent ils se focalisent sur une version du noyau, celui qui sera utilisé pour les téléphones, et basta.
Donc cela confirme la volonté de complexifier une langue qui est déjà considérée comme complexe à bien des égards. Ce qui posent pas mal de soucis pour :
Les élèves qui doivent l'apprendre, ce qui nécessite du temps et de l'énergie ;
Mais aussi les étrangers, qui souhaitent s'installer dans un pays francophone ou pas à terme.
Personnellement je suis en faveur de règles pour simplifier la langue, que ce soit sa prononciation, son écriture ou sa construction grammaticale ce qui est en phase d'ailleurs avec les réformes de l'orthographe. Typiquement la règle de proximité est séduisante pour cet aspect même si tu la juges sans doute insuffisante.
Puis la discussion oublie tout un pan de la langue : l'oral qui est pourtant fondamental si l'on souhaite la généralisation.
Comment se prononcent les mots écrits ainsi ? Comme se prononcent les nouveaux prononces qui cumulent les voyelles ? D'ailleurs, le lien que tu pointes montrent qu’il n'y a pas de prononciation associée…
Et même s'il y a moyen de prononcer cela, ça me paraît bien plus compliqué encore que les problèmes soulevés pour la lecture.
Les avantages par rapport au papier, il en existe en effet des dizaines. Celui qui me convainc le plus est d’éviter de continuer la déforestation de la planète pour des livres qui finiront par prendre la poussière dans des bibliothèques.
Beaucoup de livres utilisent du bois gérés convenablement tu sais comme en Europe. La déforestation est plutôt effectuée pour récupérer du bois "précieux" pour les meubles ou pour l'agriculture (et les forêts concernés sont souvent brûlés).
Le livre est justement un très bon puits carbone. :)
et le rythme de sorti est imposé par le calendrier et non les fonctionnalités.
Non, le nombre de rc du noyau dépend du temps jugé nécessaire à stabiliser les ajouts effectués durant la fenêtre de merge. Ce n'est pas jugé au calendrier (Torvalds n'annonce pas au début d'un cycle que la sortie doit se faire à une date précise dans le futur), même si globalement le nombre de rc est presque prévisible.
Mouais, le noyau n'est pas vraiment à date fixe, c'est plutôt un mix des deux approches.
Le noyau a une période de 2 semaines en début de cycle pour accepter toutes les modifications pertinentes et à priori plutôt testées. Ensuite on entre dans une période de 6 à 8 semaines de stabilisation des changements acceptés au début. Il est plutôt rare qu'un changement accepté en début de cycle soit viré avant la fin. Car il faut une certaine maturité de ce travail pour entrer dans ce processus ce qui évitent d'y ajouter des trucs à moitié finie.
Mais cela n'est possible que parce qu'il y a énormément de développeurs noyau qui maintiennent des branches de développement dédiés (au réseau, à la mémoire, à certains pilotes, etc.) pour faire un premier tri et améliorer le résultat avant de ne proposer à la branche officielle que les travaux déjà validés.
Qu'est-ce qu'il n'a pas écrit ? Il a employé le mot "users" qui peut désigner à la fois des utilisateurs et des utilisatrices. C'est une information qui se perd dans le Français académique (« utilisateurs » introduisant l'éventualité qu'il n'y ait pas d'utilisatrices), et que j'ai retranscrit fidèlement.
Faut je pense être assez atteint pour voir, dans un contexte générique que "utilisateurs" puissent éventuellement exclure les femmes du lot. Il semble assez évident ici que cela inclut tout le monde. Je ne sais pas dans quel monde / univers tu vis, mais le français utilisé par tout le monde (ou presque) est suffisamment explicite là dessus et tout le monde considérera la phrase ainsi.
Tu es en retard, Gnome Logiciels a propulsé la gestion du fichier appdata qui comporte la description du programme et la traduction associée de celle-ci. Et comme cela est fait dans l'arbre des sources du logiciel empaqueté lui même, c'est exploitable par tous.
Mais c'est assez récent et beaucoup de programmes ne proposent pas un tel fichier traduit.
On oublie la nécessité d'avoir le support de normes pour périphériques loin d'être triviaux et légers comme l'USB, le réseau, HDMI ou SATA…
On oublie la gestion de l'énergie, du plug and play, d'une pile de matérielle longue comme le bras, des langues (les traductions ça pèse), d'une meilleure intégration de tout ceci…
Ce qui est gourmand aujourd'hui, entre autre, c'est le multimédia et les IHM. Les fichiers sont de plus en plus lourds pour être de meilleure qualité (images, sons et vidéos) ce qui permet dans la foulée de concevoir des interfaces graphiques plus belles, plus riches et plus simples.
Et le Web a besoin de pas mal de ressources, certaines sites n'ayant pas grand chose à envier de certaines applications locales.
Un informaticien qui ne comprend pas l'anglais écrit c'est un peu comme le boulanger qui achète du pain congeler à cuire.
Déjà, je ne suis pas d'accord avec le principe que quelqu'un qui lit de la littérature informatique est forcément un informaticien.
Certains font de l'informatique en tant que passion, d'autres pour se cultiver, d'autres en lien avec un autre métier dont l'informatique n'est qu'un outil et non un but, etc.
On ne peut pas vouloir que l'informatique se démocratise dans l'usage, dans la compréhension par la population si on a une position élitiste de considérer que toute littérature informatique nécessite l'apprentissage préalable de l'anglais.
Apprendre l'anglais, ou toute langue, correctement demande du temps. Beaucoup de temps. Si cette barrière est présente dès le début, tu vas décourager plus d'un de s'intéresser au sujet sérieusement. Je précise que certains, comme moi, ont appris l'informatique chez eux avant d'avoir un anglais suffisant pour lire un bouquin en anglais sur le sujet.
L'anglais devient à un certain moment indispensable d'un point de vue professionnelle, mais cela peut venir après avoir commencé dans l'informatique et non forcément avant. Et c'est bien qu'un effort soit fait pour ne pas laisser ces individus sur le carreau.
Après, même pour un informaticien professionnel, quelque soit son niveau d'anglais, sera plus à l'aise pour lire ou écrire du contenu dans sa langue natale. Si j'arrive sans soucis à lire un gros bouquin technique, il me demandera plus d'attention et d'énergie en anglais qu'en français. C'est donc plus confortable.
Par ailleurs, de l'intérêt même d'avoir du contenu dans sa propre langue est incarnée par notre présence sur ce site : à quoi servirait linuxfr.org si on part du principe que si on est mauvais en anglais on ne peut pas parler d'informatique ? Si les communautés francophones existent, ce n'est pas pour rien, c'est parce que cela a un intérêt.
En tout cas, je suis bien content d'avoir pu apprendre des choses pointues en informatique dans ma langue à une époque où mon niveau d'anglais était médiocre. Et je suis bien content que des domaines où je ne suis qu'un amateur (comme en physique), je puisse lire également des livres pointues dans ma langue car je ne maitrise pas du tout le vocabulaire du domaine en anglais.
n'aime pas l'anglais et tape "faire requete sql update avec jointure" dans un moteur de recherche
ne sait pas taper sur ton clavier sans le regarder
ne sait toujours pas qu'en double-cliquant sur un mot ça le sélectionne et à chaque fois tu mets 15 jours avant de faire une bonne sélection
Je ne pense pas que les ressources françaises en informatique de haut niveau s'épuisent.
Go, Rust et Vulkan sont par exemple assez récents et avec beaucoup d'évolutions durant leurs débuts. Il faut savoir que de maintenir une documentation à jour nécessite beaucoup de travail et sa traduction également. Les équipes de traduction ne peuvent pas se permettre de perdre leurs temps avec des ressources qui vont beaucoup changer ou des technologies pas encore très répandues.
Typiquement O'Reilly en français proposait essentiellement des livres portant sur des technologies plutôt matures dont la lecture plusieurs années après restait pertinente. Chose qui est douteux pour Rust jusqu'à peu par exemple.
O'Reilly a également subi la concurrence d'Internet / du Web pour l'apprentissage même de qualité alors qu'il pouvait être à une époque incontournable dans les universités / écoles d'ingés voire pour les autodidactes et professionnels. Les ventes n'ont pas suivi par effet de bord.
Il faut se rendre compte qu'après la traduction dans le milieu informatique ou du libre reste l’apanage de quelques acteurs par langue seulement. La doc, les sites et outils autours de Fedora c'est à peu près 3-5 bénévoles d'actifs au maximum. Les pages manuels du système sont l’œuvre en général de 2-3 personnes également, etc. C'est peu, bien moins nombreux que ceux qui produisent ces logiciels ou ressources en anglais.
Mais cela a toujours été plus ou moins ainsi. ET le soucis des petites équipes c'est qu'elle limite la possibilité de traduire de gros ouvrages sans financement. Surtout que cela bouge vite (beaucoup de logiciels et documentations nécessitent plusieurs heures par semestre). AU bout d'un moment il faut faire des choix, et ce qui est peu populaire ou trop mouvant peuvent passer à la trappe.
A l'époque il n'y avait pas de mises à jour gratuite on installait un service pack qui n'était pas toujours payant mais qui ne touchait pas à ton bootloader. Mais ils apportaient des conflits entre les pilotes ce qui poussait les utilisateur a réinstaller.
Les mises à jour de Windows ont toujours été gratuites, dont les Service Pack.
Ce sont les mises à niveau (changement de version majeure) de Windows qui sont payants sauf pendant un an pour passer à Windows 10.
Note que pour avoir eu des dual-boot pendant très longtemps, dont la migration sous W10, jamais le chargeur de démarrage a été écrasé ou modifié par Windows lui même.
Windows a la fâcheuse tendance à écraser des partitions avec le partitionnement par défaut lors d'une installation neuve, mais une fois en place il ne touche pas à ton GRUB.
On en reparlera car ma grand mère (qui justement est Alsacienne) vient de m'appeler pour un dépannage de Windows8.1 qui ne démarre plus après la mise a jour. J'en ai pour au moins 20 minutes avec le métro.
J'ai vraiment l'impression que tu brasses pas mal de vent en manipulant des concepts qui te dépassent et dont tu fais volontiers un gros mixage de l'ensemble.
Oui une mise à niveau de Windows peut boguer ou peut avoir des pilotes incompatibles donnant des problèmes comme tout système informatique.
Cependant Windows ne détruit pas tes partitions Linux ou ton GRUB durant ce genre d'opérations. Par contre Windows peut ne plus être fonctionnel sans intervention, mais cela n'a pas grand chose à voir avec les discussion, et encore moins avec l'UEFI.
Ce n'est pas le genre de Microsoft de se comporter comme un outsider et d'abandonner ses projets qu'ils soient bon ou mauvais mais ils l'ont peut-être fait avec humilité pour Palladium…
Je pense que tu dois arrêter la drogue assez rapidement.
Microsoft n'est pas une entreprise surpuissante, malgré son cash disponible et sa philosophie et son historique, Microsoft sait abandonner une technologie quand elle n'a pas de sens commercialement.
Après tout, ils ont bien fait OS/2 et Windows en parallèle avant d'abandonner OS/2 quand ils ont senti que Windows réussirait. Ils ont abandonné aussi le projet de refaire Internet avec le réseau MSN (qui n'a pas grand chose à voir technologiquement avec Hotmail et le réseau de messagerie instantanée aujourd'hui abandonnée également, malgré le nom).
Ils ont abandonné IE pour Mac OS quand l'obligation légale est tombée (de l'accord Apple/Microsoft de 1997).
Sans oublier l'interface de Windows qui devait ressembler à un vrai bureau et dont les seuls survivants sont Comic Sans MS et le chien dans Windows XP.
Etc.
Bref, Palladium a été abandonné en tant que tel, et Secure Boot n'a pas grand chose à voir technologiquement avec cela. C'est un mécanisme de sécurité, le lien s'arrête là.
UEFI est un standard et cela implique la vente liée qui fait augmenter le prix des machines et les compétences requises pour l'administration des machines ce qui n'est pas mentionné lors de l'achat d'où cette critique.
Mais qu'est-ce que tu racontes ?
En quoi l'UEFI fait monter le prix des machines ? En quoi on devrait arrêter de produire des normes si cela nécessite un apprentissage pour les développeurs ? Heureusement qu'on n'est pas limité au BIOS, HTML 1.0, au langage C voire assembleur, etc.
L'UEFI est un net progrès par rapport au BIOS que tu chéries tant. Le BIOS a énormément de contraintes historiques totalement chiantes à gérer (je pense entre autre au partitionnement limité), en plus d'être assez chiant à réaliser et configurer car ne pouvant exploiter pleinement les périphériques de l'ordinateur.
En plus l'UEFI a été pensé pour être utilisé par différentes architectures et pas seulement x86, quand ARM voire les autres s'y conformeront, le gain sera énorme pour les développeurs bas niveaux dont des chargeurs de démarrage et du noyau car énormément de choses pourront être factorisées entre ces plateformes.
Oui l'UEFI nécessite un apprentissage, comme tout métier tu dois maintenir une veille de ton domaine si tu veux être performant et efficace. Après peu de personnes ont besoin réellement d'une formation complète sur l'UEFI qui concerne finalement assez peu les gens qui ne font pas du développement bas niveau. Et pour ces gens là, c'est un progrès colossale.
Note que ce que tu cites est vrai mais plutôt récent, les difficultés de portages étaient fortement d'actualité même sans ces histoires de signatures.
Avoir un chargeur de démarrage libre / non contraignant donnerait une belle possibilité mais qui reste complexe à exploiter pour avoir un OS générique quelque soit le modèle de téléphone comme on peut l'avoir sur nos ordinateurs.
Le soucis vient principalement de l'architecture ARM qui n'a pas pour le moment de mécanismes de découverte du matériel comme sur x86 (nos ordinateurs). Du coup il te faut forcément, en dur quelque part dans le noyau, le listing qui va bien pour fonctionner.
Le noyau Linux vient à peine, récemment, d'avoir la possibilité de compiler ces listings ensemble dans une seule image pour démarrer sur plusieurs périphériques ARM différents. Mais cela n'est pas suffisant.
Car déjà, pour que le portage soit réussi, tout doit fonctionner. Un téléphone est un appareil autonome avec beaucoup plus de connectiques et d’interactions qu'un ordinateur. Avec la puce GSM qui ne fonctionne pas, le Wifi ou le tactile, c'est mort. Et ces composants sont peu standardisés par rapport aux claviers / souris de nos machines. C'est donc beaucoup plus sensible.
Puis la majeure partie des téléphones du commerce ont besoin de pilotes propriétaires ou publics mais pas inclus dans les sources du noyau officiel (car le patch est trop gros ou trop sale). Du coup très souvent tu dois utiliser un noyau très précis pour exploiter correctement le matériel sous-jacent, souvent du Linux 3.4 pour les appareils Android.
Sinon tu dois te contenter des rares téléphones bien supportés par le noyau officiel, ou d'un téléphone pas totalement fonctionnel ce qui est plutôt handicapant.
Le problème ne vient donc pas réellement du noyau Linux et de l'écosystème du libre qui sont techniquement efficaces pour cela mais plutôt des limitations de l'architecture ARM d'une part, mais aussi de la politique et de la culture d'entreprise des constructeurs de téléphones ou de composants qui font peu d'efforts pour mettre à disposition leurs travaux dans la branche officielle du noyau.
[^] # Re: Facile ? Neutre ?
Posté par Renault (site web personnel) . En réponse à la dépêche État de l’espéranto sous GNU/Linux. Évalué à 1.
Pour avoir une femme belge, je connais la situation locale, ne t'en fais pas.
En tout cas je ne suis pas convaincu que ton observation évalue la notion de nation. Dans n'importe quel pays tu as des différences culturelles plus ou moins prononcées sans remettre en question une nation "unique" comme aux États-Unis par exemple (où la culture texane n'a pas grand chose à voir avec la culture californienne). Même la France qui est un pays assez homogène culturellement a des variations Nord / Sud, campagnard / citadin, etc. N'ose pas dire qu'un corse et un breton c'est pareil (même si c'est français). :D
Cependant la situation n'est pas simple à décrire car la notion même de nation est ambigüe ou complexe. Donc si il y a clairement une limite géographique Flandre / Wallonie, ils sont tous de nationalité belges et partagent beaucoup ensemble malgré la complexité locale.
[^] # Re: Facile ? Neutre ?
Posté par Renault (site web personnel) . En réponse à la dépêche État de l’espéranto sous GNU/Linux. Évalué à 3.
La question de savoir si la Belgique est constituée d'une ou plusieurs nations est globalement un gros troll assez difficile à trancher.
Le fait est que la Wallonie n'est pas française, la Flandre n'est pas néerlandaise et pourtant les deux utilisent une langue qui a été façonné en France ou aux Pays-Bas à l'origine (bien qu'ils aient leurs propres variations locales).
Ce qui invalide le raisonnement concernant l'association langue-nation-peuple.
[^] # Re: Problème de logique
Posté par Renault (site web personnel) . En réponse au journal Tout le monde déteste les flics !. Évalué à 4.
Oui enfin quand 6.8 millions font 10% de la population, c'est que tu inclus les bébés, enfants et personnes inaptes à voter. Forcément tu baisses artificiellement la popularité du FN ainsi en comptant ceux qui ne peuvent s'exprimer.
Puis parmi les absentéistes, d'après les études des sondages, la proportion des préférences est similaire dans cette population avec la population des votants. Ne pas tenir compte de cela rabaisse également artificiellement la popularité du FN…
[^] # Re: Facile ? Neutre ?
Posté par Renault (site web personnel) . En réponse à la dépêche État de l’espéranto sous GNU/Linux. Évalué à 10.
Tu vas dire ça aux pays qui ont plusieurs langues comme la Belgique ou la Suisse, ou même aux pays qui utilisent une langue façonnée par un autre État comme le français qui est utilisée ailleurs qu'en France.
[^] # Re: Les CGU c'est une chose...
Posté par Renault (site web personnel) . En réponse au journal Paypal en a marre que l’on dise que c’est nul. Évalué à 5.
Oui et non.
Des directives et règlements peuvent s'appliquer à tout État de l'UE sans transcription dans le droit national.
Cela ne concerne pas tous les textes, mais ça existe aussi. Même si une bonne partie doit passer par le Parlement également.
[^] # Re: Facile ? Neutre ?
Posté par Renault (site web personnel) . En réponse à la dépêche État de l’espéranto sous GNU/Linux. Évalué à 5.
Ce qui d'ailleurs est souvent mal exploitée.
Car l'expression en question ne signifie absolument pas ce que les professeurs veulent transmettre. En effet, l'exception qui confirme la règle est plutôt mise en évidence dans une phrase comme :
"Fermé le dimanche", dont l'exception permet de déduire la règle "Ouvert tous les jours du lundi au samedi". Ce qui n'a pas grand chose à voir avec les verbes irréguliers ou constructions grammaticales bizarres dont la connaissance de l'exception ne permet de pas de déduire la règle.
[^] # Re: Coût
Posté par Renault (site web personnel) . En réponse au journal Paypal en a marre que l’on dise que c’est nul. Évalué à 2.
Il y en a quelques unes malgré tout, même si après tout est discutable.
Le droit européen et français privilégient la défense du consommateur par rapport aux entreprises dans l'ensemble.
Pratiquer des tarifs différents selon le moyen de paiement peut être source de discrimination en pénalisant certains consommateurs qui n'ont pas le choix du moyen de paiement (notamment pour les étrangers, France tourisme tout ça) mais aussi en facilitant la possibilité de duper le consommateur. N'oublions pas que sauf erreur évidente manifeste (genre l'iPhone étiqueté à 10€), le prix affiché sur le produit ou son rayon font foi. Avoir une valeur fixe et identique est donc essentiel.
Sans oublier que notre pays souhaite favoriser l'adoption des paiements par carte bancaires car technologie locale, facilite les transactions et est traçable. On pourrait dire que c'est aussi du au lobbying, potentiellement. Mais le fait est là, si on souhaite favoriser la CB par rapport au liquide par exemple, il faut faire ça.
[^] # Re: Toutes ces années de dev
Posté par Renault (site web personnel) . En réponse à la dépêche Haiku a 15 ans. Évalué à 5. Dernière modification le 30 août 2016 à 10:21.
Ne prends pas les programmeurs pour des billes non plus. La plupart du temps le SVG des icônes d'interface est utilisé comme référence mais ce qui est affiché est un bête PNG généré par le cache logiciel dont il suffit de vérifier que les dimensions changent à nouveau pour réutiliser le SVG…
[^] # Re: Manger sa propre nourriture
Posté par Renault (site web personnel) . En réponse à la dépêche Le logiciel libre au-delà de x86. Évalué à 3.
Et alors ?
Cela restera un programme, un système qui aura des entrées et sorties, probablement numériques avec du traitement numérique dedans. Que ce soit exploité sous forme de jeu d'instruction d'un processeur ou d'un câblage en dur des portes logiques revient en soit au même.
Un algorithme reste un algorithme, un logiciel c'est de l'algorithmie et faire du FPGA ou de la conception de puces numériques également. Même si en général l'exécution de cet algorithme va différer niveau support, d'un point de vue mathématiques et logiques c'est la même chose.
Bah si, comme la surface et le nombre de portes sont limités, tu ne pourras pas tout faire avec en même temps sans changer on architecture interne (dans le sens câblage produit par la synthèse) contrairement à un processeur qui reste fixe et dont seulement les commandes logicielles changent.
Sinon quel serait l'intérêt des FPGAs avec une grande surface et de nombreuses portes ?
Ça c'est une autre question, essentielle mais qui n'a pas grand chose à voir avec ce dont je parle.
En soit si, tout est identique sauf le support final (l'un est purement matérielle, faut le construire, l'autre faut juste le copier sur un support numérique et le lancer). Cela change beaucoup de choses sur le coûts, la complexité du développement, etc. Mais d'un point de vue purement logique, mathématique ou algorithmie, le matériel et le logiciel sont strictement équivalents question fonctionnel. Tu ne peux pas concevoir un matériel que le logiciel ne peut pas reproduire et inversement.
[^] # Re: Manger sa propre nourriture
Posté par Renault (site web personnel) . En réponse à la dépêche Le logiciel libre au-delà de x86. Évalué à 9.
Tout à fait, le matériel, du moins les puces logiques, sont programmés en VHDL ou Verilog pour l'essentiel. Car d'un point de vue mathématiques il y a stricte équivalence entre un logiciel ou du matériel (numérique du moins).
La question de savoir ce qui est mis en matériel ou logiciels vient :
Ceci est d'autant plus visible avec les FPGA qui sont du matériel configurables à souhait. Et tout ceci est obtenu via du VHDL également.
Seulement les FPGA ont des limitations :
Mais pour certaines fonctionnalités, le gain de performance est intéressant, et plus flexible que ce que propose le matériel (par exemple concernant le traitement vidéo).
[^] # Re: Pas logique ou militant licence MIT
Posté par Renault (site web personnel) . En réponse au journal Faut-il défendre la GPL devant les tribunaux ?. Évalué à 3.
Boarf ne t'inquiète pas, GPL ou pas le soucis existe.
Quantité de fabricants de téléphones ou de puces font des pilotes / sous-systèmes pour Linux. Ils distribuent le code dans un dépôt mais le code est tellement mal fait que tu peux bosser longtemps avant de le pousser upstream. Et du coup très souvent ils se focalisent sur une version du noyau, celui qui sera utilisé pour les téléphones, et basta.
[^] # Re: Tiptop le sexisme
Posté par Renault (site web personnel) . En réponse à la dépêche Ouverture du site Libre Games Initiatives. Évalué à 4.
Donc cela confirme la volonté de complexifier une langue qui est déjà considérée comme complexe à bien des égards. Ce qui posent pas mal de soucis pour :
Personnellement je suis en faveur de règles pour simplifier la langue, que ce soit sa prononciation, son écriture ou sa construction grammaticale ce qui est en phase d'ailleurs avec les réformes de l'orthographe. Typiquement la règle de proximité est séduisante pour cet aspect même si tu la juges sans doute insuffisante.
[^] # Re: Tiptop le sexisme
Posté par Renault (site web personnel) . En réponse à la dépêche Ouverture du site Libre Games Initiatives. Évalué à 4.
Puis la discussion oublie tout un pan de la langue : l'oral qui est pourtant fondamental si l'on souhaite la généralisation.
Comment se prononcent les mots écrits ainsi ? Comme se prononcent les nouveaux prononces qui cumulent les voyelles ? D'ailleurs, le lien que tu pointes montrent qu’il n'y a pas de prononciation associée…
Et même s'il y a moyen de prononcer cela, ça me paraît bien plus compliqué encore que les problèmes soulevés pour la lecture.
[^] # Re: Je suis d'accord pour la plupart des arguments
Posté par Renault (site web personnel) . En réponse à la dépêche Appel de wallabag aux fabricants de liseuse. Évalué à 10.
Beaucoup de livres utilisent du bois gérés convenablement tu sais comme en Europe. La déforestation est plutôt effectuée pour récupérer du bois "précieux" pour les meubles ou pour l'agriculture (et les forêts concernés sont souvent brûlés).
Le livre est justement un très bon puits carbone. :)
[^] # Re: "mais c'est mon vice de la perfection que je paye."
Posté par Renault (site web personnel) . En réponse à la dépêche Changement de version et améliorations du Micro Music Player (mmp-2.1). Évalué à 2.
Non, le nombre de rc du noyau dépend du temps jugé nécessaire à stabiliser les ajouts effectués durant la fenêtre de merge. Ce n'est pas jugé au calendrier (Torvalds n'annonce pas au début d'un cycle que la sortie doit se faire à une date précise dans le futur), même si globalement le nombre de rc est presque prévisible.
[^] # Re: "mais c'est mon vice de la perfection que je paye."
Posté par Renault (site web personnel) . En réponse à la dépêche Changement de version et améliorations du Micro Music Player (mmp-2.1). Évalué à 3.
Mouais, le noyau n'est pas vraiment à date fixe, c'est plutôt un mix des deux approches.
Le noyau a une période de 2 semaines en début de cycle pour accepter toutes les modifications pertinentes et à priori plutôt testées. Ensuite on entre dans une période de 6 à 8 semaines de stabilisation des changements acceptés au début. Il est plutôt rare qu'un changement accepté en début de cycle soit viré avant la fin. Car il faut une certaine maturité de ce travail pour entrer dans ce processus ce qui évitent d'y ajouter des trucs à moitié finie.
Mais cela n'est possible que parce qu'il y a énormément de développeurs noyau qui maintiennent des branches de développement dédiés (au réseau, à la mémoire, à certains pilotes, etc.) pour faire un premier tri et améliorer le résultat avant de ne proposer à la branche officielle que les travaux déjà validés.
[^] # Re: Powershell et cURL - mauvaise volonté
Posté par Renault (site web personnel) . En réponse au journal PowerShell sur Linux. Évalué à 10.
Faut je pense être assez atteint pour voir, dans un contexte générique que "utilisateurs" puissent éventuellement exclure les femmes du lot. Il semble assez évident ici que cela inclut tout le monde. Je ne sais pas dans quel monde / univers tu vis, mais le français utilisé par tout le monde (ou presque) est suffisamment explicite là dessus et tout le monde considérera la phrase ainsi.
[^] # Re: Perso…
Posté par Renault (site web personnel) . En réponse au journal Effort de traduction en français, c'est moi oui il y en a de moins en moins?. Évalué à 3.
Tu es en retard, Gnome Logiciels a propulsé la gestion du fichier appdata qui comporte la description du programme et la traduction associée de celle-ci. Et comme cela est fait dans l'arbre des sources du logiciel empaqueté lui même, c'est exploitable par tous.
Mais c'est assez récent et beaucoup de programmes ne proposent pas un tel fichier traduit.
[^] # Re: Toutes ces années de dev
Posté par Renault (site web personnel) . En réponse à la dépêche Haiku a 15 ans. Évalué à 8.
On oublie la nécessité d'avoir le support de normes pour périphériques loin d'être triviaux et légers comme l'USB, le réseau, HDMI ou SATA…
On oublie la gestion de l'énergie, du plug and play, d'une pile de matérielle longue comme le bras, des langues (les traductions ça pèse), d'une meilleure intégration de tout ceci…
Ce qui est gourmand aujourd'hui, entre autre, c'est le multimédia et les IHM. Les fichiers sont de plus en plus lourds pour être de meilleure qualité (images, sons et vidéos) ce qui permet dans la foulée de concevoir des interfaces graphiques plus belles, plus riches et plus simples.
Et le Web a besoin de pas mal de ressources, certaines sites n'ayant pas grand chose à envier de certaines applications locales.
[^] # Re: Comparaison
Posté par Renault (site web personnel) . En réponse au journal Effort de traduction en français, c'est moi oui il y en a de moins en moins?. Évalué à 10.
Déjà, je ne suis pas d'accord avec le principe que quelqu'un qui lit de la littérature informatique est forcément un informaticien.
Certains font de l'informatique en tant que passion, d'autres pour se cultiver, d'autres en lien avec un autre métier dont l'informatique n'est qu'un outil et non un but, etc.
On ne peut pas vouloir que l'informatique se démocratise dans l'usage, dans la compréhension par la population si on a une position élitiste de considérer que toute littérature informatique nécessite l'apprentissage préalable de l'anglais.
Apprendre l'anglais, ou toute langue, correctement demande du temps. Beaucoup de temps. Si cette barrière est présente dès le début, tu vas décourager plus d'un de s'intéresser au sujet sérieusement. Je précise que certains, comme moi, ont appris l'informatique chez eux avant d'avoir un anglais suffisant pour lire un bouquin en anglais sur le sujet.
L'anglais devient à un certain moment indispensable d'un point de vue professionnelle, mais cela peut venir après avoir commencé dans l'informatique et non forcément avant. Et c'est bien qu'un effort soit fait pour ne pas laisser ces individus sur le carreau.
Après, même pour un informaticien professionnel, quelque soit son niveau d'anglais, sera plus à l'aise pour lire ou écrire du contenu dans sa langue natale. Si j'arrive sans soucis à lire un gros bouquin technique, il me demandera plus d'attention et d'énergie en anglais qu'en français. C'est donc plus confortable.
Par ailleurs, de l'intérêt même d'avoir du contenu dans sa propre langue est incarnée par notre présence sur ce site : à quoi servirait linuxfr.org si on part du principe que si on est mauvais en anglais on ne peut pas parler d'informatique ? Si les communautés francophones existent, ce n'est pas pour rien, c'est parce que cela a un intérêt.
En tout cas, je suis bien content d'avoir pu apprendre des choses pointues en informatique dans ma langue à une époque où mon niveau d'anglais était médiocre. Et je suis bien content que des domaines où je ne suis qu'un amateur (comme en physique), je puisse lire également des livres pointues dans ma langue car je ne maitrise pas du tout le vocabulaire du domaine en anglais.
Mouais, ces points là c'est du pur troll.
# Je pense que c'est une vue de l'esprit
Posté par Renault (site web personnel) . En réponse au journal Effort de traduction en français, c'est moi oui il y en a de moins en moins?. Évalué à 10.
Je ne pense pas que les ressources françaises en informatique de haut niveau s'épuisent.
Go, Rust et Vulkan sont par exemple assez récents et avec beaucoup d'évolutions durant leurs débuts. Il faut savoir que de maintenir une documentation à jour nécessite beaucoup de travail et sa traduction également. Les équipes de traduction ne peuvent pas se permettre de perdre leurs temps avec des ressources qui vont beaucoup changer ou des technologies pas encore très répandues.
Typiquement O'Reilly en français proposait essentiellement des livres portant sur des technologies plutôt matures dont la lecture plusieurs années après restait pertinente. Chose qui est douteux pour Rust jusqu'à peu par exemple.
O'Reilly a également subi la concurrence d'Internet / du Web pour l'apprentissage même de qualité alors qu'il pouvait être à une époque incontournable dans les universités / écoles d'ingés voire pour les autodidactes et professionnels. Les ventes n'ont pas suivi par effet de bord.
Il faut se rendre compte qu'après la traduction dans le milieu informatique ou du libre reste l’apanage de quelques acteurs par langue seulement. La doc, les sites et outils autours de Fedora c'est à peu près 3-5 bénévoles d'actifs au maximum. Les pages manuels du système sont l’œuvre en général de 2-3 personnes également, etc. C'est peu, bien moins nombreux que ceux qui produisent ces logiciels ou ressources en anglais.
Mais cela a toujours été plus ou moins ainsi. ET le soucis des petites équipes c'est qu'elle limite la possibilité de traduire de gros ouvrages sans financement. Surtout que cela bouge vite (beaucoup de logiciels et documentations nécessitent plusieurs heures par semestre). AU bout d'un moment il faut faire des choix, et ce qui est peu populaire ou trop mouvant peuvent passer à la trappe.
[^] # Re: Extensions
Posté par Renault (site web personnel) . En réponse à la dépêche Firefox 48 : API WebExtensions, Electrolysis et sécurité. Évalué à 4.
Les mises à jour de Windows ont toujours été gratuites, dont les Service Pack.
Ce sont les mises à niveau (changement de version majeure) de Windows qui sont payants sauf pendant un an pour passer à Windows 10.
Note que pour avoir eu des dual-boot pendant très longtemps, dont la migration sous W10, jamais le chargeur de démarrage a été écrasé ou modifié par Windows lui même.
Windows a la fâcheuse tendance à écraser des partitions avec le partitionnement par défaut lors d'une installation neuve, mais une fois en place il ne touche pas à ton GRUB.
J'ai vraiment l'impression que tu brasses pas mal de vent en manipulant des concepts qui te dépassent et dont tu fais volontiers un gros mixage de l'ensemble.
Oui une mise à niveau de Windows peut boguer ou peut avoir des pilotes incompatibles donnant des problèmes comme tout système informatique.
Cependant Windows ne détruit pas tes partitions Linux ou ton GRUB durant ce genre d'opérations. Par contre Windows peut ne plus être fonctionnel sans intervention, mais cela n'a pas grand chose à voir avec les discussion, et encore moins avec l'UEFI.
[^] # Re: Extensions
Posté par Renault (site web personnel) . En réponse à la dépêche Firefox 48 : API WebExtensions, Electrolysis et sécurité. Évalué à 4.
Je pense que tu dois arrêter la drogue assez rapidement.
Microsoft n'est pas une entreprise surpuissante, malgré son cash disponible et sa philosophie et son historique, Microsoft sait abandonner une technologie quand elle n'a pas de sens commercialement.
Après tout, ils ont bien fait OS/2 et Windows en parallèle avant d'abandonner OS/2 quand ils ont senti que Windows réussirait. Ils ont abandonné aussi le projet de refaire Internet avec le réseau MSN (qui n'a pas grand chose à voir technologiquement avec Hotmail et le réseau de messagerie instantanée aujourd'hui abandonnée également, malgré le nom).
Ils ont abandonné IE pour Mac OS quand l'obligation légale est tombée (de l'accord Apple/Microsoft de 1997).
Sans oublier l'interface de Windows qui devait ressembler à un vrai bureau et dont les seuls survivants sont Comic Sans MS et le chien dans Windows XP.
Etc.
Bref, Palladium a été abandonné en tant que tel, et Secure Boot n'a pas grand chose à voir technologiquement avec cela. C'est un mécanisme de sécurité, le lien s'arrête là.
Mais qu'est-ce que tu racontes ?
En quoi l'UEFI fait monter le prix des machines ? En quoi on devrait arrêter de produire des normes si cela nécessite un apprentissage pour les développeurs ? Heureusement qu'on n'est pas limité au BIOS, HTML 1.0, au langage C voire assembleur, etc.
L'UEFI est un net progrès par rapport au BIOS que tu chéries tant. Le BIOS a énormément de contraintes historiques totalement chiantes à gérer (je pense entre autre au partitionnement limité), en plus d'être assez chiant à réaliser et configurer car ne pouvant exploiter pleinement les périphériques de l'ordinateur.
En plus l'UEFI a été pensé pour être utilisé par différentes architectures et pas seulement x86, quand ARM voire les autres s'y conformeront, le gain sera énorme pour les développeurs bas niveaux dont des chargeurs de démarrage et du noyau car énormément de choses pourront être factorisées entre ces plateformes.
Oui l'UEFI nécessite un apprentissage, comme tout métier tu dois maintenir une veille de ton domaine si tu veux être performant et efficace. Après peu de personnes ont besoin réellement d'une formation complète sur l'UEFI qui concerne finalement assez peu les gens qui ne font pas du développement bas niveau. Et pour ces gens là, c'est un progrès colossale.
[^] # Re: Et question Portage
Posté par Renault (site web personnel) . En réponse au journal 1 an sous Ubuntu Phone. Évalué à 3.
Note que ce que tu cites est vrai mais plutôt récent, les difficultés de portages étaient fortement d'actualité même sans ces histoires de signatures.
Avoir un chargeur de démarrage libre / non contraignant donnerait une belle possibilité mais qui reste complexe à exploiter pour avoir un OS générique quelque soit le modèle de téléphone comme on peut l'avoir sur nos ordinateurs.
[^] # Re: Et question Portage
Posté par Renault (site web personnel) . En réponse au journal 1 an sous Ubuntu Phone. Évalué à 10.
Le soucis vient principalement de l'architecture ARM qui n'a pas pour le moment de mécanismes de découverte du matériel comme sur x86 (nos ordinateurs). Du coup il te faut forcément, en dur quelque part dans le noyau, le listing qui va bien pour fonctionner.
Le noyau Linux vient à peine, récemment, d'avoir la possibilité de compiler ces listings ensemble dans une seule image pour démarrer sur plusieurs périphériques ARM différents. Mais cela n'est pas suffisant.
Car déjà, pour que le portage soit réussi, tout doit fonctionner. Un téléphone est un appareil autonome avec beaucoup plus de connectiques et d’interactions qu'un ordinateur. Avec la puce GSM qui ne fonctionne pas, le Wifi ou le tactile, c'est mort. Et ces composants sont peu standardisés par rapport aux claviers / souris de nos machines. C'est donc beaucoup plus sensible.
Puis la majeure partie des téléphones du commerce ont besoin de pilotes propriétaires ou publics mais pas inclus dans les sources du noyau officiel (car le patch est trop gros ou trop sale). Du coup très souvent tu dois utiliser un noyau très précis pour exploiter correctement le matériel sous-jacent, souvent du Linux 3.4 pour les appareils Android.
Sinon tu dois te contenter des rares téléphones bien supportés par le noyau officiel, ou d'un téléphone pas totalement fonctionnel ce qui est plutôt handicapant.
Le problème ne vient donc pas réellement du noyau Linux et de l'écosystème du libre qui sont techniquement efficaces pour cela mais plutôt des limitations de l'architecture ARM d'une part, mais aussi de la politique et de la culture d'entreprise des constructeurs de téléphones ou de composants qui font peu d'efforts pour mettre à disposition leurs travaux dans la branche officielle du noyau.