Faut arrêter de croire que seuls les économistes US croient en un acteur rationnel. D'une c'est faux : tout un tas d'économistes (Joseph Stiglitz, ancien chef de la banque mondiale, conseiller de Clinton, et prix Nobel d'économie) est aux antipodes de tout ça; de deux, tout un tas d'économistes européens (dont français) croient/ont cru dur comme fer aux théories de Walras et Basquiat (par exemple).
Ici, il y a généralement assez de personnes pour défendre Linux pour que je n'ai pas besoin de le faire, tu me vois juste parler des défauts de Linux faute de personnes le faisant ici (et sur un site pro-Windows, on dirait "Pincer moi, Zenitram qui defend Windows…", et sur un site pro-Mac on dirait "Pincer moi, Zenitram qui defend Mac…", rien de nouveau, des gens ont décidé que si on n'est pas 100% avec eux, on est forcément contre eux)
Donc en fait t'es un gros troll. :-)
Parce qu'en fait si les gens ont un problème avec tes critiques, ce n'est pas parce que tu ne donnes pas d'arguments (très souvent tu le fais, même si on n'est pas forcément d'accord), mais bien parce que tu ne peux pas t'empêcher, après une argumentation parfois béton, de dire « c'est marrant ces {linuxiens|libristes|windowsiens|mac-eux|footeux|.*}1 qui pensent que […] », avec une certaine suffisance, voire une certaine condescendance. Je pense que la brutalité des propos, ou le fait d'être critique en soi n'est pas mal vu ici. C'est le côté extrême de l'argumentation, façon « tout ou rien », ce qui inclue certaines généralisations que tu fais, qui rebute les gens.
En fonction du site où tu officies a priori, donc. :-) ↩
Hum, si le soft n'est pas dispo en binaire, sous n'importe quel BSD tu vas dans /usr/ports/chemin/vers/ton/soft puis:
make install clean
Et voilà. Après bien entendu tu pourrais parler des drivers, des softs qui reposent sur des mécanismes Linux spécifiques, etc., mais c'est un autre problème.
Pour un juif, la Bible = Torah (qui est … TADAAAA! Le nom hébreux de la Bible). Pour un chrétien, la Bible = Torah + nouveau testament. Donc Zénitram n'a pas fait de raccourci.
Par contre, si tu dis à un juif que « bla bla bla … Dans l'ancien testament … », il va peut-être te reprendre en te demandant soit de dire « la Torah » (le Talmud n'est que l'ensemble des textes qui tournent autour, rédigés par des rabbins — « Talmud » veut dire « étude » en hébreu), ou « la Bible ». Car parler d'ancien testament, c'est implicitement dire qu'il y en a un nouveau et qu'il prend précédence.
Je pense qu'en France, ça n'est pas forcément un amalgame : il existe bien sûr des musulmans qui ne sont pas arabes et des arabes qui ne sont pas musulmans, mais d'un point de vue "communauté" (quoi que ça puisse signifier dans un État qui ne reconnait pas les communautés), c'est globalement superposé.
La présupposition est sans doute fausse. En Algérie, la population réellement arabe ethniquement parlant, comparée à la population berbère (dont kabyles) est en réalité à peine majoritaire (il y a ~40% de berbères en Algérie, dont ~10-12% de kabyles). Au Maroc les Berbères sont 10-12 millions, soit ~30% de la population. En France, d'après Wikipedia, Les Berbères représentent 28% des immigrés d'origine algérienne, et 21,5% d'origine marocaine.
Bref, parler « d'Arabes » pour englober les populations d'Afrique du Nord est aussi maladroit que de parler de « noirs » pour parler de populations subsahariennes (même en excluant l'Afrique du Sud) : la population berbère/kabyle d'Algérie est ± aussi nombreuse que la population tunisienne dans son ensemble (qui, elle, est à 98% arabe). Mais en plus en France, cette population est au moins à 30% berbère, et donc avec une culture pas forcément si similaire…
(je rattrape mon retard de lecture de journaux sur LinuxFR, désolé :P )
J'étais vert d'envie envers mes potes au CPC et mes potes au PC1512. Par contre, un cousin avait fini par me filer une console TI99A, qui était « meilleure » qu'un MO5 ou TO7, mais qui n'avait pas de lecteur 3"½.
Tu as des preuves ? Parce que Open Access, c'est juste un mode de publication où tu (le ou les auteurs) paies pour pouvoir donner accès gratuitement aux lecteurs, car tu estimes que ta recherche devrait être rendue publique1. Bref d'un côté tu as les publications « fermées », où tu dois abandonner ton copyright et laisser l'éditeur gagner des sous en vendant des copies des actes de la conférence/du journal, ou du papier à l'unité. De l'autre tu as l'éditeur qui gagne des sous car les auteurs sont prêts à payer pour que la publication ne soit pas séquestrée derrière un « paywall ».
Le fait qu'une publication soit Open Access ou pas n'a absolument aucune incidence sur la qualité de la publication. Le fait qu'il y ait un comité de lecture est le minimum pour garantir un minimum de sérieux, mais évidemment il faut espérer qu'il n'y ait pas de copinage. Et là, il n'y a aucune garantie, sauf pour les plus grosses conférences et journaux qui ont accumulés un tel prestige qu'il serait dommageable pour leur image de publier quelque chose de médiocre. Encore une fois, je ne vois pas ce que le fait d'être Open Access ou pas change à ça.
Par contre, mon expérience en tant qu'auteur et relecteur est que (au moins dans mon domaine), il n'y a que rarement complaisance pour un papier. J'ai déjà vu un papier médiocre accepté de justesse, pas à cause de la qualité du papier (qui était fortement améliorable, même s'il y avait déjà des résultats reproductibles), mais que parce que le chef du comité de relecture pensait que le sujet était important et pas assez abordé dans le domaine (voire pas du tout). J'ai aussi vu le cas contraire : un papier qui proposait une recherche très intéressante, avec théorèmes prouvés, résultats expérimentaux, etc., mais que le chef de comité a refusé car l'article ne faisait aucun effort pour être tourné de façon à ce qu'il respecte le thème de la conférence.
Par exemple, parce que les fonds qui te financent sont publics, que le processus de vérification est déjà principalement bénévole, y compris pour la vérification de typos, erreurs de grammaire, etc., et que donc l'éditeur, s'il a bien un réel rôle pour agréger/concaténer les papiers et générer les différentes tables des matières, etc., a malgré tout son travail mâché en grande partie. ↩
Euh en maths, physique, et info c'est carrément la norme (même si souvent un modèle Word est aussi proposé). Les styles IEEE et ACM sont clairement faits pour LaTeX en premier. Je connais aussi beaucoup de thésards en économie qui utilisent LyX ou LaTeX, et je ne pense pas que ce soit rare. Tout dépend d'à quel point tu as besoin d'utiliser des formules mathématiques et des symboles bizarres je pense.
Dans l'absolu je suis d'accord avec toi. Mais au risque de répéter ce que j'ai dit il y a longtemps dans un autre journal, le problème est qu'on enseigne aux gens le langage (qu'on parle de C ou C++) avec des versions désuètes des normes :
On m'a appris C89, même si C99 était sorti depuis pas loin de 2 ans, et surtout, les profs qui enseignaient le C à leurs étudiants dans les facs où j'ai mis les pieds ensuite continuaient à le faire en C89.
Je doute fortement que les profs qui enseignent le C++ à la fac le fassent avec C++11/C++14 (même s'ils devraient, vu que ça simplifie énormément le code et donc réduit les risques d'erreur)
Il y a un tas de code écrit en C++98 qui s'est accumulé, et il n'est pas dit du tout que les formes du C++1x soient acceptées dans ces projets lorsqu'on parle de maintenance : (1) il peut y avoir des restrictions sur quels compilateurs on peut utiliser, et (2) un certain style a été défini au début du projet, et pour des raisons de cohérence, on veut le garder1.
Ceci est aussi valable pour C89/C99/C11 bien sûr. ↩
tu sais pas ce qu'un compilo / une VM malins peuvent faire !
Mouais, c'est quelque chose que l'on entend répété ad nauseam depuis des années, mais en pratique il est rare qu'ils produisent un code plus performant qu'un premier jet bêtement codé à la main.
Chic, chic, un troll ! Donc euh, mon boulot a été, pendant un moment, d'optimiser des codes scientifiques (qui souvent sont bien plus faciles à optimiser pour un compilateur que des codes plus traditionnels). Je n'ai presque jamais eu à recourir à l'écriture en ASM, mais par contre savoir le lire était important :
Il fallait pouvoir reconnaître un code peu optimisé par le compilateur (alors qu'on pouvait faire mieux)
Il fallait quand même pouvoir écrire 2-3 trucs à la main dans certains cas précis
La plupart des cas où j'avais besoin de faire du fine tuning, je passais par les intrinsics de gcc/llvm/icc (par exemple, si on veut utiliser les instructions MMX/SSE/AVX sur x86/x64), ce qui était quand même 'achement plus simple pour obtenir des diagnostics d'erreur quand je me plantais.
La plupart du temps, le compilateur est bien plus malin que le programmeur.
Concernant mon dernier point : au final, plutôt qu'écrire en ASM, je finissais par savoir comment exprimer mes programmes sous une forme que le compilateur savait optimiser. Souvent, ça passe par la « débilisation » du code : si on essaie d'être trop intelligent, le compilateur voit un tas de code compliqué, et laisse tomber. Si au contraire on écrit le code de la façon la plus simple possible, souvent le compilo comprend l'idiome, et trouve des choses intelligentes à faire. Il y a bien entendu des exceptions :
Si on essaie d'optimiser pour les caches, il faut souvent recourir à des techniques de « blocking » ou « tiling », mais là encore on peut s'arranger pour ne pas se mettre en travers du compilateur (par exemple, on met la partie à optimiser du code dans une fonction à part, et ainsi on l'isole du nid de boucle qui l'entoure).
Il y a des fois où le compilateur se plante réellement dans la génération du code, mais là encore, faire de « l'assembleur en C » permet le plus souvent de le remettre dans le droit chemin.
Sur certaines architectures c'est relativement faux : par exemple sur Itanium, tout un tas de mécanismes super cool concernant la prédication des branches, la spéculation de contrôle ou de données, etc., n'étaient tout simplement pas accessible à moins de faire de l'assembleur (gcc est dans les choux niveau optim sur ia64, et icc interdit l'utilisation d'assembleur inline — mais il y a des intrinsics pour certains trucs).
Bref. J'en profite pour lier vers ce blog qui propose un quiz à propos de différentes optimisations que le compilateur peut effectuer.
Et de toutes manières, vu qu'en général on passe son temps à appeler des fonctions assez génériques qui ne sont donc pas optimisées pour le cas que l'on utilise, il n'y a pas grand chose d'optimisable par le compilateur…
Ça par contre je suis relativement d'accord. Je n'ai pas été regarder, mais j'aimerais bien savoir s'il existe des fonctions de la libc qui ont des variantes, du genre (code non testé, y'a sans doute des bugs) :
#ifdef __HAS_AVX__ #define memcpyAVX memcpy#elif __HAS_SSE2__#define memcpySSE2 memcpy#elif //...//...#endifvoid*memcpySSE2(void*restricts1,constvoid*restricts2,size_tn){if(n<sizeof(_m128d)){// size to copy is less than 8 charschar*dst=(char*)s1,*src=(char*)s2;while(n--)*dst++=*src++;}elseif(is_aligned16(s1)&&is_aligned16(s2)){// aligned on 16B_m128dsrc;// or _m128i with _mm_load_si128/_mm_store_si128, doesn't really matter here...size_ti;for(i=0;i<n-8;i+=8){src=_mm_load_ps(s2+i);_mm_store_ps(s1+i,src);// copy, 8 chars at a time}for(;i<n;++i)// epilogue*((char*)s1+i)=*((char*)s2+i);}else{// unaligned accesses_m128dsrc;// or _m128i with _mm_loadu_si128/_mm_storeu_si128, doesn't really matter here...size_ti;for(i=0;i<n-8;i+=8){src=_mm_loadu_ps(s2+i);_mm_storeu_ps(s1+i,src);// copy, 8 chars at a time}for(;i<n;++i)// epilogue*((char*)s1+i)=*((char*)s2+i);}}
NB: avec icc (et en supposant que mon code ne soit pas complètement rempli de bugs, ce qui est très possible), les boucles vont être déroulées, entre 2 et 6 fois, pour tirer avantage des 16 registres SSE. Pour tirer avantage des cas intermédiaires, icc va générer des variantes qui vont complètement dérouler les cas du genre N=8, N=16, N=32, etc. Je ne crois pas que gcc fasse cela aussi systématiquement, mais il commence aussi à être bon pour ce qui est de la vectorisation.
Dans mes souvenirs, en moyenne trois cinquièmes de la consommation électrique est du fait du calculateur lui-même, et le reste concerne le système de refroidissement.
Je peux comprendre que gérer des flux monétaires est complexe et demande de la rigueur, maintenant JE trouve que bloquer de l'argent sur un compte en demandant tout plein de papier est juste dégueulasse.
Pour être honnête, lorsque j'ai brièvement travaillé dans une banque il y a un bout de temps, n'importe qui demandant à déposer ou retirer plus de 50 000FF à l'époque devait prévenir à l'avance la banque (ne serait-ce que pour des raisons de sécurité), signer un formulaire en arrivant, etc.
Et une bonne raison pour laquelle on n'avait pas besoin de demander 10 000 papiers, c'était aussi qu'on demandait sa CNI au monsieur, dont on recopiait soigneusement le numéro sur le bordereau.
Oui c'est assez naïf, car de toute manière, les vraies machines utilisées pour faire exactement ce dont tu as peur ne sont généralement pas l'objet d'une telle publicité. C'est comme les machines du top500 : on parle de clusters « publics », pas de machines qui sont utilisées pour des tâches bien spécifiques (comme par exemple traverser les graphes de réseaux sociaux pour trouver les maychants terroristes).
Hum, l'agence à trois lettre qu'on ne peut nommer et qui fait partie du DoD commissionne des machines spécifiques, pour des applications spécifiques, et très souvent avec des OS spécifiques. De plus, s'il y a certes des rivalités entre départements au sein du DoD, globalement si une certaine agence décidait d'aller voir le code source de leur(s) OS, ou le contenu de certaines données, elle n'aurait qu'à demander (ou presque).
D'après l'article, il s'agit d'un choix d'OS pour un super-ordinateur. Il me semble que SUSE a toujours eu une longueur d'avance dans ce segment sur son concurrent.
Pas vraiment, non. RHEL est très souvent utilisée comme base pour des variantes HPC (Scientific Linux, mais aussi des distribs maisons de chez Bull, etc.).
Oui, j'ai lu le post original après ma réponse. Et tout revient autour de la même chose : ils ne comprennent pas suffisamment le code pour garantir la sûreté du programme et sa maintenance. C'est complètement OK selon moi. Mais un code ne peut pas être « trop » optimisé, dans le sens où une optimisation qui provoque des résultats incorrects n'en est pas une, par définition.
Hum, un code « trop optimisé » ça fait bizarre. Le style je peux comprendre. Mais du moment que le code est sûr, je ne vois pas en quoi être optimisé est un mal… (je vais lire le lien histoire de voir si je suis d'accord avec ton résumé ;-)).
[…] Le langage naturel existe déjà pour cela, autant créer des outils pour apprendre facilement mais correctement.
Le langage naturel ne peut pas être analysé efficacement. :) Il est important de proposer un langage un peu formel pour habituer l'élève à raisonner et exprimer ses idées d'algo « formellement ». Le vrai code de « vie réelle » ressemble de toute façon rarement à celui montré en cours par le prof ou même à celui que les élèves produisent pour leurs projets. Pour l'apprentissage de l'algorithmique, la syntaxe importe peu, du moment qu'elle est simple et cohérente. L'intérêt d'avoir un langage précis pour l'apprentissage de l'algo, c'est que tu peux facilement prévenir des comportements déviants (plus qu'avec un « vrai » langage généraliste). En collège ou lycée, il est plus important de donner de bonnes bases que de chercher absolument à faire apprendre la programmation en utilisant de vrais outils. Mon premier contact avec un langage de programmation, c'était Logo, en primaire. Lorsque j'ai essayé d'apprendre Pascal par moi-même quelques années plus tard, autant te dire que ce n'était pas la fête. Entre les mots en anglais à retenir, la syntaxe, etc., j'ai assez vite jeté l'éponge. J'ai eu mon premier contact avec l'assembleur au lycée sur un processeur 6809, et pas sur du x86, et c'est tant mieux.
[^] # Re: L'urgence, ça marche
Posté par lasher . En réponse au journal GnuPG utilisé, GnuPG oublié, mais GnuPG financé. Évalué à 2.
Faut arrêter de croire que seuls les économistes US croient en un acteur rationnel. D'une c'est faux : tout un tas d'économistes (Joseph Stiglitz, ancien chef de la banque mondiale, conseiller de Clinton, et prix Nobel d'économie) est aux antipodes de tout ça; de deux, tout un tas d'économistes européens (dont français) croient/ont cru dur comme fer aux théories de Walras et Basquiat (par exemple).
[^] # Re: Mise à jour ⇒ v2
Posté par lasher . En réponse au journal Installation de logiciel : comportement des utilisateurs en fonction du système d’exploitation. Évalué à 2.
Je préfère bien plus cette version, qui se fout bien plus ouvertement de la gueule de tout le monde. :-)
[^] # Re: Prems LOL
Posté par lasher . En réponse au journal Faille de sécurité glibc. Évalué à 10.
Donc en fait t'es un gros troll. :-)
Parce qu'en fait si les gens ont un problème avec tes critiques, ce n'est pas parce que tu ne donnes pas d'arguments (très souvent tu le fais, même si on n'est pas forcément d'accord), mais bien parce que tu ne peux pas t'empêcher, après une argumentation parfois béton, de dire « c'est marrant ces {linuxiens|libristes|windowsiens|mac-eux|footeux|.*}1 qui pensent que […] », avec une certaine suffisance, voire une certaine condescendance. Je pense que la brutalité des propos, ou le fait d'être critique en soi n'est pas mal vu ici. C'est le côté extrême de l'argumentation, façon « tout ou rien », ce qui inclue certaines généralisations que tu fais, qui rebute les gens.
En fonction du site où tu officies a priori, donc. :-) ↩
[^] # Re: Pareil sous les trois OS
Posté par lasher . En réponse au journal Installation de logiciel : comportement des utilisateurs en fonction du système d’exploitation. Évalué à 2.
Hum, si le soft n'est pas dispo en binaire, sous n'importe quel BSD tu vas dans
/usr/ports/chemin/vers/ton/soft
puis:Et voilà. Après bien entendu tu pourrais parler des drivers, des softs qui reposent sur des mécanismes Linux spécifiques, etc., mais c'est un autre problème.
[^] # Re: J'ai peur ...
Posté par lasher . En réponse au journal Liberté d'expression sous les balles. Évalué à 3.
Pour un juif, la Bible = Torah (qui est … TADAAAA! Le nom hébreux de la Bible). Pour un chrétien, la Bible = Torah + nouveau testament. Donc Zénitram n'a pas fait de raccourci.
Par contre, si tu dis à un juif que « bla bla bla … Dans l'ancien testament … », il va peut-être te reprendre en te demandant soit de dire « la Torah » (le Talmud n'est que l'ensemble des textes qui tournent autour, rédigés par des rabbins — « Talmud » veut dire « étude » en hébreu), ou « la Bible ». Car parler d'ancien testament, c'est implicitement dire qu'il y en a un nouveau et qu'il prend précédence.
[^] # Re: Contre-sens "Barbare"?
Posté par lasher . En réponse au journal Liberté d'expression sous les balles. Évalué à 2.
Ou bien ça : https://www.youtube.com/watch?v=NVrDtRjE7ns ;)
[^] # Re: Recatégorisation
Posté par lasher . En réponse au journal Liberté d'expression sous les balles. Évalué à 2.
J'ai plussé, mais en même temps j'avais envie de dire « ouais, y'a le maoïsme aussi ! »
Pardon, pardon, je sors…
[^] # Re: Recatégorisation
Posté par lasher . En réponse au journal Liberté d'expression sous les balles. Évalué à 3.
La présupposition est sans doute fausse. En Algérie, la population réellement arabe ethniquement parlant, comparée à la population berbère (dont kabyles) est en réalité à peine majoritaire (il y a ~40% de berbères en Algérie, dont ~10-12% de kabyles). Au Maroc les Berbères sont 10-12 millions, soit ~30% de la population. En France, d'après Wikipedia, Les Berbères représentent 28% des immigrés d'origine algérienne, et 21,5% d'origine marocaine.
Bref, parler « d'Arabes » pour englober les populations d'Afrique du Nord est aussi maladroit que de parler de « noirs » pour parler de populations subsahariennes (même en excluant l'Afrique du Sud) : la population berbère/kabyle d'Algérie est ± aussi nombreuse que la population tunisienne dans son ensemble (qui, elle, est à 98% arabe). Mais en plus en France, cette population est au moins à 30% berbère, et donc avec une culture pas forcément si similaire…
(je rattrape mon retard de lecture de journaux sur LinuxFR, désolé :P )
[^] # Re: Deux autres...
Posté par lasher . En réponse au journal ARM: Etat des lieu dans la communauté linux. Évalué à 2.
J'étais vert d'envie envers mes potes au CPC et mes potes au PC1512. Par contre, un cousin avait fini par me filer une console TI99A, qui était « meilleure » qu'un MO5 ou TO7, mais qui n'avait pas de lecteur 3"½.
[^] # Re: Sinon
Posté par lasher . En réponse au journal [ HS ] Triste nouvelle pour toute une génération. Évalué à 3.
Perso, après avoir appris la mort de Framboisier, j'ai repris deux fois des moules.
[^] # Re: Scientifique ?
Posté par lasher . En réponse au journal Word vs TeX. Évalué à 6.
Tu as des preuves ? Parce que Open Access, c'est juste un mode de publication où tu (le ou les auteurs) paies pour pouvoir donner accès gratuitement aux lecteurs, car tu estimes que ta recherche devrait être rendue publique1. Bref d'un côté tu as les publications « fermées », où tu dois abandonner ton copyright et laisser l'éditeur gagner des sous en vendant des copies des actes de la conférence/du journal, ou du papier à l'unité. De l'autre tu as l'éditeur qui gagne des sous car les auteurs sont prêts à payer pour que la publication ne soit pas séquestrée derrière un « paywall ».
Le fait qu'une publication soit Open Access ou pas n'a absolument aucune incidence sur la qualité de la publication. Le fait qu'il y ait un comité de lecture est le minimum pour garantir un minimum de sérieux, mais évidemment il faut espérer qu'il n'y ait pas de copinage. Et là, il n'y a aucune garantie, sauf pour les plus grosses conférences et journaux qui ont accumulés un tel prestige qu'il serait dommageable pour leur image de publier quelque chose de médiocre. Encore une fois, je ne vois pas ce que le fait d'être Open Access ou pas change à ça.
Par contre, mon expérience en tant qu'auteur et relecteur est que (au moins dans mon domaine), il n'y a que rarement complaisance pour un papier. J'ai déjà vu un papier médiocre accepté de justesse, pas à cause de la qualité du papier (qui était fortement améliorable, même s'il y avait déjà des résultats reproductibles), mais que parce que le chef du comité de relecture pensait que le sujet était important et pas assez abordé dans le domaine (voire pas du tout). J'ai aussi vu le cas contraire : un papier qui proposait une recherche très intéressante, avec théorèmes prouvés, résultats expérimentaux, etc., mais que le chef de comité a refusé car l'article ne faisait aucun effort pour être tourné de façon à ce qu'il respecte le thème de la conférence.
Par exemple, parce que les fonds qui te financent sont publics, que le processus de vérification est déjà principalement bénévole, y compris pour la vérification de typos, erreurs de grammaire, etc., et que donc l'éditeur, s'il a bien un réel rôle pour agréger/concaténer les papiers et générer les différentes tables des matières, etc., a malgré tout son travail mâché en grande partie. ↩
[^] # Re: 30 min
Posté par lasher . En réponse au journal Word vs TeX. Évalué à 6.
Euh en maths, physique, et info c'est carrément la norme (même si souvent un modèle Word est aussi proposé). Les styles IEEE et ACM sont clairement faits pour LaTeX en premier. Je connais aussi beaucoup de thésards en économie qui utilisent LyX ou LaTeX, et je ne pense pas que ce soit rare. Tout dépend d'à quel point tu as besoin d'utiliser des formules mathématiques et des symboles bizarres je pense.
[^] # Re: Comparaison ?
Posté par lasher . En réponse au journal Journal Bookmark #2. Évalué à 2.
Dans l'absolu je suis d'accord avec toi. Mais au risque de répéter ce que j'ai dit il y a longtemps dans un autre journal, le problème est qu'on enseigne aux gens le langage (qu'on parle de C ou C++) avec des versions désuètes des normes :
Ceci est aussi valable pour C89/C99/C11 bien sûr. ↩
[^] # Re: Avec du poil aux pattes
Posté par lasher . En réponse au journal Esod mumixam !. Évalué à 4.
Chic, chic, un troll ! Donc euh, mon boulot a été, pendant un moment, d'optimiser des codes scientifiques (qui souvent sont bien plus faciles à optimiser pour un compilateur que des codes plus traditionnels). Je n'ai presque jamais eu à recourir à l'écriture en ASM, mais par contre savoir le lire était important :
Concernant mon dernier point : au final, plutôt qu'écrire en ASM, je finissais par savoir comment exprimer mes programmes sous une forme que le compilateur savait optimiser. Souvent, ça passe par la « débilisation » du code : si on essaie d'être trop intelligent, le compilateur voit un tas de code compliqué, et laisse tomber. Si au contraire on écrit le code de la façon la plus simple possible, souvent le compilo comprend l'idiome, et trouve des choses intelligentes à faire. Il y a bien entendu des exceptions :
Sur certaines architectures c'est relativement faux : par exemple sur Itanium, tout un tas de mécanismes super cool concernant la prédication des branches, la spéculation de contrôle ou de données, etc., n'étaient tout simplement pas accessible à moins de faire de l'assembleur (gcc est dans les choux niveau optim sur ia64, et icc interdit l'utilisation d'assembleur inline — mais il y a des intrinsics pour certains trucs).
Bref. J'en profite pour lier vers ce blog qui propose un quiz à propos de différentes optimisations que le compilateur peut effectuer.
Ça par contre je suis relativement d'accord. Je n'ai pas été regarder, mais j'aimerais bien savoir s'il existe des fonctions de la libc qui ont des variantes, du genre (code non testé, y'a sans doute des bugs) :
NB: avec icc (et en supposant que mon code ne soit pas complètement rempli de bugs, ce qui est très possible), les boucles vont être déroulées, entre 2 et 6 fois, pour tirer avantage des 16 registres SSE. Pour tirer avantage des cas intermédiaires, icc va générer des variantes qui vont complètement dérouler les cas du genre N=8, N=16, N=32, etc. Je ne crois pas que gcc fasse cela aussi systématiquement, mais il commence aussi à être bon pour ce qui est de la vectorisation.
[^] # Re: Firefox perd du terrain...
Posté par lasher . En réponse à la dépêche Firefox 34, ce Hérault. Évalué à 3.
Au moins ça change des annonces de la mort des *BSD. :-)
[^] # Re: Rien de nouveau...
Posté par lasher . En réponse à la dépêche Le Top 500 des supercalculateurs de novembre 2014. Évalué à 2.
Dans mes souvenirs, en moyenne trois cinquièmes de la consommation électrique est du fait du calculateur lui-même, et le reste concerne le système de refroidissement.
[^] # Re: cool pour android
Posté par lasher . En réponse au journal Newton Adventure passe en free to play!. Évalué à 2.
Pour être honnête, lorsque j'ai brièvement travaillé dans une banque il y a un bout de temps, n'importe qui demandant à déposer ou retirer plus de 50 000FF à l'époque devait prévenir à l'avance la banque (ne serait-ce que pour des raisons de sécurité), signer un formulaire en arrivant, etc.
Et une bonne raison pour laquelle on n'avait pas besoin de demander 10 000 papiers, c'était aussi qu'on demandait sa CNI au monsieur, dont on recopiait soigneusement le numéro sur le bordereau.
[^] # Re: cool pour android
Posté par lasher . En réponse au journal Newton Adventure passe en free to play!. Évalué à 6.
C'est la première fois que je le fais dans ce sens mais …
Mince, pour une fois, c'est un cas « tords-du ». :( Donc: « tu tords »
[^] # Re: Le département de la défense US s'appuie sur SGI et Linux !
Posté par lasher . En réponse au journal Le département de la défense US s'appuie sur SGI et Linux !. Évalué à 5.
Oui c'est assez naïf, car de toute manière, les vraies machines utilisées pour faire exactement ce dont tu as peur ne sont généralement pas l'objet d'une telle publicité. C'est comme les machines du top500 : on parle de clusters « publics », pas de machines qui sont utilisées pour des tâches bien spécifiques (comme par exemple traverser les graphes de réseaux sociaux pour trouver les maychants terroristes).
[^] # Re: Les américains sont souvent les plus malins.
Posté par lasher . En réponse au journal Le département de la défense US s'appuie sur SGI et Linux !. Évalué à 2.
Hum, l'agence à trois lettre qu'on ne peut nommer et qui fait partie du DoD commissionne des machines spécifiques, pour des applications spécifiques, et très souvent avec des OS spécifiques. De plus, s'il y a certes des rivalités entre départements au sein du DoD, globalement si une certaine agence décidait d'aller voir le code source de leur(s) OS, ou le contenu de certaines données, elle n'aurait qu'à demander (ou presque).
[^] # Re: OS pas américain
Posté par lasher . En réponse au journal Le département de la défense US s'appuie sur SGI et Linux !. Évalué à 2.
Pas vraiment, non. RHEL est très souvent utilisée comme base pour des variantes HPC (Scientific Linux, mais aussi des distribs maisons de chez Bull, etc.).
[^] # Re: Ipv6...
Posté par lasher . En réponse à la dépêche OpenBSD 5.6. Évalué à 5.
Ubuntu le fait par exemple.
[^] # Re: suppressions ?!
Posté par lasher . En réponse à la dépêche OpenBSD 5.6. Évalué à 3.
Oui, j'ai lu le post original après ma réponse. Et tout revient autour de la même chose : ils ne comprennent pas suffisamment le code pour garantir la sûreté du programme et sa maintenance. C'est complètement OK selon moi. Mais un code ne peut pas être « trop » optimisé, dans le sens où une optimisation qui provoque des résultats incorrects n'en est pas une, par définition.
[^] # Re: suppressions ?!
Posté par lasher . En réponse à la dépêche OpenBSD 5.6. Évalué à 3.
Hum, un code « trop optimisé » ça fait bizarre. Le style je peux comprendre. Mais du moment que le code est sûr, je ne vois pas en quoi être optimisé est un mal… (je vais lire le lien histoire de voir si je suis d'accord avec ton résumé ;-)).
[^] # Re: Et l'apprentissage ?
Posté par lasher . En réponse à la dépêche MicroAlg: langage et environnements pour l’algorithmique. Évalué à 5.
Le langage naturel ne peut pas être analysé efficacement. :) Il est important de proposer un langage un peu formel pour habituer l'élève à raisonner et exprimer ses idées d'algo « formellement ». Le vrai code de « vie réelle » ressemble de toute façon rarement à celui montré en cours par le prof ou même à celui que les élèves produisent pour leurs projets. Pour l'apprentissage de l'algorithmique, la syntaxe importe peu, du moment qu'elle est simple et cohérente. L'intérêt d'avoir un langage précis pour l'apprentissage de l'algo, c'est que tu peux facilement prévenir des comportements déviants (plus qu'avec un « vrai » langage généraliste). En collège ou lycée, il est plus important de donner de bonnes bases que de chercher absolument à faire apprendre la programmation en utilisant de vrais outils. Mon premier contact avec un langage de programmation, c'était Logo, en primaire. Lorsque j'ai essayé d'apprendre Pascal par moi-même quelques années plus tard, autant te dire que ce n'était pas la fête. Entre les mots en anglais à retenir, la syntaxe, etc., j'ai assez vite jeté l'éponge. J'ai eu mon premier contact avec l'assembleur au lycée sur un processeur 6809, et pas sur du x86, et c'est tant mieux.