La science offre des possibilités. La recherche est d'ailleurs là, publiée, validée scientifiquement, etc. Ça inclut les potentiels effets de bord, et leur sévérité en termes de santé publique. Le boulot de la science est effectivement « fini » une fois arrivée à ce niveau.
Par contre, lorsque Green Peace (qui fait aussi des trucs bien hein, soyons clairs) critique l'utilisation d'un outil mis à disposition par la science, c'est quand même à moitié en critiquant la science derrière (avec des visées politiques en sous-main). Bref, ils jouent sur la peur, l'incertitude, et oui, les risques de mortalité… Sauf que ces risques ont déjà été évalués.
L'autre partie, c'est la partie politique et les intentions que GP prête aux défenseurs de la « solution golden rice ». Manque de bol, l'auteur du blog explique que
Les paysans pourront ré-ensemencer leurs champs tous les ans (pas d'effet « Monsanto »)
À moins de produire pour plus de ~10k$, les paysans n'ont rien à payer à qui que ce soit (et dans les pays où ce genre de nourriture génétiquement modifiée est nécessaire, faire plus de 10k$ de CA, c'est être déjà foutrement riche).
J'aimerais comprendre en quoi c'est un problème. Je vais donner un exemple différent, qui se passe aux USA. Il est une pratique régulière dans pas mal d'états/villes US : rajouter du fluor dans l'eau potable. La raison est toute simple : l'hygiène dentaire de l'Américain moyen laisse à désirer d'une part, et les soins dentaires sont extrêmement chers (comme tout ce qui tient du médical, mais plus). Du coup les gens vont rarement chez le dentiste, car tout simplement ils ne peuvent pas se le permettre¹. Une solution pour en partie pallier ce problème est donc de renforcer la consommation de fluor en en rajoutant dans l'eau potable. Les doses en questions sont clairement très en dessous d'un quelconque seuil létal (et c'est strictement surveillé). Quand on a voulu instaurer ce système à Portland, les « bobos » locaux ont refusé et ont fait campagne contre. Ils ont gagné. Et la très grande population pauvre de la région, elle, a perdu une opportunité pour être en meilleure santé dentaire.
Qu'on soit bien d'accord : je trouve aberrant qu'on en arrive à devoir foutre du fluor d'office dans l'eau; les gens devraient savoir correctement prendre soin de leurs dents (brossage régulier, etc.). Le système de santé du pays/de l'état d’Oregon devrait aussi permettre une socialisation des dépenses de santé (pas forcément comme en France, mais clairement plus que ce qu'Obamacare propose). Mais c'est pas le cas, et étant donné la mentalité US, ce ne sera pas le cas avant looooooongtemps.
Donc une solution de moyen/long terme, c'est de fiche des quantités (prouvées) inoffensives fluor dans l'eau potable. Ça ne me plaît pas, mais c'est pas si grave au final.
J'en reviens au « golden rice » : si le riz lui-même est démontré être inoffensif; si la possibilité de « cross-pollinisation » elle-même est minime quant aux effets de bord, et si ça résout un problème sur le moyen/long terme, parce que très clairement, la révolution n'est pas prêt d'arriver dans les pays où on a besoin de ce genre de riz, où est le problème ?
Les compléments alimentaires dont tu parles pour une solution temporaire, on en envoie aussi, depuis des années. Ils ne sont pas prêts d'être produits localement, et donc ces pays dépendent de l'aide extérieure. Ce n'est clairement pas une solution viable à moyen ou long terme.
[1] Et quand ils doivent, on en est souvent à un point d'infection catastrophique, dangereux pour la santé, et qui en plus va coûter extrêmement cher au patient.
Idem. Mais je pense que, tout comme moi, tes lacunes n'étaient situées que pour l'année de 2nde (et p'tet un peu 3è). C'est ce que j'essayais d'expliquer plus tôt : le doublement ne sert que si les lacunes accumulées ne l'ont pas été sur trop d'années.
Si tu regardes comment ça marche en ce moment, les seuls moments où on doit redoubler (c'est-à-dire que les parents ne peuvent pas forcer la décision) sont aux moments d'orientation :
En Cinquième (choix de l'orientation en section générale ou pro/techno)
En Seconde (choix de l'orientation en section générale ou technologique)
En Terminale (pour des raisons évidentes)
Toutes les autres années, si les parents estiment que le doublement n'est pas nécessaire, ils peuvent simplement faire objection à la décision du conseil de classe. Les profs un minimum subtils tentent de faire passer le message aux élèves (au moins en 1ère) : ceux à qui on conseille le doublement en 1ère et qui passent malgré tout doublent leur terminale à X% (je ne me souviens plus) en moyenne, et n'ont pas forcément une bonne note au bac. L'idée étant que les élèves convainquent leurs parents que le doublement en 1ère est nécessaire. Ça marche pas forcément très bien, mais au moins les élèves sont traités comme les (jeunes) adultes qu'ils sont, et ne sont pas pris en traître.
Le redoublement n'aide pas l'élève s'il est déjà trop tard, car l'accumulation des lacunes est trop importante. Si l'élève est « limite », alors le doublement sert deux objectifs :
Ses lacunes sont (a priori) comblées.
Il reprend confiance en lui, parce que justement, si le doublement a fonctionné, il devrait faire partie des meilleurs (pas forcément le meilleur, mais être au moins dans le quart supérieur).
Il y a aussi tout simplement parfois le fait qu'il faut à l'élève plus de temps pour mûrir et se bouger. Parfois, l'élève ne bougera pas beaucoup plus. Je pense que maclag a raison de vouloir réhabiliter les filières techno ou pro. Dans beaucoup de « bons » lycées on les diabolise, alors que l'important c'est qu'on devrait trouver une porte de sortie aux élèves. Mais ça veut aussi dire qu'on ne pousse pas les élèves vers des filières moribondes. Envoyer des élèves de 3è en lycée professionnel électro-technique, c'est globalement les envoyer à l'ANPE (pour 90% d'entre eux).
La façon dont on change les règles du jeu est aussi une prise de décision purement économique. Si on décide de réorienter plus tôt, c'est aussi parce qu'on estime que l'État ne devrait dépenser qu'un certain budget par élève en moyenne, et donc qu'arrivé à un certain âge, si l'élève n'a pas fait ses preuves, il va lui falloir aller dans une filière courte. En soi je n'ai pas forcément un problème avec ceci, si en retour il existe des ponts facilement utilisables pour revenir vers une filière plus généraliste plus tard.
J'ai plusieurs exemples autour de moi de gens qui ont « mal » commencé (lycée pro ou technique, parce qu'ils ne bossaient pas comme il fallait au collège). Leur remontée a été plus ou moins rapide. L'un a « perdu » 3 ou 4 ans de sa vie (bac pro, 1è d'adaptation puis Terminale, BTS, pour finalement… réussir un Master en communication/marketing). L'autre a obtenu son BTS haut la main, est retourné à la fac pour faire sciences de la matière en DEUG, puis a globalement passé sa vie comme un moine ou presque pour réussir un concours d'entrée en école d'ingénieur. J'ai quelques autres exemples autour de moi comme ça. Dans ces deux cas (et les quelques autres dont je suis au courant), il aura fallu une détermination sans faille, et souvent une petite aide des enseignants là où ils pouvaient (genre, foutre l'élève dans une mauvaise terminale de bac pro, pour que l'élève se distingue encore plus et puisse aller dans la 1ère d'adaptation dont je parlais tout à l'heure).
Bref ce que je veux dire, c'est que si on rend la réorientation plus facile dans un sens, il faut aussi faciliter la réorientation dans l'autre sens. Est-ce que ça vous paraît logique ?
C'est exactement ce que je décris dans mon commentaire : le chargé de TP savait. Il ne pouvait techniquement rien faire techniquement (au moins cette année-là, mais c'était sans doute vrai les années suivantes), puisqu'en pratique, l'élève avait le droit de ramener « des notes ». Il était aussi évident que le TP en lui-même ne pouvait être effectué dans le temps imparti (je ne parle pas de difficulté ici). Bref, au lieu de parler d'un zéro aléatoire, je te parle de paraître moins bon qu'un autre, qui est mieux connecté, qui sait comment le système fonctionne, et pire encore, que le système tolère (par l'intermédiaire des chargés de TP).
Bon cela dit d'après les échos que j'ai eu le niveau des facs s'est écroulé ces dernières années
C'est une affirmation trop vague. Le niveau des facs ? Pour quel diplôme ? Et dans quel domaine ? À ma connaissance, au moins pour le niveau Master, les facs informatiques (qu'il s'agisse des facs parisiennes, toulousaines, ou lyonnaises) n'ont pas à rougir de quoi que ce soit.
Si tu relis mon antépénultième paragraphe, tu verras que ce que je le dis. Mais ça n'a (selon moi) rien à voir avec le niveau ou la capacité à exercer un métier. La plupart des métiers ne requièrent pas plus que lire/écrire/compter … et un certain sens de la sociabilité. Un certain nombre de gens qui obtiennent un job grâce à leur réseau et pas tellement grâce à leurs diplômes. Simplement, plutôt que s'appuyer sur le système éducatif français pour former les gens avant de les embaucher, ces boites acceptent (parce que c'est le fils de Machin, ou que Bidule est un bon pote) de former les nouveaux au métier.
Les formations professionnalisantes permettent juste « d'industrialiser » ce phénomène à mon avis. Et du coup, les boites, bien contentes de ne pas avoir à former un technicien, réclament un BTS/DUT/licence minimum, car comme ça le coût de la formation est socialisé/mutualisé. En soi c'est parfaitement compréhensible et logique. Après, je trouve que parfois ça mène à un aveuglement (les gens de dlfp le savent sans doute mieux que d'autres; après tout, l'outil informatique est sans doute l'un des plus grands « égalisateurs » en termes d'auto-formation…).
Techniquement c'était pas de la triche. On avait les énoncés de TP à l'avance, et n'importe qui pouvait avoir tout préparé du point de vue théorique avant d'entrer dans la salle de cours. En pratique, comme par définition il y a une partie « pratique » à un TP, il était impossible de réussir à répondre correctement à ce TP précisément (qui faisait — évidemment — partie des deux TP notés) dans l'heure et demie qui était prévue. C'était devenu plus ou moins une tarte à la crème : sujet « infaisable » mais qui ne changeait jamais d'une année à l'autre, et du coup les TP d'anciens se passaient de main à main, d'année en année. J'avais beau avoir préparé le truc avec ma binôme à l'époque, j'avais été trop fier pour récupérer le TP en question et étudier les réponses. Résultat : je fulminais, parce que j'en voyais certains qui n'essayaient même pas de construire le circuit et réaliser les programmes demandés. À la place, ils recopiaient le TP d'ancien — pardon, leurs « notes de préparation ». C'est assez rageant quand, les 5 TP (non-notés) d'avant, c'est toi qui aidais tes voisins pour réaliser les circuits ou piger pourquoi tel comportement était attendu, etc. Le chargé de TP de l'époque, qui en avait eu marre de me voir grogner, m'avait sorti un « écoute, t'avais tout un semestre pour trouver un TP d'ancien ».
Ma remarque n'était pas là pour dire que c'est « juste » ou « bien ». Juste que ce genre de truc « pas justes » qui récompense plus le mec qui a « des connexions » que le mec qui veut faire dans les règles, je l'ai réellement vu à l'œuvre pour la première fois en école d'ingé. Au lycée ou en IUT, j'avais jamais eu ce genre de problème. Et quelque part, oui, c'est formateur. Mieux vaut l'apprendre quand il n'y a pas encore de grosses conséquences (une note de TP, ça se rattrape), que lorsque ça arrive « dans la vraie vie ».
En 98 (a mon epoque!), les tp de physique etaient tellement bordeliques qu'on savait a peine dans quelle salle ils se passaient (et que le premier ait ete annule sans prevenir personne a pas aide), […]
Oui enfin, ça, c'est dépendant de ta fac. :-)
Pour le reste, j'ai écrit deux-trois posts sur ce threads qui convergent vers la même conclusion que toi. ;-)
S'il y a un truc que l'école d'ingé m'a appris sur « la vraie vie », c'est que parfois tricher est la seule manière de s'en sortir pour certains TP… Aaah, les TP d'élec infaisables dans le temps imparti sans avoir un TP d'ancien sous le coude…
Je suis globalement d'accord avec ton analyse. Cependant :
alors qu'elles [les facs] sont supposées proposer des cursus théoriques […] longs, elles se retrouvent avec une majorité d'étudiants recalés des prépas et écoles d'ingénieurs, mais surtout des iut et bts
Je suis partiellement d'accord avec ça. D'un côté je pense que tu décris quelque chose de factuel. D'un autre, je sais que beaucoup de gens (dont moi) ne peuvent pas/n'auraient pas pu intégrer une école d'ingénieur en passant par la case fac ou prépa, ou même accéder à un quelconque master en règle générale. Il peut s'agir d'un manque de maturité, de motivation, etc. Mais c'est aussi une réalité.
Il faut aussi se souvenir qu'en moyenne seuls les 5-10% du haut d'une promotion d'IUT et peut-être les 2-3% du haut d'une promotion de STS peuvent ensuite intégrer une école d'ingénieur. Le reste va soit en licence pro ou un IUP (et de toute manière avec la réforme d'il y a ~10 ans pour l'harmonisation des formations universitaires en Europe, ce n'est pas un mal), soit ils vont bosser.
En moyenne il y a ~10 ans, un étudiant en fac coûtait ~6000€, un étudiant d'IUT ~8000€, et un étudiant d'école d'ingénieur ~12000€ (je n'ai pas les liens sur moi, mais trouver la source ne devrait pas être trop difficile). Si on regarde comme ça, alors la fac est plutôt efficace comparée aux moyens par étudiant. Sans compter le fait que mes (modiques) frais d'inscriptions étaient doublés en école d'ingénieur par rapport à ceux de la fac (~600€ pour l'école, ~300€ pour mon M2).
pour dire les choses crûment l'essentiel des jeunes qui arrivent dans les filières en crise des facs sont ceux qui ont le plus besoin de formation professionnel et souvent les moins apte à suivre des études universitaires
Oui. Après, je pourrais citer Franck Lepage et ses conférences gesticulées (qui ont été citées à maintes reprises sur dlfp). ;-)
Tout ça pour dire, que la faute n'incombe ni au niveau du bac, ni aux étudiants. Mais plutôt à l'état qui n'a pas su réformer les universités depuis presque 50 ans
C'est un peu ce que j'essayais de dire dans un autre message sur ce thread. Ceci étant dit, de même que Di Cosmo admettait dans Le hold-up planétaire que si MS avait réussi à foutre du Windows 95 partout dans les facs, c'était aussi un peu à cause des chercheurs qui snobaient les PC par rapport aux « stations de travail » sous UNIX, la même chose est arrivée avec les profs de fac : il y a massification des élèves dans le secondaire, certes, mais ils n'ont pas voulu changer quoi que ce soit.
Heureusement que N. Sarkozy et F. Hollande ont trouvé de concert la solution : la stratégie de la terre brûlée, fermer les universités. C'est vrai, ce serait trop bête de réformer pour pouvoir valoriser cet outil d'enseignement et de recherche.
Ouais, alors, m'est avis que l'echec a la fac est plus du au passage d'un environement tres contraint et surveille (le lycee) a un environement super laxiste (la fac),
Les facs tentent de changer ceci, avec des périodes de tutorat, plus de TP, de trucs pratiques en règle générale, des sessions de « rattrapage », etc.
Ensuite, pour avoir enseigné à tous les niveaux (de L1 à M2, en formation initiale ou continue), il faut bien voir que tous les étudiants ne sont pas aussi dégourdis, même lorsqu'on parle de TD/TP. Je me souviens d'un élève de L1, en TD/TP de C, qui n'arrivait pas à répondre à une des questions pour tracer un truc sur l'écran (nous utilisions un framework « maison » à base de libSDL pour donner des primitives aux étudiants et qu'ils puissent « voir graphiquement » le résultat de leurs algorithmes). Je lui dit qu'il faut qu'il fasse un dessin de ce qu'il cherche à obtenir, et donc de prendre une feuille. Il me regarde avec des yeux bovins. Je lui dit (gentiment, mais un peu moqueur quand même), que la feuille doit sans doute se trouver dans son sac. Il finit par piger, et s'exécuter. Ce qui manquait à ce mec, ce n'est pas tant un environnement « rigide » qu'une certaine méthodologie. À côté de ça, j'ai eu des étudiants qui pigeaient direct, n'avaient besoin de moi que pour vérifier qu'ils avaient bon (ce qui était le cas 90% du temps). Ceux-là avaient généralement déjà intégré une certaine méthodologie de travail qui leur permettait d'avancer très vite (c'est-à-dire lire l'énoncé rapidement, repérer très vite les infos importantes, et donc passer plus de temps à résoudre le problème qu'à le comprendre).
Avec un Bac général et un échec retentissant à la fac comme on en voit de plus en plus, en raison de la baisse du niveau du bac […]
Bon, ce discours du « bac qui ne vaut plus grand chose » a tendance à m'énerver un chouïa. Le bac tel qu'il était passé dans les années 60 et 70 n'a plus rien à voir en termes de finalité avec l'actuel bac. Le premier était obtenu difficilement, après avoir passé le concours d'entrée en 6è, puis en 2nde, puis avoir passé la première partie du bac en 1ère, puis la deuxième en Terminale.
Le niveau global demandé au bac de nos jours n'est ni meilleur ni moins bon qu'il y a 50 ans. En fait je trouve très difficile de comparer les deux, étant donné la sérieuse différence entre un système qui globalement fonctionnait à l'élimination à la moindre erreur vs. le système actuel qui essaie d'élever le niveau global, quitte à faire doubler l'élève. Dans tous les cas nous avons un système relativement compétitif, mais l'ancien l'était dix fois plus que maintenant. Les maths sont plus « faciles » maintenant qu'avant dans les sections scientifiques ? Peut-être. Nous avons malgré tout énormément de très bons scientifiques au final en proportion ET en nombre absolu. Les contenus ont aussi énormément évolué, à mesure que notre connaissance du monde (sociologique, anthropologique, physique, biologique, etc.) a évolué. Quelqu'un qui prend des cours au lycée de nos jours doit composer avec une réalité très différente de celle que j'ai connue il y a ~15 ans quand j'étais au lycée, et encore plus différente d'il y a 30-40 ans. Ne pas accepter ça et vouloir comparer les épreuves de nos jours, avec les réalités et difficultés actuellement rencontrées sans mettre en perspective la réalité différente de l'époque, c'est faire preuve d'anachronisme.
Ceci étant dit, c'est bien parce que l'obtention du bac a largement augmenté qu'on ne peut plus juger la « valeur hiérarchique » bien pratique pour les entreprises. Pour effectuer un boulot « équivalent » à ce qui aurait été demandé il y a 30-40 ans, on demande désormais une licence minimum.
Le bac, lui, a remplacé le BEPC/brevet des collèges, en ce qu'il garantit la capacité d'une personne à savoir lire, écrire, et compter, et donc la certifie apte à exercer un métier non qualifié.
Quelle que soit la difficulté « réelle » du bac comparé à son homologue des années 50-70, l'épreuve en elle-même reste sans doute unique en son genre comparée aux autres pays occidentaux : on « séquestre » des millions d'élèves, six à huit heures par jour pendant une à deux semaines, et on les force à poser leur cul sur une chaise et l'Éducation Nationale attend d'eux qu'ils soient au top de leur forme, mentale et physique pour répondre à tous les sujets.
Enfin, en ce qui concerne l'échec en fac, cela vient surtout du fait (à mon avis) que, lorsque le collège unique a été créé en 1975, avoir « juste le bac » était malgré tout toujours suffisant pour obtenir un boulot avec des perspectives d'avenir. La fac (et encore moins les filières sélectives type IEP ou écoles d'ingénieur) ne s'est donc pas réellement sentie obligée de s'adapter à ces étudiants qui n'étaient pas tous issus du même moule : elles ont suivi un processus darwinien drastique, façon « après moi, le déluge ». Ce n'est pas pour rien que dans les IUT et BTS (entre autres), certains profs de maths, etc., sont aussi profs au lycée : ils sont le « pont » qui permet aux enseignants du supérieur (fusse-t-il technique/professionnel) de savoir ce que les élèves apprennent réellement, et quelles méthodes ils connaissent en réalité.
Si, aussi. C'est le problème d'écrire bourr… tard le soir. Tu as tout à fait raison : réutiliser la même donnée en mémoire relève de la temporalité, alors que bénéficier du fait qu'une ligne de plusieurs mots sont chargés lors d'un cache miss relève de la spatialité.
Pour répondre aux deux en même temps : « prédication » et « prédicater » sont deux barbarismes en Français. Par contre les deux termes sont utilisés en permanence en Anglais et dans les labos info, de la même manière que tout le monde dit « je préfetche la ligne, là, et … », et pas « je précharge la ligne ». :)
"Decode → Execute → Memory" n'est clairement pas un "risc".
J'ai oublié de relever : ça par contre je ne comprends pas. C'est un peu l'archétype de l'architecture RISC. Il y a simplement des moyens de faire un « forward » d'un étage à l'autre. C'est aussi ce qu'explique la page Wikipedia sur le pipeline RISC classique, ainsi que le Hennessy et Patterson (Hennessy est le monsieur derrière MIPS, donc je pense qu'il sait de quoi il cause…).
Donc l'étage « EX » peut être simplement le calcul d'adresse, et « Mem » l'accès effectif à cette adresse. Ensuite, « WB » sera utilisé ou pas (par exemple, si on fait un load, il faut bien écrire la valeur chargée dans un registre quelconque…).
Je comprends ce que tu veux dire, mais la raison pour laquelle beaucoup de gens (dont moi) disons que ce n'est pas du « vrai » CISC c'est vraiment parce que la notion de pipeline est intrinsèquement liée à l'architecture. Comme le dit Nicolas plus bas, Intel a mis le paquet pour que ça reste du CISC grâce à son décodeur (jusqu'à 6 instructions CISC décodées par cycle, c'est vraiment impressionnant).
Donc d'un côté je comprends ce que tu veux dire, et je ne peux qu’acquiescer; de l'autre, l'ISA d'un processeur donne généralement de gros indices sur la façon dont un processeur est architecturé. Les deux exceptions (pour moi) sont Intel/AMD avec leur version de x86 (mais comme je le dis plus bas, dès qu'on parle de performance, on revient à des programmes de type RISC avec séparation load/store et arithmétique), et Nvidia (avec PTX, une ISA « virtuelle », et dont la programmation « à la main » peut accélérer fortement les perfs d'un programme pour une version donnée d'une carte, et devenir médiocre pour la version suivante).
En pratique, lorsque j'avais du code SIMD à écrire en assembleur, je devais l'écrire « façon RISC » pour obtenir la meilleure performance (donc séparation des load/store, des opérations arithmétiques, etc.). C'est aussi (à mon avis) parce qu'il s'agit d'instructions plus récentes et qui donc peuvent se « permettre » d'être plus proche de la « réalité architecturale ».
Perdu, les banc de registres à fenêtre , c'est pour les appels de fonctions
Oups. L'idée était la bonne, la finalité non. Ensuite pour le « flush » oui, il faut bien le faire à un moment s'il n'y a plus de fenêtre de registre disponible. Je n'en ai pas parlé, mais parce que je trouvais ça évident.
Juste une remarque sur l'Itanium : il faut bien comprendre que la première génération était tout simplement ratée : Intel/HP étaient très en retard sur les délais, et ont dû sortir « un truc qui marche ». Bref, quand le Merced est sorti, bien sûr ça marchait, mais franchement, c'était plus un prototype qu'autre chose.
Lorsque l'Itanium 2 est sorti, il s'agissait de ce que la première génération aurait dû être, mais le mal était déjà fait. De plus, la chaîne de compilation d'Intel a mis deux générations à correctement utiliser les registres rotatifs pour effectuer un bon software pipelining.
Concernant ton exemple de la multiplication de matrices, j'ai envie de dire que c'est un « faux bon exemple » : le compilateur d'Intel (et probablement gcc, mais je n'ai pas vérifié) sait désormais appeler les routines BLAS qui vont bien une fois qu'il reconnaît un « idiome ».
Par contre une particularité d'icc pour IA64 était que, si on pouvait appeler des intrinsics, il était absolument impossible d'inliner de l'assembleur (ça provoquait une erreur de compilation).
Enfin, avec les versions 8 et ultérieures, icc avait des performances trois fois meilleures que gcc (je parle de la période 2005-2010). C'est normal cependant : un Itanium 2 ça coûte cher, c'est rare, et ce n'est utile que pour le calcul scientifique (les performances pour du calcul entier sont quand même assez minables). Forcément, optimiser gcc-IA64 n'était pas la priorité pour GCC…
La seule partie « CISC » du x86 est le couple fetch-decode du front-end. Pour les processeurs jusqu'à la micro-architecture Nehalem (6 pour Sandy Bridge et aussi sans doute Ivy Bridge, mais je n'ai pas suivi), le décodeur a quatre ports (considère ça comme des entrées) : le premier décode toutes les instructions CISC de 1 octet ou plus; les trois autres s'occupent d'instructions de 1 octet très exactement. Une fois le décodage effectué, tout le reste est bel et bien résolu comme pour une machine RISC classique. Il y a longtemps (plus de 10 ans), mon prof d'architecture appelait ça du « CRISC » : front-end CISC (étages IF et ID du pipeline), mais back-end RISC (tous les autres étages). Pour un processeur de type Pentium III ou Pentium 4, ça veut dire qu'environ 17% du temps est passé dans un module « CISC » (dans mes souvenirs le PIII avait 12 étages), et environ 6% pour le P4. En pratique comme les core 2 et suivants sont des évolutions du PIII, on peut toujours considérer que ~16-17% est passé dans le front-end.
Dire que le coeur x86 a derrière un RISC bof, ça n'a pas grand sens:
1) déjà c'est un jeu d'instruction qui est visible uniquement en interne: le compilateur n'y a pas accès. […]
C'est vrai.
Ce qui pose des contraintes par exemple pour l'accès aux registres: le compilateur peut-être obligé d'écrire un registre x86 en mémoire pour faire de la place alors que le CPU a bien assez de registres physiquement présent, mais ils sont cachés et inaccessible directement..
Je suis d'accord pour x86 non 64 bits (où on n'avait en gros que 15 registres adressables). À partir du moment où tu peux utiliser rax, rbx, …, r15, et en plus de cela tu peux aussi utiliser les xmm0, …, xmm15 comme s'il s'agissait de registres scalaires, tu as bien 32 registres. Je n'ai pas les références en tête, mais en gros, il a été montré qu'avec les heuristiques actuelles pour l'allocation de registres et l'ordonnancement d'instructions, sauf à avoir des codes vraiment très réguliers (donc typiquement du HPC ;-)), on n'exploitait pas correctement les registres et les solutions d'allocation sont souvent sub-optimales (ce qui est « normal » en soit : l'ordonnancement des instructions et l'allocation des registres sont deux problèmes NP-complets).
2) les micro instructions suivent-elle vraiment les principes du RISC […]
Oui. Là-dessus il n'y a absolument pas de doute possible.
Il faut bien comprendre qu'avant l'introduction de RISC, la seule façon (à ma connaissance) de garantir une instruction par cycle était à travers les processeurs vectoriels, tels que le (mythique) Cray-I. C'est-à-dire : on garantit que deux longs vecteurs de données (pour le Cray-I, il faut compter 2 vecteurs de 32 mots maximum chacun) sont chargés en mémoire. Ensuite on applique la même opération (+, -, etc.) sur deux mots (un de chaque vecteur), et on stocke le résultat quelque part pour chaque cycle. Bref, on garantit que les opérandes seront disponibles cycle après cycle pendant n cycles (32 par ex.). Comme on pouvait « chaîner » certaines opérations (multiplications puis additions par exemple), on pouvait gagner énormément de temps au final. Ici il s'agissait plus d'une sorte de « pipeline mémoire » que d'un pipeline d'instruction au final. Un système de masquage de bits permettait aussi de gérer les branchements conditionnels tant qu'au final une opération vectorielle allait s'effectuer.
Ce qu'a apporté le RISC comparé aux processeurs vectoriels, c'est la possibilité d'effectuer des instructions différentes cycle après cycle, et garantir qu'en moyenne, on aura bien un débit proche de une instruction par cycle (certes, grâce à un programmeur très compétent, ou un compilateur très intelligent).
Enfin, je vais donner un argument d'autorité :
les micro instructions suivent-elle vraiment les principes du RISC […] peut-être, peut-être pas, vous avez la doc d'Intel vous?
J'ai the next best thing : j'ai bossé (et je continue de bosser) avec Intel. Je ne suis pas un employé par contre. J'ai passé quelques années à faire des micro-benchmarks pour caractériser les architectures Intel (Core 2, Nehalem en particulier), et ça passait entre autres par des trucs du genre « faire des programmes "RISC" en x86 », « utiliser des instructions exotiques que personne n'utilise », « utiliser des instructions que le compilateur utilise souvent (genre lea) », etc.
Ensuite, la page wikipedia (langue anglaise) n'est pas sourcée lorsqu'elle affirme que derrière le front-end, on a un moteur RISC. AnandTech est d'accord avec moi et Wikipedia cependant, et d'un point de vue très pratique, faire un pipeline qui n'accepte pas des mots de taille identique est quelque chose d'assez compliqué à réaliser (et les bénéfices en termes de performance peuvent être éclipsés par l'énergie nécessaire pour mettre en œuvre ce genre de solution).
Ce n'est pas pour dire qu'il n'y a pas des optimisations possibles pour la partie CISC du processeur. Si tu vas sur le site d'Agner, tu verras qu'il décrit plutôt bien la façon dont les pipelines des différents processeurs sont réalisés. Il existe des mécanismes de « macro-fusion » qui permettent de « factoriser » certains traitements pour accélérer le décodage des instructions, etc.
Lorsque j'utilisais Mac OS X (il y a longtemps, certes), les binaires « de base » étaient certes la version BSD (et donc tu as raison, j'ai fait une généralisation grossière), mais les autres outils (tar, make, etc.) étaient clairement GNU.
[^] # Re: La science est la réponse mais…
Posté par lasher . En réponse au journal Le Golden rice et les bobos. Évalué à 4.
La science offre des possibilités. La recherche est d'ailleurs là, publiée, validée scientifiquement, etc. Ça inclut les potentiels effets de bord, et leur sévérité en termes de santé publique. Le boulot de la science est effectivement « fini » une fois arrivée à ce niveau.
Par contre, lorsque Green Peace (qui fait aussi des trucs bien hein, soyons clairs) critique l'utilisation d'un outil mis à disposition par la science, c'est quand même à moitié en critiquant la science derrière (avec des visées politiques en sous-main). Bref, ils jouent sur la peur, l'incertitude, et oui, les risques de mortalité… Sauf que ces risques ont déjà été évalués.
L'autre partie, c'est la partie politique et les intentions que GP prête aux défenseurs de la « solution golden rice ». Manque de bol, l'auteur du blog explique que
[^] # Re: La science est la réponse mais…
Posté par lasher . En réponse au journal Le Golden rice et les bobos. Évalué à 10.
J'aimerais comprendre en quoi c'est un problème. Je vais donner un exemple différent, qui se passe aux USA. Il est une pratique régulière dans pas mal d'états/villes US : rajouter du fluor dans l'eau potable. La raison est toute simple : l'hygiène dentaire de l'Américain moyen laisse à désirer d'une part, et les soins dentaires sont extrêmement chers (comme tout ce qui tient du médical, mais plus). Du coup les gens vont rarement chez le dentiste, car tout simplement ils ne peuvent pas se le permettre¹. Une solution pour en partie pallier ce problème est donc de renforcer la consommation de fluor en en rajoutant dans l'eau potable. Les doses en questions sont clairement très en dessous d'un quelconque seuil létal (et c'est strictement surveillé). Quand on a voulu instaurer ce système à Portland, les « bobos » locaux ont refusé et ont fait campagne contre. Ils ont gagné. Et la très grande population pauvre de la région, elle, a perdu une opportunité pour être en meilleure santé dentaire.
Qu'on soit bien d'accord : je trouve aberrant qu'on en arrive à devoir foutre du fluor d'office dans l'eau; les gens devraient savoir correctement prendre soin de leurs dents (brossage régulier, etc.). Le système de santé du pays/de l'état d’Oregon devrait aussi permettre une socialisation des dépenses de santé (pas forcément comme en France, mais clairement plus que ce qu'Obamacare propose). Mais c'est pas le cas, et étant donné la mentalité US, ce ne sera pas le cas avant looooooongtemps.
Donc une solution de moyen/long terme, c'est de fiche des quantités (prouvées) inoffensives fluor dans l'eau potable. Ça ne me plaît pas, mais c'est pas si grave au final.
J'en reviens au « golden rice » : si le riz lui-même est démontré être inoffensif; si la possibilité de « cross-pollinisation » elle-même est minime quant aux effets de bord, et si ça résout un problème sur le moyen/long terme, parce que très clairement, la révolution n'est pas prêt d'arriver dans les pays où on a besoin de ce genre de riz, où est le problème ?
Les compléments alimentaires dont tu parles pour une solution temporaire, on en envoie aussi, depuis des années. Ils ne sont pas prêts d'être produits localement, et donc ces pays dépendent de l'aide extérieure. Ce n'est clairement pas une solution viable à moyen ou long terme.
[1] Et quand ils doivent, on en est souvent à un point d'infection catastrophique, dangereux pour la santé, et qui en plus va coûter extrêmement cher au patient.
[^] # Re: Sérieux ?
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 2.
Idem. Mais je pense que, tout comme moi, tes lacunes n'étaient situées que pour l'année de 2nde (et p'tet un peu 3è). C'est ce que j'essayais d'expliquer plus tôt : le doublement ne sert que si les lacunes accumulées ne l'ont pas été sur trop d'années.
[^] # Re: Sérieux ?
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 2.
Si tu regardes comment ça marche en ce moment, les seuls moments où on doit redoubler (c'est-à-dire que les parents ne peuvent pas forcer la décision) sont aux moments d'orientation :
Toutes les autres années, si les parents estiment que le doublement n'est pas nécessaire, ils peuvent simplement faire objection à la décision du conseil de classe. Les profs un minimum subtils tentent de faire passer le message aux élèves (au moins en 1ère) : ceux à qui on conseille le doublement en 1ère et qui passent malgré tout doublent leur terminale à X% (je ne me souviens plus) en moyenne, et n'ont pas forcément une bonne note au bac. L'idée étant que les élèves convainquent leurs parents que le doublement en 1ère est nécessaire. Ça marche pas forcément très bien, mais au moins les élèves sont traités comme les (jeunes) adultes qu'ils sont, et ne sont pas pris en traître.
[^] # Re: Sérieux ?
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 4.
Le redoublement n'aide pas l'élève s'il est déjà trop tard, car l'accumulation des lacunes est trop importante. Si l'élève est « limite », alors le doublement sert deux objectifs :
Il y a aussi tout simplement parfois le fait qu'il faut à l'élève plus de temps pour mûrir et se bouger. Parfois, l'élève ne bougera pas beaucoup plus. Je pense que maclag a raison de vouloir réhabiliter les filières techno ou pro. Dans beaucoup de « bons » lycées on les diabolise, alors que l'important c'est qu'on devrait trouver une porte de sortie aux élèves. Mais ça veut aussi dire qu'on ne pousse pas les élèves vers des filières moribondes. Envoyer des élèves de 3è en lycée professionnel électro-technique, c'est globalement les envoyer à l'ANPE (pour 90% d'entre eux).
La façon dont on change les règles du jeu est aussi une prise de décision purement économique. Si on décide de réorienter plus tôt, c'est aussi parce qu'on estime que l'État ne devrait dépenser qu'un certain budget par élève en moyenne, et donc qu'arrivé à un certain âge, si l'élève n'a pas fait ses preuves, il va lui falloir aller dans une filière courte. En soi je n'ai pas forcément un problème avec ceci, si en retour il existe des ponts facilement utilisables pour revenir vers une filière plus généraliste plus tard.
J'ai plusieurs exemples autour de moi de gens qui ont « mal » commencé (lycée pro ou technique, parce qu'ils ne bossaient pas comme il fallait au collège). Leur remontée a été plus ou moins rapide. L'un a « perdu » 3 ou 4 ans de sa vie (bac pro, 1è d'adaptation puis Terminale, BTS, pour finalement… réussir un Master en communication/marketing). L'autre a obtenu son BTS haut la main, est retourné à la fac pour faire sciences de la matière en DEUG, puis a globalement passé sa vie comme un moine ou presque pour réussir un concours d'entrée en école d'ingénieur. J'ai quelques autres exemples autour de moi comme ça. Dans ces deux cas (et les quelques autres dont je suis au courant), il aura fallu une détermination sans faille, et souvent une petite aide des enseignants là où ils pouvaient (genre, foutre l'élève dans une mauvaise terminale de bac pro, pour que l'élève se distingue encore plus et puisse aller dans la 1ère d'adaptation dont je parlais tout à l'heure).
Bref ce que je veux dire, c'est que si on rend la réorientation plus facile dans un sens, il faut aussi faciliter la réorientation dans l'autre sens. Est-ce que ça vous paraît logique ?
[^] # Re: Commentaire bookmark
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 2.
Ooops. Merci. :)
[^] # Re: Commentaire bookmark
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 4.
On peut même récupérer le PDF complet ici. ;-)
[^] # Re: A l’ancienne
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 2.
C'est exactement ce que je décris dans mon commentaire : le chargé de TP savait. Il ne pouvait techniquement rien faire techniquement (au moins cette année-là, mais c'était sans doute vrai les années suivantes), puisqu'en pratique, l'élève avait le droit de ramener « des notes ». Il était aussi évident que le TP en lui-même ne pouvait être effectué dans le temps imparti (je ne parle pas de difficulté ici). Bref, au lieu de parler d'un zéro aléatoire, je te parle de paraître moins bon qu'un autre, qui est mieux connecté, qui sait comment le système fonctionne, et pire encore, que le système tolère (par l'intermédiaire des chargés de TP).
[^] # Re: Sérieux ?
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 2.
C'est une affirmation trop vague. Le niveau des facs ? Pour quel diplôme ? Et dans quel domaine ? À ma connaissance, au moins pour le niveau Master, les facs informatiques (qu'il s'agisse des facs parisiennes, toulousaines, ou lyonnaises) n'ont pas à rougir de quoi que ce soit.
[^] # Re: Sérieux ?
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 3.
Si tu relis mon antépénultième paragraphe, tu verras que ce que je le dis. Mais ça n'a (selon moi) rien à voir avec le niveau ou la capacité à exercer un métier. La plupart des métiers ne requièrent pas plus que lire/écrire/compter … et un certain sens de la sociabilité. Un certain nombre de gens qui obtiennent un job grâce à leur réseau et pas tellement grâce à leurs diplômes. Simplement, plutôt que s'appuyer sur le système éducatif français pour former les gens avant de les embaucher, ces boites acceptent (parce que c'est le fils de Machin, ou que Bidule est un bon pote) de former les nouveaux au métier.
Les formations professionnalisantes permettent juste « d'industrialiser » ce phénomène à mon avis. Et du coup, les boites, bien contentes de ne pas avoir à former un technicien, réclament un BTS/DUT/licence minimum, car comme ça le coût de la formation est socialisé/mutualisé. En soi c'est parfaitement compréhensible et logique. Après, je trouve que parfois ça mène à un aveuglement (les gens de dlfp le savent sans doute mieux que d'autres; après tout, l'outil informatique est sans doute l'un des plus grands « égalisateurs » en termes d'auto-formation…).
[^] # Re: A l’ancienne
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 8.
Techniquement c'était pas de la triche. On avait les énoncés de TP à l'avance, et n'importe qui pouvait avoir tout préparé du point de vue théorique avant d'entrer dans la salle de cours. En pratique, comme par définition il y a une partie « pratique » à un TP, il était impossible de réussir à répondre correctement à ce TP précisément (qui faisait — évidemment — partie des deux TP notés) dans l'heure et demie qui était prévue. C'était devenu plus ou moins une tarte à la crème : sujet « infaisable » mais qui ne changeait jamais d'une année à l'autre, et du coup les TP d'anciens se passaient de main à main, d'année en année. J'avais beau avoir préparé le truc avec ma binôme à l'époque, j'avais été trop fier pour récupérer le TP en question et étudier les réponses. Résultat : je fulminais, parce que j'en voyais certains qui n'essayaient même pas de construire le circuit et réaliser les programmes demandés. À la place, ils recopiaient le TP d'ancien — pardon, leurs « notes de préparation ». C'est assez rageant quand, les 5 TP (non-notés) d'avant, c'est toi qui aidais tes voisins pour réaliser les circuits ou piger pourquoi tel comportement était attendu, etc. Le chargé de TP de l'époque, qui en avait eu marre de me voir grogner, m'avait sorti un « écoute, t'avais tout un semestre pour trouver un TP d'ancien ».
Ma remarque n'était pas là pour dire que c'est « juste » ou « bien ». Juste que ce genre de truc « pas justes » qui récompense plus le mec qui a « des connexions » que le mec qui veut faire dans les règles, je l'ai réellement vu à l'œuvre pour la première fois en école d'ingé. Au lycée ou en IUT, j'avais jamais eu ce genre de problème. Et quelque part, oui, c'est formateur. Mieux vaut l'apprendre quand il n'y a pas encore de grosses conséquences (une note de TP, ça se rattrape), que lorsque ça arrive « dans la vraie vie ».
[^] # Re: Sérieux ?
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 2.
Oui enfin, ça, c'est dépendant de ta fac. :-)
Pour le reste, j'ai écrit deux-trois posts sur ce threads qui convergent vers la même conclusion que toi. ;-)
[^] # Re: A l’ancienne
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 2.
S'il y a un truc que l'école d'ingé m'a appris sur « la vraie vie », c'est que parfois tricher est la seule manière de s'en sortir pour certains TP… Aaah, les TP d'élec infaisables dans le temps imparti sans avoir un TP d'ancien sous le coude…
[^] # Re: Sérieux ?
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 2.
Je suis globalement d'accord avec ton analyse. Cependant :
Je suis partiellement d'accord avec ça. D'un côté je pense que tu décris quelque chose de factuel. D'un autre, je sais que beaucoup de gens (dont moi) ne peuvent pas/n'auraient pas pu intégrer une école d'ingénieur en passant par la case fac ou prépa, ou même accéder à un quelconque master en règle générale. Il peut s'agir d'un manque de maturité, de motivation, etc. Mais c'est aussi une réalité.
Il faut aussi se souvenir qu'en moyenne seuls les 5-10% du haut d'une promotion d'IUT et peut-être les 2-3% du haut d'une promotion de STS peuvent ensuite intégrer une école d'ingénieur. Le reste va soit en licence pro ou un IUP (et de toute manière avec la réforme d'il y a ~10 ans pour l'harmonisation des formations universitaires en Europe, ce n'est pas un mal), soit ils vont bosser.
En moyenne il y a ~10 ans, un étudiant en fac coûtait ~6000€, un étudiant d'IUT ~8000€, et un étudiant d'école d'ingénieur ~12000€ (je n'ai pas les liens sur moi, mais trouver la source ne devrait pas être trop difficile). Si on regarde comme ça, alors la fac est plutôt efficace comparée aux moyens par étudiant. Sans compter le fait que mes (modiques) frais d'inscriptions étaient doublés en école d'ingénieur par rapport à ceux de la fac (~600€ pour l'école, ~300€ pour mon M2).
Oui. Après, je pourrais citer Franck Lepage et ses conférences gesticulées (qui ont été citées à maintes reprises sur dlfp). ;-)
C'est un peu ce que j'essayais de dire dans un autre message sur ce thread. Ceci étant dit, de même que Di Cosmo admettait dans Le hold-up planétaire que si MS avait réussi à foutre du Windows 95 partout dans les facs, c'était aussi un peu à cause des chercheurs qui snobaient les PC par rapport aux « stations de travail » sous UNIX, la même chose est arrivée avec les profs de fac : il y a massification des élèves dans le secondaire, certes, mais ils n'ont pas voulu changer quoi que ce soit.
Tu as des liens à donner à ce sujet ?
[^] # Re: Sérieux ?
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 3.
Les facs tentent de changer ceci, avec des périodes de tutorat, plus de TP, de trucs pratiques en règle générale, des sessions de « rattrapage », etc.
Ensuite, pour avoir enseigné à tous les niveaux (de L1 à M2, en formation initiale ou continue), il faut bien voir que tous les étudiants ne sont pas aussi dégourdis, même lorsqu'on parle de TD/TP. Je me souviens d'un élève de L1, en TD/TP de C, qui n'arrivait pas à répondre à une des questions pour tracer un truc sur l'écran (nous utilisions un framework « maison » à base de libSDL pour donner des primitives aux étudiants et qu'ils puissent « voir graphiquement » le résultat de leurs algorithmes). Je lui dit qu'il faut qu'il fasse un dessin de ce qu'il cherche à obtenir, et donc de prendre une feuille. Il me regarde avec des yeux bovins. Je lui dit (gentiment, mais un peu moqueur quand même), que la feuille doit sans doute se trouver dans son sac. Il finit par piger, et s'exécuter. Ce qui manquait à ce mec, ce n'est pas tant un environnement « rigide » qu'une certaine méthodologie. À côté de ça, j'ai eu des étudiants qui pigeaient direct, n'avaient besoin de moi que pour vérifier qu'ils avaient bon (ce qui était le cas 90% du temps). Ceux-là avaient généralement déjà intégré une certaine méthodologie de travail qui leur permettait d'avancer très vite (c'est-à-dire lire l'énoncé rapidement, repérer très vite les infos importantes, et donc passer plus de temps à résoudre le problème qu'à le comprendre).
[^] # Re: Sérieux ?
Posté par lasher . En réponse au journal Privé de bac à cause d'un logiciel propriétaire. Évalué à 10.
Bon, ce discours du « bac qui ne vaut plus grand chose » a tendance à m'énerver un chouïa. Le bac tel qu'il était passé dans les années 60 et 70 n'a plus rien à voir en termes de finalité avec l'actuel bac. Le premier était obtenu difficilement, après avoir passé le concours d'entrée en 6è, puis en 2nde, puis avoir passé la première partie du bac en 1ère, puis la deuxième en Terminale.
Le niveau global demandé au bac de nos jours n'est ni meilleur ni moins bon qu'il y a 50 ans. En fait je trouve très difficile de comparer les deux, étant donné la sérieuse différence entre un système qui globalement fonctionnait à l'élimination à la moindre erreur vs. le système actuel qui essaie d'élever le niveau global, quitte à faire doubler l'élève. Dans tous les cas nous avons un système relativement compétitif, mais l'ancien l'était dix fois plus que maintenant. Les maths sont plus « faciles » maintenant qu'avant dans les sections scientifiques ? Peut-être. Nous avons malgré tout énormément de très bons scientifiques au final en proportion ET en nombre absolu. Les contenus ont aussi énormément évolué, à mesure que notre connaissance du monde (sociologique, anthropologique, physique, biologique, etc.) a évolué. Quelqu'un qui prend des cours au lycée de nos jours doit composer avec une réalité très différente de celle que j'ai connue il y a ~15 ans quand j'étais au lycée, et encore plus différente d'il y a 30-40 ans. Ne pas accepter ça et vouloir comparer les épreuves de nos jours, avec les réalités et difficultés actuellement rencontrées sans mettre en perspective la réalité différente de l'époque, c'est faire preuve d'anachronisme.
Ceci étant dit, c'est bien parce que l'obtention du bac a largement augmenté qu'on ne peut plus juger la « valeur hiérarchique » bien pratique pour les entreprises. Pour effectuer un boulot « équivalent » à ce qui aurait été demandé il y a 30-40 ans, on demande désormais une licence minimum.
Le bac, lui, a remplacé le BEPC/brevet des collèges, en ce qu'il garantit la capacité d'une personne à savoir lire, écrire, et compter, et donc la certifie apte à exercer un métier non qualifié.
Quelle que soit la difficulté « réelle » du bac comparé à son homologue des années 50-70, l'épreuve en elle-même reste sans doute unique en son genre comparée aux autres pays occidentaux : on « séquestre » des millions d'élèves, six à huit heures par jour pendant une à deux semaines, et on les force à poser leur cul sur une chaise et l'Éducation Nationale attend d'eux qu'ils soient au top de leur forme, mentale et physique pour répondre à tous les sujets.
Enfin, en ce qui concerne l'échec en fac, cela vient surtout du fait (à mon avis) que, lorsque le collège unique a été créé en 1975, avoir « juste le bac » était malgré tout toujours suffisant pour obtenir un boulot avec des perspectives d'avenir. La fac (et encore moins les filières sélectives type IEP ou écoles d'ingénieur) ne s'est donc pas réellement sentie obligée de s'adapter à ces étudiants qui n'étaient pas tous issus du même moule : elles ont suivi un processus darwinien drastique, façon « après moi, le déluge ». Ce n'est pas pour rien que dans les IUT et BTS (entre autres), certains profs de maths, etc., sont aussi profs au lycée : ils sont le « pont » qui permet aux enseignants du supérieur (fusse-t-il technique/professionnel) de savoir ce que les élèves apprennent réellement, et quelles méthodes ils connaissent en réalité.
[^] # Re: Principe de localité
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 5.
Si, aussi. C'est le problème d'écrire bourr… tard le soir. Tu as tout à fait raison : réutiliser la même donnée en mémoire relève de la temporalité, alors que bénéficier du fait qu'une ligne de plusieurs mots sont chargés lors d'un cache miss relève de la spatialité.
[^] # Re: prédication ?
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 4.
Pour répondre aux deux en même temps : « prédication » et « prédicater » sont deux barbarismes en Français. Par contre les deux termes sont utilisés en permanence en Anglais et dans les labos info, de la même manière que tout le monde dit « je préfetche la ligne, là, et … », et pas « je précharge la ligne ». :)
[^] # Re: quelques trucs !
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 5.
J'ai oublié de relever : ça par contre je ne comprends pas. C'est un peu l'archétype de l'architecture RISC. Il y a simplement des moyens de faire un « forward » d'un étage à l'autre. C'est aussi ce qu'explique la page Wikipedia sur le pipeline RISC classique, ainsi que le Hennessy et Patterson (Hennessy est le monsieur derrière MIPS, donc je pense qu'il sait de quoi il cause…).
Donc l'étage « EX » peut être simplement le calcul d'adresse, et « Mem » l'accès effectif à cette adresse. Ensuite, « WB » sera utilisé ou pas (par exemple, si on fait un load, il faut bien écrire la valeur chargée dans un registre quelconque…).
[^] # Re: Je maintiens qu'il y a une partie qui n'est pas terrible
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 6.
Je comprends ce que tu veux dire, mais la raison pour laquelle beaucoup de gens (dont moi) disons que ce n'est pas du « vrai » CISC c'est vraiment parce que la notion de pipeline est intrinsèquement liée à l'architecture. Comme le dit Nicolas plus bas, Intel a mis le paquet pour que ça reste du CISC grâce à son décodeur (jusqu'à 6 instructions CISC décodées par cycle, c'est vraiment impressionnant).
Donc d'un côté je comprends ce que tu veux dire, et je ne peux qu’acquiescer; de l'autre, l'ISA d'un processeur donne généralement de gros indices sur la façon dont un processeur est architecturé. Les deux exceptions (pour moi) sont Intel/AMD avec leur version de x86 (mais comme je le dis plus bas, dès qu'on parle de performance, on revient à des programmes de type RISC avec séparation load/store et arithmétique), et Nvidia (avec PTX, une ISA « virtuelle », et dont la programmation « à la main » peut accélérer fortement les perfs d'un programme pour une version donnée d'une carte, et devenir médiocre pour la version suivante).
En pratique, lorsque j'avais du code SIMD à écrire en assembleur, je devais l'écrire « façon RISC » pour obtenir la meilleure performance (donc séparation des load/store, des opérations arithmétiques, etc.). C'est aussi (à mon avis) parce qu'il s'agit d'instructions plus récentes et qui donc peuvent se « permettre » d'être plus proche de la « réalité architecturale ».
[^] # Re: quelques trucs !
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 4.
Oups. L'idée était la bonne, la finalité non. Ensuite pour le « flush » oui, il faut bien le faire à un moment s'il n'y a plus de fenêtre de registre disponible. Je n'en ai pas parlé, mais parce que je trouvais ça évident.
Merci pour la correction !
[^] # Re: De la nécessité de faire des incantations vaudou sur le code
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 6.
Juste une remarque sur l'Itanium : il faut bien comprendre que la première génération était tout simplement ratée : Intel/HP étaient très en retard sur les délais, et ont dû sortir « un truc qui marche ». Bref, quand le Merced est sorti, bien sûr ça marchait, mais franchement, c'était plus un prototype qu'autre chose.
Lorsque l'Itanium 2 est sorti, il s'agissait de ce que la première génération aurait dû être, mais le mal était déjà fait. De plus, la chaîne de compilation d'Intel a mis deux générations à correctement utiliser les registres rotatifs pour effectuer un bon software pipelining.
Concernant ton exemple de la multiplication de matrices, j'ai envie de dire que c'est un « faux bon exemple » : le compilateur d'Intel (et probablement gcc, mais je n'ai pas vérifié) sait désormais appeler les routines BLAS qui vont bien une fois qu'il reconnaît un « idiome ».
Par contre une particularité d'icc pour IA64 était que, si on pouvait appeler des intrinsics, il était absolument impossible d'inliner de l'assembleur (ça provoquait une erreur de compilation).
Enfin, avec les versions 8 et ultérieures,
icc
avait des performances trois fois meilleures quegcc
(je parle de la période 2005-2010). C'est normal cependant : un Itanium 2 ça coûte cher, c'est rare, et ce n'est utile que pour le calcul scientifique (les performances pour du calcul entier sont quand même assez minables). Forcément, optimiser gcc-IA64 n'était pas la priorité pour GCC…[^] # Re: Petite erreur
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 2.
Si, totalement. Bon, j'ai pas mal trituré mes codes, mais celui-là, je suis allé un peu vite. Y a-t-il un modérateur qui pourrait changer le code ? :)
[^] # Re: Je maintiens qu'il y a une partie qui n'est pas terrible
Posté par lasher . En réponse à la dépêche Où vont les supercalculateurs ? D’où on vient, quels sont les problèmes, où l’on va (1re partie). Évalué à 10.
La seule partie « CISC » du x86 est le couple fetch-decode du front-end. Pour les processeurs jusqu'à la micro-architecture Nehalem (6 pour Sandy Bridge et aussi sans doute Ivy Bridge, mais je n'ai pas suivi), le décodeur a quatre ports (considère ça comme des entrées) : le premier décode toutes les instructions CISC de 1 octet ou plus; les trois autres s'occupent d'instructions de 1 octet très exactement. Une fois le décodage effectué, tout le reste est bel et bien résolu comme pour une machine RISC classique. Il y a longtemps (plus de 10 ans), mon prof d'architecture appelait ça du « CRISC » : front-end CISC (étages IF et ID du pipeline), mais back-end RISC (tous les autres étages). Pour un processeur de type Pentium III ou Pentium 4, ça veut dire qu'environ 17% du temps est passé dans un module « CISC » (dans mes souvenirs le PIII avait 12 étages), et environ 6% pour le P4. En pratique comme les core 2 et suivants sont des évolutions du PIII, on peut toujours considérer que ~16-17% est passé dans le front-end.
C'est vrai.
Je suis d'accord pour x86 non 64 bits (où on n'avait en gros que 15 registres adressables). À partir du moment où tu peux utiliser
rax
,rbx
, …,r15
, et en plus de cela tu peux aussi utiliser lesxmm0
, …,xmm15
comme s'il s'agissait de registres scalaires, tu as bien 32 registres. Je n'ai pas les références en tête, mais en gros, il a été montré qu'avec les heuristiques actuelles pour l'allocation de registres et l'ordonnancement d'instructions, sauf à avoir des codes vraiment très réguliers (donc typiquement du HPC ;-)), on n'exploitait pas correctement les registres et les solutions d'allocation sont souvent sub-optimales (ce qui est « normal » en soit : l'ordonnancement des instructions et l'allocation des registres sont deux problèmes NP-complets).Oui. Là-dessus il n'y a absolument pas de doute possible.
Il faut bien comprendre qu'avant l'introduction de RISC, la seule façon (à ma connaissance) de garantir une instruction par cycle était à travers les processeurs vectoriels, tels que le (mythique) Cray-I. C'est-à-dire : on garantit que deux longs vecteurs de données (pour le Cray-I, il faut compter 2 vecteurs de 32 mots maximum chacun) sont chargés en mémoire. Ensuite on applique la même opération (
+
,-
, etc.) sur deux mots (un de chaque vecteur), et on stocke le résultat quelque part pour chaque cycle. Bref, on garantit que les opérandes seront disponibles cycle après cycle pendantn
cycles (32 par ex.). Comme on pouvait « chaîner » certaines opérations (multiplications puis additions par exemple), on pouvait gagner énormément de temps au final. Ici il s'agissait plus d'une sorte de « pipeline mémoire » que d'un pipeline d'instruction au final. Un système de masquage de bits permettait aussi de gérer les branchements conditionnels tant qu'au final une opération vectorielle allait s'effectuer.Ce qu'a apporté le RISC comparé aux processeurs vectoriels, c'est la possibilité d'effectuer des instructions différentes cycle après cycle, et garantir qu'en moyenne, on aura bien un débit proche de une instruction par cycle (certes, grâce à un programmeur très compétent, ou un compilateur très intelligent).
Enfin, je vais donner un argument d'autorité :
J'ai the next best thing : j'ai bossé (et je continue de bosser) avec Intel. Je ne suis pas un employé par contre. J'ai passé quelques années à faire des micro-benchmarks pour caractériser les architectures Intel (Core 2, Nehalem en particulier), et ça passait entre autres par des trucs du genre « faire des programmes "RISC" en x86 », « utiliser des instructions exotiques que personne n'utilise », « utiliser des instructions que le compilateur utilise souvent (genre
lea
) », etc.Ensuite, la page wikipedia (langue anglaise) n'est pas sourcée lorsqu'elle affirme que derrière le front-end, on a un moteur RISC. AnandTech est d'accord avec moi et Wikipedia cependant, et d'un point de vue très pratique, faire un pipeline qui n'accepte pas des mots de taille identique est quelque chose d'assez compliqué à réaliser (et les bénéfices en termes de performance peuvent être éclipsés par l'énergie nécessaire pour mettre en œuvre ce genre de solution).
Ce n'est pas pour dire qu'il n'y a pas des optimisations possibles pour la partie CISC du processeur. Si tu vas sur le site d'Agner, tu verras qu'il décrit plutôt bien la façon dont les pipelines des différents processeurs sont réalisés. Il existe des mécanismes de « macro-fusion » qui permettent de « factoriser » certains traitements pour accélérer le décodage des instructions, etc.
[^] # Re: Grub
Posté par lasher . En réponse au journal Orbis OS le système qui ferait fonctionner la PS4 serait-il un FreeBSD ou un OpenSuse ?. Évalué à 3.
Déjà, tu as raison.
Lorsque j'utilisais Mac OS X (il y a longtemps, certes), les binaires « de base » étaient certes la version BSD (et donc tu as raison, j'ai fait une généralisation grossière), mais les autres outils (tar, make, etc.) étaient clairement GNU.