Ben en ce qui me concerne, la seule gestion de projet que j'ai apprise, c'est en IUT (et depuis, j'avoue que j'ai tout oublié). Pour ce qui est des méthodes agiles etc, c'est exactement le genre de trucs que tu peux apprendre sur le tas en entreprise. J'aurais pu approfondir tout ça en école d'ingé, mais j'avoue que j'étais plus intéressé par l'apprentissage de matières que je n'avais jamais vues auparavant (logique floue et intelligence artificielle, par exemple).
Par contre, ce qui fait que je ne regrette pas l'école d'ingé, c'est que l'environnement de l'école en lui-même encourage les étudiants à savoir s'organiser, gérer le travail et les tâches à répartir, etc... En IUT, j'étais une fois sur deux (en restant optimiste) avec un étudiant qui ne pigeait pas grand chose, ce qui me forçait à tout faire moi-même. Ça m'a été très bénéfique d'un point de vue technique, mais ça m'a juste appris à me mettre sérieusement à bosser par moi-même.
Je ne vois honnêtement pas en quoi une école d'ingé apprend à ses étudiants à être architectes. J'ai enseigné dans une école d'ingé qui voulait/veut proposer une spécialisation d'architecte des systèmes d'information, et de mon point de vue, c'était mettre la charrue avant les bœufs: les étudiants qui allaient faire cette spécialité auraient un background technique beaucoup plus faible que les autres, au profit d'une vision bien plus « managériale » (ie plus haut niveau) du SI de la boite. C'est typiquement le genre de formation que je donnerais à un ingé qui a 3-5 ans d'XP et qui veut monter dans la hiérarchie en ralentissant sur le côté technique pur, mais franchement, un étudiant qui n'a pas plus d'un an d'expérience dans le monde du travail et sur ses procédés en sortant de l'école risque d'avoir beaucoup de mal à se faire accepter (vu qu'il vise à être chef), sauf à être très très bon ...
Je pense qu'il faut plutôt voir le « marché » en question comme un marché interne au FAI: pour des besoins qui lui sont propres, le FAI va proposer des IP dynamiques par défaut (comme actuellement en fait pour IPv4).
On peut aussi imaginer des opérateurs virtuels (un peu comme ce qu'on a en téléphonie) qui auraient une plage d'adresses réduite, et qui donc ne pourraient faire que de l'offre avec IP dynamiques (avec en contrepartie un prix moins élevé).
Enfin, comme tu le dis, l'intérêt du particulier pour une adresse dynamique est sans doute nul dans 99% des cas. Sachant que dans 90% des cas, l'utilisateur se contrefiche d'avoir une IP statique ou dynamique, car il ne sait même pas comment ça fonctionne...
Non. Je ne suis pas concerné par la chasse aux criminels. La police est concernée. Et si la police me demande officiellement ma collaboration, alors je peux -- ou je dois, en fonction de ce qui m'est demandé et comment c'est demandé -- lui porter assistance.
La seule chose que je suis censé faire en tant que simple citoyen, c'est de porter assistance à une ou plusieurs personnes en danger. La plupart du temps, ça passe par appeler ladite police. Parce que moi Vs. un 9mm, je crois bien que je perds, par exemple.
Ou moi contre un site pédophile, je perds aussi, sauf à avoir les compétences pour remonter la chaîne des IPs volées/dynamiques utilisées pour héberger ce genre de sites (ce qui n'est pas mon cas). Par exemple, je me souviens avoir été spammé très souvent sur ICQ à un époque, par des robots russes pour des filles mineures. Je ne pouvais pas faire grand chose, mis à part avertir les autorités compétentes (qui ont pris note, mais m'ont répondu que malheureusement entre le moment où je reçois ce genre de pub et le moment où ils traitent la masse de mails du même genre que le mien, le site a eu le temps de disparaître ...).
« plus facile de dépenser 300€ que de chercher un truc ) 10€, c'est évident. »
Sarcasme mis à part, je n'ai effectivement cherché que dans des magasins type rue Montgallet.
« si ton Duraon 650MHz t'allais bien, tu pouvait te faire filer sans soucis des unités centrales au moins aussi puissante (les premiers PIV ne se vendent quasiment plus, ils se donnent !) »
Il ne faut pas confondre « utiliser son matos aussi longtemps que possible » et « bon, ça a cassé pour de bon, autant racheter une machine qui va pouvoir me tenir 5-8 ans de plus ». Parce que bon, même boostée, ma machine était quand même poussive sur la fin. Compiler certains projets qui compilent sur ma nouvelle machine en 3 minutes pouvait prendre un temps pifométrique vraiment long.
Le Duron (650MHz) a eu droit à plusieurs liftings aussi. Simplement, la carte mère est morte, et du coup il est plus simple de racheter un Core2 ou Core i5 (ou un processeur AMD) avec la carte-mère qui va bien pour 300€ que de chercher une carte mère spécifiquement pour mon processeur.
Sinon, en moyenne mes ordinateurs m'ont toujours duré au moins 5 ans. J'ai toujours un 386 AMD datant de 1992, avec 4Mo de RAM et 1 Mo de vidéo, qui sert à jouer à de vieux jeux DOS... :-)
Nous n'avons pas la même notion de « vieux ». J'ai utilisé un AMD Duron de 2002 à (grosso-modo) 2009, et mon portable était un powerpc (ibook) qui m'a duré cinq ans (2004-2009), et peut toujours servir d'unité centrale si besoin.
Et ensuite, on pourrait aussi dire « la version de votre navigateur ne nous revient pas, installez Chrome ou bien allez vous faire voir ». Non ? Bon bon, --> []
Comme dirait quelqu'un de ma connaissance et bossant pour ce genre de trucs (web design, etc.), le seul petit problème est que des tera-octets de données utilisent h264. Si le support natif n'existe pas pour celui-ci, ça ne veut pas dire que WebM va être suivi. Au mieux, on retourne sur du Flash (qui effectivement n'est pas mieux niveau brevets/techno proprio).
Bon, ça fait un bout de temps que COBOL est utilisé en entreprise (surtout les banques et assurances), et je n'ai pas vraiment l'impression que ce soit parce que c'est le meilleur langage pour faire le boulot... Plutôt qu'il est là et que désormais il fait partie des parties critiques du système -- et donc il est difficile/dangereux d'y toucher.
Ben, entre les crashs, il était utilisable au moins. Prétendre qu'un bureau graphique Linux (ou Un*x) de l'époque était utilisable sans toucher à la ligne de commande, c'est de la mauvaise foi.
D'une part, je n'ai jamais rien dit concernant la ligne de commande.
D'autre part, en 95, un poste de travail classique est plus ou moins uniquement concentré sur des applications lourdes (le web, on en est encore loin). Je n'ai jamais utilisé ApplixWare, je ne peux pas me prononcer sur ses qualités ou défauts. Néanmoins elle a été utilisée, de ça je suis certain. Je ne peux juste pas dire comment elle se comparait face a MS-Office (<=95, parce qu'il ne faut pas oublier que tout le monde ne passait pas forcément aux nouvelles versions dès qu'elles sortaient -- comme maintenant quoi). Je te demande donc: quel genre d'application était nécessaire a l'époque selon toi ? (pas des noms de softs, mais le genre qui était réellement utilisé) J'ai franchement l'impression que :
- les Mac étaient encore dominants pour tout ce qui était graphisme
- on parlait encore des stations SGI (donc UNIX proprio, et interface graphique idem, certes)
- tout le reste des applications étaient soient des trucs métier extrêmement ciblés et qui bien souvent restaient des machins DOS-isants ...
Oui, devoir former les gens à un environnement confidentiel et super rudimentaire, et assurer le support derrière, c'est vraiment un point de détail. Et d'ailleurs, quelles entreprises solides proposaient ce genre de service à l'époque ?
Euh, je parle d'une bête icone rajoutée par le sysadmin pour gérer le montage d'une disquette. Pas de changer l’intégralité de l'environnement de travail de l'utilisateur.
A écouter les militants libristes, les gens (y compris ceux qui n'ont rien à battre de l'informatique) devraient tout sacrifier de façon Désinteressée et Altruiste (tm) à la Cause. Faudra découvrir la vraie vie un jour.
Non mais tu devrais lire ce que tu écris (et ce à quoi tu réponds) à voix haute des fois avant de cliquer sur envoyer. Reviens en 1995 deux secondes : l'USB n'existe pas (et donc pas de disque dur externe, ni de machins multimédia, etc.), le moyen le plus commun pour échanger des données est la disquette (les graveurs sont hors de prix à l’époque pour un usage "commun"), les outils de bureautique sont la plupart du temps réduits à un logiciel de traitement de texte et un tableur, tout un tas d'applications sont encore DOS-only, et les gens savent ce qu'est une ligne de commande (même si la plupart du temps, ils connaissent juste un enchaînement de commandes pour faire tourner une appli précise).
Il faut arrêter de confondre utilisabilité et zigouigouis graphiques à la KDE/Compiz.
Je ne pensais vraiment pas à ça. Point de vue finition (fontes, etc), je n'ai vraiment pas souvenir que Win95 fut si avancé que ca comparé aux environnements de bureau concurrents sous UNIX/Linux.
Oui, donc, comme personne ne faisait le boulot en amont, il aurait fallu que chaque entreprise s'offre les services d'ergonomes professionels et de spécialistes du bousin pour le configurer aux petits oignons ?
Voyons, laisse-moi réfléchir. Je viens d'avoir une idée révolutionnaire: configurer UN poste comme il faut, et tout simplement faire une image de ce dernier et la reproduire ensuite pour les autres postes de l'entreprise. Je sais, c'est vraiment trop con que les admins d'il y a quinze ans n'y aient pas pensé. No, wait, ...
Blague à part : Win95 pour un particulier apportait quelque chose de "bien" par rapport à Linux: les drivers (nous passerons sur le fait que si les constructeurs avaient filé les sources de leur matos, Linux aurait sans doute pu les avoir aussi, avec quelques mois de retard...). Sous Linux, manipuler des cartes ISA pouvait vraiment mener à une grosse prise de tête. En particulier les machins soit-disant plug-and-play (qui étaient plutôt plug-n-plante, même sous Win95).
Très honnêtement, autant si tu avais défendu Win2000 ou WinXP (ou même dans une certaine mesure Windows 98), j'aurais pu comprendre, car la différence de qualité est flagrante, autant Windows 95 n'a juste rien pour lui.
Au moment de la sortie de Win95, tout etait encore possible pour Linux et les UNICES, car la stabilité du système était encore en faveur de ces derniers, et du point de vue ergonomie, etc, au mieux l'environnement graphique de Win95 faisait jeu égal, mais en moyenne je dirais qu'un environnement de type AfterStep était bien plus ergonomique.
Oui alors, j'ai souvenir d'un énergumène qui n'arrêtait pas de vouloir vendre PICK sur fr.comp.applications.sgbd (helios qu'il se faisait appeler), en expliquant que c'était tout plusse mieux que le reste. Et tout plein de gens lui expliquaient que son système ressemblait plus à un OS dans l'OS, qui réinventait la roue 10 fois pour pouvoir faire tout ce qu'un système de bases de données multivaluées est censé faire.
Et quand j'en parlais à des chercheurs en BD, ils connaissaient PICK & co, mais n'étaient pas vraiment impressionnés non plus. Alors quand ni les professionnels du secteur privé, ni les académiques ne semblent dire que ce genre de système est viable, j'ai tendance à me méfier...
Je ne connais pas en détails la micro-architecture des processeurs AMD, et je doute avoir la patience de regarder l'intégralité des documents de Agner Fog, mais si toi tu l'as ... :-)
Quand je bossais sur la mesure de performances des processeurs Intel, nous nous servions de ses documents pour avoir un point de comparaison. Dans 90% des cas, nous avions les mêmes conclusions.
Ma seule réponse « éclairée » est « je ne sais pas ». :-) J'ai déjà passé 4 ans de ma vie à essayer de trouver comment contourner les limitations des Itanium 2, Core 2 (notamment pour le préfetch) et le Core i7 (avec ou sans bus segmenté), ce qui représente un boulot , à plein temps ...
Les seules études que j'ai pu lire concernaient la comparaison des comportements mémoire sur des systèmes multiprocesseurs entre AMD/Opteron et Intel/Core i7. Intel s'en sortait vraiment mieux dans la plupart des cas, car sur Opteron le cache L3 est non-inclusif au contraire du Core i7. Cependant je trouve que la comparaison était relativement peu équilibrée car au moment de la comparaison l'Opteron n'avait pas vraiment subit de changement radical depuis quelques années, au contraire du Core i7 qui ne fait « que » reprendre le Core 2 pour l'architecture du côté arithmétique (entiers et flottants) pour chaque cœur, au contraire du système mémoire qui a beaucoup bougé en en quelques années (par exemple sur un Nehalem EP je peux facilement saturer le bus qui mène au cache L3, alors que sur une version XE sortie à peine un an et demi plus tard, cette limitation a été en grande partie annulée).
Par contre, si tu as une machine AMD que tu veux tester, je te conseille fortement de regarder du côté de LIKWID, un logiciel libre qui permet d'écrire ses micro-benchmarks (mais qui en propose déjà un certain nombre).
Alors il faut faire attention, car il s'agit de code sur de « stencils », donc les schémas d'accès à la mémoire sont assez particuliers, mais je pense que c'est assez représentatifs.
J'oubliais que Windows 95 était parfaitement adapté à l'utilisation en entreprise: pas de crashs, tout ça. Et soit dit en passant, même si le système était différent, il n'était quand même pas difficile pour un administrateur de foutre une icone « monter/démonter une disquette ». Alors certes c'était différent de Win95, mais honnêtement, ça, c'est vraiment juste un point de détail. En 1995/1996, que je sache, personne n'était encore vraiment attaché à une interface, et excuse-moi de te demander pardon, mais la gueule d'un win95 faisait vraiment pitié à voir (alors que AfterStep, une fois bien configuré, ou plus tard WindowMaker, étaient plutôt cools).
Euh. Si elle vient de Windows XP, je suis quasiment certain qu'elle va être déroutée par l'aspect de Win7. On peut toujours « tricher » et revenir à l'aspect de WinXP ou Win2000, mais 7 est suffisamment différent de XP pour qu'une formation se justifie pour quelqu'un qui ne se sert d'un ordinateur que pour quelques tâches bien précises.
Mon comparatif est très sérieux. J'ai bossé sur des clusters utilisant Itanium 2 et Core 2 Quad et Core i7 / Nehalem.
Le Core i7 par exemple, et plus précisément sa version "extreme" (Xeon XE blah), avec son L3 et son bus segmenté + QPI pour les accès inter-processeurs est réellement très bon. Quant aux SPARC, pour le calcul haute performance (i.e. utilisant massivement le calcul en virgule flottante), il ne se compare pas une seconde à un Core i7. En fait, les processeurs Niagara ne se comparent même pas avec un bon Core 2 Quad. C'est pas leur faute, le T1 n'avait qu'une unité flottante pour tout le chip : difficile de tenir la distance face à 2 FPU + instructions SIMD (-> ~ 4 operations flottantes sur des nombres en double précision par cycle). Le T2 s'améliore de ce côté, mais n'est toujours pas au niveau d'un Core i7. Par contre pour tout ce qui est dissipation d'énergie, le T1 et le T2 sont meilleurs que les Core 2/Core i7. Pour ce qui est du calcul purement entier je ne sais pas (mais honnêtement, les derniers gros processeurs d'Intel se débrouillent plutôt bien).
À cela s'ajoutent les mécanismes de préchargement mémoire extrêmement efficaces (surtout sur Core i7), qui permettent d'avoir les opérandes prêts à temps. Bref, pour le calcul haute-performance, le Core 2 et le Core i7 sont malgré tout de bons processeurs (surtout le Core i7 -- le Core 2 était quand même encore à la ramasse pour un « vrai » nœud de calcul).
Quant au PowerPC, AltiVec est rigolo mais pour la gestion des nombres flottants en 64 bits, c'est pas ça. En fait j'ai pas vu de « bon » PowerPC depuis un bout de temps. Le POWER 7 explose bien entendu un Core i7 (et sans doute l'Itanium 2 qui n'a pas eu de réelle évolution depuis un bout de temps si ce n'est pour la miniaturisation des transistors), mais au prix d'une explosion de la consommation d'énergie (au point que c'en est presque ridicule).
Mmh, certes, si ça arrive, même à une seule personne, il s'agit d'un bug, je suis d'accord. Mais quand même, le coup du « créer un dossier » qui se transforme magiquement en dossier système c'est bien la première fois que j'en entends parler sous Windows.
Oups, il manquait effectivement un bout de phrase. Ici l'efficacité est celle de la performance pour le calcul en virgule flottante. Exemple : un cœur Itanium 2 à 1,6 GHz a une performance théorique de 6,4 GFLOPS (6,4×10⁹ opérations flottantes par seconde). Une multiplication de matrices carrées effectuée sur un tel cœur se fait en environ 6,2 GFLOPS. 6.2/6.4 ~ 96,9% d'efficacité par rapport à la perf crête.
Pour comparaison, sur un core 2 duo cadencé à 2 GHz testé à l'époque: la perf crête théorique était de 8 GHz par cœur. Le même produit de matrice carrée donnait des performances autour de 5,5 ou 6 GFLOPS, soit 75% d'efficacité (sachant que le core 2 en question était « nouveau », là où l'Itanium 2 avait au moins 2 à 3 ans d'existence).
Si maintenant on considère la consommation électrique de l'Itanium 2 par contre, le Core 2 et ses petits frères le battent à plate couture ...
Tu penses très mal. Intel a été convaincu par HP de se lancer dans IA-64. Autrement, ils auraient probablement tenté un truc moins risqué et auraient sans doute suivi quelque chose de très proche de ce qu'a fait AMD pour x64.
Ensuite, au risque de faire mon « fanboy », autant pour des applications qui manipulent des entiers (i.e. les bases de données par exemple ...) je suis d'accord pour dire que l'Itanium est pourri, autant sur le calcul flottant, j'ai rarement rencontré une architecture capable d'atteindre ~ 95% d'efficacité (à comparer avec ce que les processeurs x86 permettent, autour de 70-75% d'efficacité).
La micro-architecture derrière IA-64 est réellement très belle (registres rotatifs, prédication, VLIW, ...). C'est juste dommage qu'il ait fallu 10 ans à Intel pour arriver à sortir un vrai bon compilateur pour (en gros plus ou moins au moment où les Itanium ont commencé à réellement sentir le sapin d'un point de vue commercial).
[^] # Re: Ma candidateure
Posté par lasher . En réponse au journal Offre d'emploi sur Marseille. Évalué à 1.
Par contre, ce qui fait que je ne regrette pas l'école d'ingé, c'est que l'environnement de l'école en lui-même encourage les étudiants à savoir s'organiser, gérer le travail et les tâches à répartir, etc... En IUT, j'étais une fois sur deux (en restant optimiste) avec un étudiant qui ne pigeait pas grand chose, ce qui me forçait à tout faire moi-même. Ça m'a été très bénéfique d'un point de vue technique, mais ça m'a juste appris à me mettre sérieusement à bosser par moi-même.
Je ne vois honnêtement pas en quoi une école d'ingé apprend à ses étudiants à être architectes. J'ai enseigné dans une école d'ingé qui voulait/veut proposer une spécialisation d'architecte des systèmes d'information, et de mon point de vue, c'était mettre la charrue avant les bœufs: les étudiants qui allaient faire cette spécialité auraient un background technique beaucoup plus faible que les autres, au profit d'une vision bien plus « managériale » (ie plus haut niveau) du SI de la boite. C'est typiquement le genre de formation que je donnerais à un ingé qui a 3-5 ans d'XP et qui veut monter dans la hiérarchie en ralentissant sur le côté technique pur, mais franchement, un étudiant qui n'a pas plus d'un an d'expérience dans le monde du travail et sur ses procédés en sortant de l'école risque d'avoir beaucoup de mal à se faire accepter (vu qu'il vise à être chef), sauf à être très très bon ...
[^] # Re: Marché de niche
Posté par lasher . En réponse à la dépêche IPv6 et conséquences sur l'anonymat. Évalué à 3.
On peut aussi imaginer des opérateurs virtuels (un peu comme ce qu'on a en téléphonie) qui auraient une plage d'adresses réduite, et qui donc ne pourraient faire que de l'offre avec IP dynamiques (avec en contrepartie un prix moins élevé).
Enfin, comme tu le dis, l'intérêt du particulier pour une adresse dynamique est sans doute nul dans 99% des cas. Sachant que dans 90% des cas, l'utilisateur se contrefiche d'avoir une IP statique ou dynamique, car il ne sait même pas comment ça fonctionne...
[^] # Re: IPsec
Posté par lasher . En réponse à la dépêche IPv6 et conséquences sur l'anonymat. Évalué à 6.
La seule chose que je suis censé faire en tant que simple citoyen, c'est de porter assistance à une ou plusieurs personnes en danger. La plupart du temps, ça passe par appeler ladite police. Parce que moi Vs. un 9mm, je crois bien que je perds, par exemple.
Ou moi contre un site pédophile, je perds aussi, sauf à avoir les compétences pour remonter la chaîne des IPs volées/dynamiques utilisées pour héberger ce genre de sites (ce qui n'est pas mon cas). Par exemple, je me souviens avoir été spammé très souvent sur ICQ à un époque, par des robots russes pour des filles mineures. Je ne pouvais pas faire grand chose, mis à part avertir les autorités compétentes (qui ont pris note, mais m'ont répondu que malheureusement entre le moment où je reçois ce genre de pub et le moment où ils traitent la masse de mails du même genre que le mien, le site a eu le temps de disparaître ...).
[^] # Re: Comment seront choisis les questions pour la partie en février ?
Posté par lasher . En réponse au journal Watson, Jeopardy et le test de Turing. Évalué à 4.
[^] # Re: Eurk
Posté par lasher . En réponse au journal Code source de Arx Fatalis libéré. Évalué à 2.
[^] # Re: SSD et décroissance
Posté par lasher . En réponse au journal décroissance informatique. Évalué à 3.
Sarcasme mis à part, je n'ai effectivement cherché que dans des magasins type rue Montgallet.
« si ton Duraon 650MHz t'allais bien, tu pouvait te faire filer sans soucis des unités centrales au moins aussi puissante (les premiers PIV ne se vendent quasiment plus, ils se donnent !) »
Il ne faut pas confondre « utiliser son matos aussi longtemps que possible » et « bon, ça a cassé pour de bon, autant racheter une machine qui va pouvoir me tenir 5-8 ans de plus ». Parce que bon, même boostée, ma machine était quand même poussive sur la fin. Compiler certains projets qui compilent sur ma nouvelle machine en 3 minutes pouvait prendre un temps pifométrique vraiment long.
[^] # Re: SSD et décroissance
Posté par lasher . En réponse au journal décroissance informatique. Évalué à 1.
Sinon, en moyenne mes ordinateurs m'ont toujours duré au moins 5 ans. J'ai toujours un 386 AMD datant de 1992, avec 4Mo de RAM et 1 Mo de vidéo, qui sert à jouer à de vieux jeux DOS... :-)
[^] # Re: SSD et décroissance
Posté par lasher . En réponse au journal décroissance informatique. Évalué à 3.
[^] # Re: Ok, résumons.
Posté par lasher . En réponse au journal La fin du monde est prévue le 8 juin 2011. Évalué à 2.
[^] # Re: Bonne nouvelle
Posté par lasher . En réponse au journal Encore un troll de moins .... Évalué à 3.
[^] # Re: librec
Posté par lasher . En réponse à la dépêche Sortie de GNU Recutils 1.1. Évalué à 3.
[^] # Re: librec
Posté par lasher . En réponse à la dépêche Sortie de GNU Recutils 1.1. Évalué à 4.
[^] # Re: Redecouverte du principe des bases de donnée multivaluées
Posté par lasher . En réponse à la dépêche Sortie de GNU Recutils 1.1. Évalué à 6.
[^] # Re: Raisons du choix de Seven plutôt que Linux sur les postes de travai
Posté par lasher . En réponse à la dépêche Le Wikileaks bucco-rhodanien revient sur la migration marseillaise vers Windows. Évalué à 3.
D'une part, je n'ai jamais rien dit concernant la ligne de commande.
D'autre part, en 95, un poste de travail classique est plus ou moins uniquement concentré sur des applications lourdes (le web, on en est encore loin). Je n'ai jamais utilisé ApplixWare, je ne peux pas me prononcer sur ses qualités ou défauts. Néanmoins elle a été utilisée, de ça je suis certain. Je ne peux juste pas dire comment elle se comparait face a MS-Office (<=95, parce qu'il ne faut pas oublier que tout le monde ne passait pas forcément aux nouvelles versions dès qu'elles sortaient -- comme maintenant quoi). Je te demande donc: quel genre d'application était nécessaire a l'époque selon toi ? (pas des noms de softs, mais le genre qui était réellement utilisé) J'ai franchement l'impression que :
- les Mac étaient encore dominants pour tout ce qui était graphisme
- on parlait encore des stations SGI (donc UNIX proprio, et interface graphique idem, certes)
- tout le reste des applications étaient soient des trucs métier extrêmement ciblés et qui bien souvent restaient des machins DOS-isants ...
Oui, devoir former les gens à un environnement confidentiel et super rudimentaire, et assurer le support derrière, c'est vraiment un point de détail. Et d'ailleurs, quelles entreprises solides proposaient ce genre de service à l'époque ?
Euh, je parle d'une bête icone rajoutée par le sysadmin pour gérer le montage d'une disquette. Pas de changer l’intégralité de l'environnement de travail de l'utilisateur.
A écouter les militants libristes, les gens (y compris ceux qui n'ont rien à battre de l'informatique) devraient tout sacrifier de façon Désinteressée et Altruiste (tm) à la Cause. Faudra découvrir la vraie vie un jour.
Non mais tu devrais lire ce que tu écris (et ce à quoi tu réponds) à voix haute des fois avant de cliquer sur envoyer. Reviens en 1995 deux secondes : l'USB n'existe pas (et donc pas de disque dur externe, ni de machins multimédia, etc.), le moyen le plus commun pour échanger des données est la disquette (les graveurs sont hors de prix à l’époque pour un usage "commun"), les outils de bureautique sont la plupart du temps réduits à un logiciel de traitement de texte et un tableur, tout un tas d'applications sont encore DOS-only, et les gens savent ce qu'est une ligne de commande (même si la plupart du temps, ils connaissent juste un enchaînement de commandes pour faire tourner une appli précise).
Il faut arrêter de confondre utilisabilité et zigouigouis graphiques à la KDE/Compiz.
Je ne pensais vraiment pas à ça. Point de vue finition (fontes, etc), je n'ai vraiment pas souvenir que Win95 fut si avancé que ca comparé aux environnements de bureau concurrents sous UNIX/Linux.
Oui, donc, comme personne ne faisait le boulot en amont, il aurait fallu que chaque entreprise s'offre les services d'ergonomes professionels et de spécialistes du bousin pour le configurer aux petits oignons ?
Voyons, laisse-moi réfléchir. Je viens d'avoir une idée révolutionnaire: configurer UN poste comme il faut, et tout simplement faire une image de ce dernier et la reproduire ensuite pour les autres postes de l'entreprise. Je sais, c'est vraiment trop con que les admins d'il y a quinze ans n'y aient pas pensé. No, wait, ...
Blague à part : Win95 pour un particulier apportait quelque chose de "bien" par rapport à Linux: les drivers (nous passerons sur le fait que si les constructeurs avaient filé les sources de leur matos, Linux aurait sans doute pu les avoir aussi, avec quelques mois de retard...). Sous Linux, manipuler des cartes ISA pouvait vraiment mener à une grosse prise de tête. En particulier les machins soit-disant plug-and-play (qui étaient plutôt plug-n-plante, même sous Win95).
Très honnêtement, autant si tu avais défendu Win2000 ou WinXP (ou même dans une certaine mesure Windows 98), j'aurais pu comprendre, car la différence de qualité est flagrante, autant Windows 95 n'a juste rien pour lui.
Au moment de la sortie de Win95, tout etait encore possible pour Linux et les UNICES, car la stabilité du système était encore en faveur de ces derniers, et du point de vue ergonomie, etc, au mieux l'environnement graphique de Win95 faisait jeu égal, mais en moyenne je dirais qu'un environnement de type AfterStep était bien plus ergonomique.
[^] # Re: Redecouverte du principe des bases de donnée multivaluées
Posté par lasher . En réponse à la dépêche Sortie de GNU Recutils 1.1. Évalué à 5.
Et quand j'en parlais à des chercheurs en BD, ils connaissaient PICK & co, mais n'étaient pas vraiment impressionnés non plus. Alors quand ni les professionnels du secteur privé, ni les académiques ne semblent dire que ce genre de système est viable, j'ai tendance à me méfier...
[^] # Re: Et Linux tourne sur....
Posté par lasher . En réponse au journal Windows 8 tournera sur ARM. Évalué à 2.
http://www.agner.org
Quand je bossais sur la mesure de performances des processeurs Intel, nous nous servions de ses documents pour avoir un point de comparaison. Dans 90% des cas, nous avions les mêmes conclusions.
[^] # Re: Et Linux tourne sur....
Posté par lasher . En réponse au journal Windows 8 tournera sur ARM. Évalué à 3.
Les seules études que j'ai pu lire concernaient la comparaison des comportements mémoire sur des systèmes multiprocesseurs entre AMD/Opteron et Intel/Core i7. Intel s'en sortait vraiment mieux dans la plupart des cas, car sur Opteron le cache L3 est non-inclusif au contraire du Core i7. Cependant je trouve que la comparaison était relativement peu équilibrée car au moment de la comparaison l'Opteron n'avait pas vraiment subit de changement radical depuis quelques années, au contraire du Core i7 qui ne fait « que » reprendre le Core 2 pour l'architecture du côté arithmétique (entiers et flottants) pour chaque cœur, au contraire du système mémoire qui a beaucoup bougé en en quelques années (par exemple sur un Nehalem EP je peux facilement saturer le bus qui mène au cache L3, alors que sur une version XE sortie à peine un an et demi plus tard, cette limitation a été en grande partie annulée).
Par contre, si tu as une machine AMD que tu veux tester, je te conseille fortement de regarder du côté de LIKWID, un logiciel libre qui permet d'écrire ses micro-benchmarks (mais qui en propose déjà un certain nombre).
http://code.google.com/p/likwid/
Pour avoir une idée des perfs comparées entre Nehalem EP/EX et Istanbul, tu peux regarder les jolis graphiques de Jan Treibig et al, là :
http://arxiv.org/pdf/1004.1741
http://arxiv.org/pdf/1006.3148
Alors il faut faire attention, car il s'agit de code sur de « stencils », donc les schémas d'accès à la mémoire sont assez particuliers, mais je pense que c'est assez représentatifs.
[^] # Re: Raisons du choix de Seven plutôt que Linux sur les postes de travai
Posté par lasher . En réponse à la dépêche Le Wikileaks bucco-rhodanien revient sur la migration marseillaise vers Windows. Évalué à 6.
[^] # Re: Raisons du choix de Seven plutôt que Linux sur les postes de travai
Posté par lasher . En réponse à la dépêche Le Wikileaks bucco-rhodanien revient sur la migration marseillaise vers Windows. Évalué à 3.
[^] # Re: Et Linux tourne sur....
Posté par lasher . En réponse au journal Windows 8 tournera sur ARM. Évalué à 4.
Le Core i7 par exemple, et plus précisément sa version "extreme" (Xeon XE blah), avec son L3 et son bus segmenté + QPI pour les accès inter-processeurs est réellement très bon. Quant aux SPARC, pour le calcul haute performance (i.e. utilisant massivement le calcul en virgule flottante), il ne se compare pas une seconde à un Core i7. En fait, les processeurs Niagara ne se comparent même pas avec un bon Core 2 Quad. C'est pas leur faute, le T1 n'avait qu'une unité flottante pour tout le chip : difficile de tenir la distance face à 2 FPU + instructions SIMD (-> ~ 4 operations flottantes sur des nombres en double précision par cycle). Le T2 s'améliore de ce côté, mais n'est toujours pas au niveau d'un Core i7. Par contre pour tout ce qui est dissipation d'énergie, le T1 et le T2 sont meilleurs que les Core 2/Core i7. Pour ce qui est du calcul purement entier je ne sais pas (mais honnêtement, les derniers gros processeurs d'Intel se débrouillent plutôt bien).
À cela s'ajoutent les mécanismes de préchargement mémoire extrêmement efficaces (surtout sur Core i7), qui permettent d'avoir les opérandes prêts à temps. Bref, pour le calcul haute-performance, le Core 2 et le Core i7 sont malgré tout de bons processeurs (surtout le Core i7 -- le Core 2 était quand même encore à la ramasse pour un « vrai » nœud de calcul).
Quant au PowerPC, AltiVec est rigolo mais pour la gestion des nombres flottants en 64 bits, c'est pas ça. En fait j'ai pas vu de « bon » PowerPC depuis un bout de temps. Le POWER 7 explose bien entendu un Core i7 (et sans doute l'Itanium 2 qui n'a pas eu de réelle évolution depuis un bout de temps si ce n'est pour la miniaturisation des transistors), mais au prix d'une explosion de la consommation d'énergie (au point que c'en est presque ridicule).
[^] # Re: Et Linux tourne sur....
Posté par lasher . En réponse au journal Windows 8 tournera sur ARM. Évalué à 2.
[^] # Re: Et Linux tourne sur....
Posté par lasher . En réponse au journal Windows 8 tournera sur ARM. Évalué à 3.
[^] # Re: Et Linux tourne sur....
Posté par lasher . En réponse au journal Windows 8 tournera sur ARM. Évalué à 3.
Pour comparaison, sur un core 2 duo cadencé à 2 GHz testé à l'époque: la perf crête théorique était de 8 GHz par cœur. Le même produit de matrice carrée donnait des performances autour de 5,5 ou 6 GFLOPS, soit 75% d'efficacité (sachant que le core 2 en question était « nouveau », là où l'Itanium 2 avait au moins 2 à 3 ans d'existence).
Si maintenant on considère la consommation électrique de l'Itanium 2 par contre, le Core 2 et ses petits frères le battent à plate couture ...
[^] # Re: je suis en admiration
Posté par lasher . En réponse au journal Windows 8 tournera sur ARM. Évalué à 2.
[^] # Re: Et Linux tourne sur....
Posté par lasher . En réponse au journal Windows 8 tournera sur ARM. Évalué à 3.
Ensuite, au risque de faire mon « fanboy », autant pour des applications qui manipulent des entiers (i.e. les bases de données par exemple ...) je suis d'accord pour dire que l'Itanium est pourri, autant sur le calcul flottant, j'ai rarement rencontré une architecture capable d'atteindre ~ 95% d'efficacité (à comparer avec ce que les processeurs x86 permettent, autour de 70-75% d'efficacité).
La micro-architecture derrière IA-64 est réellement très belle (registres rotatifs, prédication, VLIW, ...). C'est juste dommage qu'il ait fallu 10 ans à Intel pour arriver à sortir un vrai bon compilateur pour (en gros plus ou moins au moment où les Itanium ont commencé à réellement sentir le sapin d'un point de vue commercial).