MiniMoi a écrit 108 commentaires

  • # Bravo !

    Posté par  . En réponse à la dépêche LyX 1.6.10 et LyX 2.0.0 pour les 15 ans du projet. Évalué à 10.

    Bravo à toute l'équipe !

    LyX est le logiciel qui m'a permis de me séparer des traitements de texte habituels, et de passer graduellement à LaTeX.
    Je sais que ce n'est sans doute pas l'objectif, mais le fait de pouvoir faire un document propre avec une interface très proche d'un traitement de texte, c'est sans doute le chaînon manquant pour l'adoption de LaTeX pour beaucoup de personnes.

    Dans mon cas, pas mal de personnes que je connais sont passés de Word/LibreOffice à LyX, et en sont très contents, même si ce ne sont pas des "geeks".

    Bref, pour tout ceux qui écrivent leurs lettres diverses avec LibreOffice, je vous conseille fortement d'essayer LyX.

  • [^] # Re: Israel

    Posté par  . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 3.

    C'est surtout que les machines de Google ne sont pas du même type ! Elles ne sont pas faites pour faire de l'algèbre linéaire, ce qui a des conséquences assez fortes sur l'architecture de celles-ci.

    En particulier, elles ne sont sans doute pas connectées en InfiniBand, pour des raisons de coût. De plus, leurs applis n'utilisent pas MPI, qui n'est sans doute pas installé sur les machines.

    De façon général, le modèle privilégié de calcul est (était ?) MapReduce, dont le but est de minimiser les communications entre les machines (aucune communication entre les "mapper", aucune entre les "shufflers", et aucune entre les "reducers", les seules comm sont dans le sens mapper -> shuffler -> reducer), et ce pour avoir un meilleur passage à l'échelle et être moins dépendant du réseau.
  • [^] # Re: Tera 100

    Posté par  . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 3.

    Oui, mais en l'occurrence, Tera-100 est une machine à usage militaire exclusif.
    Pour des raisons de sécurité, cette machine ne peut pas servir pour les programmes civils des autres divisions. Tera-100, c'est seulement la DAM.

    Pour le civil, il y a le CCRT.
  • [^] # Re: Tera 100

    Posté par  . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 10.

    Il faut tout de même savoir que Tera-100 fait aussi progresser la recherche. Ce que fait le CEA pour concevoir des bombes (sans les faires exploser, depuis 1995) lève de nombreuses questions, et pousse la recherche dans divers domaines, comme la physique des plasmas, la physique des lasers, la neutronique, etc...

    De plus, nombre de ces travaux sont publiés dans des revues scientifiques, et font l'objet de thèses.
    Donc, oui les bombes c'est mal, mais toute l'énergie intellectuelle dépensée ne l'est pas en pure perte.

    De façon tout à fait imprécise, rechercher "CEA DAM" (Direction des Affaires Militaires) dans Google Scholar donne 22 000 résultats.
  • [^] # Re: Tianhe-1A

    Posté par  . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 2.

    Ah oui, j'ai oublié :

    En revanche, le système de communication entre les noeuds a l'air intéressant, mais je n'ai pas vu beaucoup de détails dessus...

    Il semblerait que ce système soit jusqu'à 4x plus performant (latence ? bande passante) qu'Infiniband, qui est la référence de l'industrie à l'heure actuelle.
  • # Tianhe-1A

    Posté par  . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 8.

    En réalité, l'article américain sur la machine Tianhe-1A n'est pas autant de mauvaise foi que ce que la dépêche le laisse entendre. Il s'agit en effet d'un calculateur très spécialisé, et dont les performances "réelles" (comprendre : dans les codes de calcul existants, et pour les algos "utiles", pas juste LINPACK) seront très inférieures à celles promises par le test.

    Grossièrement, le fait de faire faire les calculs par des GPUs n'est pas une solution miracle. En particulier, dès qu'il y a des branchements dans le code (penser if-then, break, continue, etc...) les performances s'écroulent.
    Idem en cas de faible densité en calcul des opérations (par exemple, un algo en O(log(N)) opérant sur O(N) données), ou en cas de mauvaise localité des données (par exemple, un graphe, ou une matrice creuse sans motif particulier).

    Si on rajoute le fait que les transferts réseaux se font par un bus relié au CPU et non à la carte graphique, et le goulet d'étranglement du bus PCI-Express, alors les performances pratiques sont très souvent 10x plus faibles que celles promises sur le papier par le constructeur.

    Et le fait que nVidia montre tout plein de démos super qui marchent bien n'est pas non plus un argument : on ne réécrit pas les codes tous les jours, et les codes actuels ne sont pour la plupart pas faits pour tourner sur GPU de façon efficace.

    Bref, tout ça est avant tout une belle opération de pub, qui permet de dire "on a la plus grosse", et sans doute quand même de faire de la recherche sur les archi du futur, de porter les codes, etc... mais ce n'est pas une révolution, et une machine comme Jaguar ou Tera100 est bien plus utile en pratique, car d'un rendement (par rapport à la puissance crête, je ne parle pas d'énergie ici) bien plus élevé.
  • # LaTeX

    Posté par  . En réponse à la dépêche Sortie de Gajim 0.14. Évalué à 2.

    Il y a peu de chances que a déchaîne les foules, mais une fonctionnalité vraiment sympathique de gajim est de permettre l'insertions de formules LaTeX directement dans le chat si les paquets kivontbien sont installés des deux côtés.

    On utilise ça au boulot, et c'est vraiment pas mal de pouvoir juste faire un copier-coller d'une formule, ou alors de l'écrire directement. Et si un des deux clients n'a pas LaTeX, on a quand même la version texte, qui est tout de même "comprise" par pas mal de monde.

    Par contre, le seul désavantage c'est qu'évidemment les macros ne sont pas prises en charge, mais il ne peut pas non plus être devin...
  • [^] # Re: Classement sur des vrais calcul

    Posté par  . En réponse au journal Green500 : un TOP500 de l'écologie. Évalué à 2.

    Tout à fait, et c'est la même chose pour tous les calculateurs à base de carte graphique (TESLA, version 'pro' et 'calcul' des cartes graphiques nvidia, avec plus de mémoire et un prix beaucoup plus élevé.

    Tous ces calculateurs sont très efficaces en terme de puissance crête par W, mais dans la pratique... c'est une autre histoire.
    C'est très bien pour nvidia qui peut se vanter d'être green autrement que par son logo, et dire que ses puces sont x fois plus puissantes que celles d'intel, mais pour des applications pratiques, c'est très loin d'être joué.

    La raison, c'est que ces puces sont une horreur à programmer !
    Il faut imaginer que CUDA est une sorte d'assembleur avec une syntaxe 'à la C'. On est obligé de réécrire son code pour chaque génération de machine, de le régler à la main, et même dans ce cas ça reste très fragile.

    En plus, les cartes graphiques sont très mauvaises pour certains types de calculs, en particulier tous ceux qui nécessitent de faire des branchements dans le code (des 'if' en C), ou qui accèdent à la mémoire de façon non linéaire (autre chose que l'itération dans un tableau avec des indices contigus).

    Du coup, c'est facile d'avoir une efficacité hallucinante quand on ne fait que des opérations très spécialisées, mais ça ne répond pas nécessairement aux besoins.

    Bref, l'efficacité énergétique c'est important (et j'ai vu une conférence l'autre jour où un expert affirmait qu'on ne pourrait pas atteindre l'exaflops sans changements drastiques de ce côté-là, car l'extrapolation des progrès en matière de consommation conduirait à un calculateur consommant 200MW !), mais il ne faut pas ériger les GPUs en sauveurs du HPC.


    PS : désolé pour les guillemets qui deviennents des apostrophes, mais dans la prévisualisation les guillemets n'étaient pas bien affichés (chrome 6 dev - debian sid 64bits).
  • # On ne parle pas de la meme chose...

    Posté par  . En réponse au journal Linux un bloat, ah bon ?. Évalué à 10.

    L'auteur du journal parle de la taille du code, de la masse de code du kernel, alors que l'article initial mentionnait lui les performances.

    Petite citation de l'article :

    Citing an internal Intel study that tracked kernel releases, Bottomley said Linux performance had dropped about two per centage points at every release, for a cumulative drop of about 12 per cent over the last ten releases. 'Is this a problem?' he asked.

    'We're getting bloated and huge. Yes, it's a problem,' said Torvalds.



    La taille du code n'est que peu en rapport avec la vitesse du kernel, meme si on pourrait argumenter que si, parce que du code plus gros pollue plus le cache L1/L2, voire ne rentre pas dans le cache L2, et donc c'est la cause d'une perte de performances.
    Ceci est vrai... mais... la plupart du code (de l'ordre de 95% il me semble, de memoire d'apres un Google Tech Talk de Greg KH) est consitue des drivers, et l'immense majorite d'entre eux ne sont pas charges en memoire a l'execution (je n'ai pas 200 cartes graphiques differentes, merci).

    La baisse de performance est sans doute plus liee au fait que Linux s'enrichit de nouvelles fonctions comme le support de la virtualisation, les LSM (Linux Security Modules), le support des architectures NUMA, l'isolation des processus, le passage a l'echelle jusqu'a 4096 coeurs, etc...
  • [^] # Re: A quand un vrai support *BSD ?

    Posté par  . En réponse au journal Sortie de Valgrind 3.5.0. Évalué à 3.

    Je dirais pas tout de suite.
    Apparamment, porter Valgrind est tres complique, et prend beaucoup de temps.

    D'apres le blog du developpeur resposable du portage OS X:

    I roughly estimate the Darwin port represents at least 1,000 person-hours of work, possibly much more.

    [http://blog.mozilla.com/nnethercote/2009/05/29/valgrind-on-w(...)]

    Donc, a moins que quelqu'un n'ait autant de temps a passer dessus, ca n'arrivera sans doute pas.
  • # Ridicule...

    Posté par  . En réponse au journal JPC: un emulateur x86 en java. Évalué à 2.

    Je ne veux pas paraitre meprisant (bien que le titre le soit surement), mais ce n'est certainement pas plus qu'un exercice de chercheur...

    Dans un talk disponible sur youtube, ils parlent d'une moyenne de 10% des performances de la machine de base.
    Ce qui veut dire diviser par 10 la vitesse, ou comment transformer un Core 2 Duo flambant neuf en Pentium II...

    Bref, histoire de rire, cette video :
    [http://www.youtube.com/watch?v=RwoFsJjIhos]

    A la minute 4:45, il y a un diagramme de l'architecture de JPC:

    Hardware / OS / JVM / Emulated PC / OS / Apps
  • [^] # Re: Merci

    Posté par  . En réponse à la dépêche Yokadi : un gestionnaire de liste de tâche en ligne de commande. Évalué à 1.

  • # Pulse

    Posté par  . En réponse au journal Richard Wright n'est plus. Évalué à 4.

    Pour ceux qui sont (comme moi, par exemple) trop jeunes pour avoir eu la chance de voir un concert des Pink Floyd au grand complet, il existe une live exceptionnel, disponible en DVD des Pink FLoyd en 1994.

    Pulse
    http://www.amazon.fr/Pink-Floyd-Pulse-Coffret-DVD/dp/B0007QS(...)

    Un tantinet cher, mais il vaut son prix !

    Avec au programme:

    - sur le DVD 1 de très belles versions de leurs classiques, ainsi que de chansons de leur dernier album;
    - et sur le DVD 2, l'intégralité de leur meilleur album (ou un de leur meilleurs, c'est selon), et une magistrale version de "Comfortably Numb".

    Je tiens aussi à préciser que les Pink Floyd, ça se regarde autant que ça s'écoute.
    Leurs concerts étaient... impressionnants.

    Aller zou, je vais aller me re-regarder Pulse !
  • [^] # Re: Pour ceux qui s'intéressent a l'architectures de navigateurs web

    Posté par  . En réponse au journal Chrome, le futur navigateur de Google. Évalué à 10.

    Et il ne faut pas oublier ce qui est sans doute le plus important : grâce à Google, WebKit s'est grandement amélioré.

    Depuis au moins 1 an, des ingénieurs de Google contribuent à WebKit, et c'est ce qui explique en grande partie l'augmentation très significative des performaces de celui-ci, ainsi que sa capacité croissante à afficher correctement toutes les pages du web. D'ailleurs un point intéressant et amusant : des ingénieurs de Google ont utilisé des pseudonymes pour soumettre des patch, de façon à ce que personne ne se doute de ce qu'il se préparait.

    Comme il est révélé dans la BD, Google utilise sa gigantesque architecture pour tester en continu et automatiquement des milliers, voire millions de pages, et déceler les problèmes de rendu de WebKit.

    Et puis, il y a V8. D'après les créateurs de Chrome, cette machine virtuelle JavaScript a des performances 100 fois meilleures que la concurrence. Et ça n'a pas de rapport avec toutes les optimisations de WebKit pour le JavaScript (SquirrelFish), ou de celles de Mozilla pour FireFox 3, puisque cette VM est une vraie VM, qui fait du JIT et qui optimise le code natif produit.

    Et donc, au bilan, on a :

    - Un browser qui sera peut-être bon, ou peut-être pas (mais pas disponible sous Linux tout de suite en tout cas) ;
    - WebKit qui s'améliore;
    - Une VM pour JavaScript avec d'excellentes performances.

    Du tout bon !
    Ah oui, et aussi pas de craintes à avoir de Google pour le coup, puisque c'est open source.

    "Disclaimer: j'ai travaillé à Google"
  • [^] # Re: Bravo !

    Posté par  . En réponse au journal Préparation de la formation Debian GNU/Linux Lenny. Évalué à 5.

    Je plussoie le commentaire sur la ligne de commande.
    J'ai aussi une autre remarque : est-ce judicieux de faire découvrir à un débutant vim ? Autant je suis tout à fait d'accord que la connaissance d'un éditeur en ligne de commande est utile, ne serait-ce que pour dépanner un système, autant je trouve que commencer par vim, c'est risquer de dégouter l'utilisateur plus qu'autre chose.

    Je ne suis pas utilisateur de vim, mais de emacs, cependant je peux affirmer sans trop me tromper je pense que ces deux éditeurs sont très rudes au premier abord, et qu'il faut du temps, beaucoup de temps avant de saisir leur intérêt.

    Donc ma suggestion ce n'est pas de remplacer vim par emacs pour un débutant (je ne pense pas que ça soit plus simple), mais d'apprendre au débutant "sudo apt-get install nano", et ensuite d'expliquer comment nano marche, parce que au moins nano est très simple, et les raccourcis claviers sont écrits à l'écran !

    (Cela dit en passant, je me demande pourquoi nano n'est pas en standard avec les distributions linux, c'est pas ça qui doit prendre de la place, et c'est utile).
  • [^] # Re: Pas de problème pour Ubuntu.

    Posté par  . En réponse au journal [Troll du vendredi] Mettre au même niveau la base des distributions stables en regard des logiciels utilisateurs est-il vraiment une bonne chose ?. Évalué à 6.

    Avec ubuntu, je conseille tout de même d'attendre un ou deux mois après la sortie de la dernière version pour mettre à jour.
    Ce n'est pas du troll, même si je n'ai pas installe la 8.04, mais les précédentes avaient souvent des petits problèmes, qui sont vite réglés une fois la distrib sortie officiellement.

    Donc je dirais par exemple que c'est le bon moment pour passer a 8.04, et que décembre sera sans doute le bon pour passer à 8.10.
  • [^] # Re: Clavier disponible avec rétro-éclairage ?

    Posté par  . En réponse à la dépêche Sortie du bépo 1.0rc1. Évalué à 2.

    La solution est ici:
    http://www.artlebedev.com/everything/optimus/

    Toutes les touches sont des écrans OLED, ça supporte donc tous les layout du monde, mais... deux tout petits problèmes:

    - C'est un tantinet cher (pas très grave, hein, quand on aime on ne compte pas): 1200€ environ !
    - Ça ne marche pas sous Linux...
  • [^] # Re: A propos de Google Maps et de politique

    Posté par  . En réponse au journal Israël, Google Map et les terroristes. Évalué à 1.

    à 17min 20s plus précisément.
  • # A propos de Google Maps et de politique

    Posté par  . En réponse au journal Israël, Google Map et les terroristes. Évalué à 3.

    Quelque chose d'interessant...

    Dans ce talk [1] donné à Google à propos des contraintes de Google Maps sur les telephones portables, il est question vers la fin des problèmes que Google rencontre pour internationaliser Google.

    Un des problème est que certains pays demandent à Google de montrer ce qu'ils pensent de leur frontières lorsque le programme est accédé depuis l'intérieur du pays, alors que le reste du monde n'est pas d'accord avec cette définition des frontières. Ex: Chine, Inde...

    [1] http://www.youtube.com/watch?v=302g_q8Frjk
  • [^] # Re: ...

    Posté par  . En réponse au journal De l'utilisation de Google Ads. Évalué à 1.

    Et bien non !
    Ce n'est pas la même chose du tout !
    Les critères utilisés pour le placement des pubs sur les pages du réseau de la régie publicitaire de Google sont très différents de ceu utilisés pour classer les recherches.

    Il y a deux groupes, très importants et indépendants à Google : "Search Quality" et "Ads Quality", qui ne dépendent pas de la même hiérarchie. Et c'est tout à fait logique, parce que les critères qui permettent de juger une page sont différents de ceux qui servent à juger une publicité par rapport à une page.

    Donc je ne pense pas que ça soit la même chose, après je ne sais pas non plus si cela présente un intérêt...
  • # Pour avoir travaillé 1 an à Google

    Posté par  . En réponse au journal Google offre un format de donnée sous licence Apache. Évalué à 6.

    Donc, comme le dit le titre de ce commentaire, pour avoir travaillé 1 an à Google, je peux dire que ce format est extrêmement pratique. Ca fait donc un an que j'utilise les protocol buffers tous les jours, et c'est definitivement quelque chose d'agreable.

    Ok, il y a quelques differences. En premier lieu le fait que la librarie publiee est plus avancee que celle utilisee actuellement en interne, ce qui est plutot pas mal, mais l'actuelle est deja plus que bien.
    C'est un avantage incroyable de pouvoir communiquer entre serveurs si facilement juste en passant des protocol buffers. C'est aussi tres pratique de les stocker, et d'avoir une interoperabilite entre langage, plus un parsing sans y penser du tout. En XML il faut toujours ecrire le parseur, ici rien a faire !

    En plus les performances sont reellement excellentes, si vous en dutez, allez sur google.com et faites une recherche. Il n'y a pas d'autre moen d'echanger des donnees par RPC a Google, et je pense que vous pouvez reconnaitre que ca marche plutot bien.

    En gros, je pense que ca devrait remplacer XML autant que possible, et que Google rend un enorme service au libre et a la communaute du logiciel en general.

    Et pour ceux qui parlent d'autres langages de markup recents, la plupart sont loins des protocol buffers en performance, et il ne faut pas oublier que les protocol buffers sont en usage depuis 5 ans au moins, en interne...
  • [^] # Re: Système de refroidissement? Fournisseur?

    Posté par  . En réponse au journal Mini / Nano - ITX VIA C7 PadLock on Linux. Évalué à 2.

    Ca a l'air vraiment intéressant, mais une fois qu'on rajoute l'alimentation (picoPSU + adaptateur 12V d'après le site donné en lien, ou alors une grosse alimentation fanless), et qu'on ajoute la RAM, le disque dur et le boitier, je me demande si il n'est pas plus intéressant d'attendre le eeeBox d'Asus.

    http://www.anandtech.com/systems/showdoc.aspx?i=3321

    On a pour un prix de 300$ (cet été):
    - Atom 1.6GHz: pas terrible mais suffisant, et qui consomme vraiment peu;
    - 2Go de RAM
    - 160Go de disque dur

    Le tout dans un tout petit boitier que je trouve assez joli.
    Hum... c'est pour la version Linux ça, mais je pense que de toute façon le but n'est pas de mettre windows dessus.

    En plus il y a l'intérêt de montrer aux constructeurs que Linux a un rôle à jouer, et ça permet aussi de dire merci à Asus qui est pas mal pionnier dans ce domaine, entre le Linux fournit avec les cartes mères, celui sur les portables, et l'eeePC. En plus je trouve ça vraiment pas mal le message "avec Linux, vous avez un meilleur PC pour le même prix".

    Bref, je pense que vous avez trouver ce qui viendra prendre la place du désiré mais trop cher MacMini chez moi...
  • [^] # Re: Hem ?

    Posté par  . En réponse au journal Benchmark des navigateurs.. le gagnant est! .... Évalué à 1.

    Je dirais que Firefox 3 est toujours devant Safari.
    J'utilise principalement un mac, et de temps en temps j'essaie Safari avec les dernieres versions de Webkit, mais ce n'est toujours pas ca pour moi:

    - La version officielle de Safari a un Webkit qui leak beaucoup de memoire dans GMail et Google Reader, autrement dit les applications que j'utilise tous les jours, et qui surtout restent ouvertes sur de longues periodes;
    - La version nightly leak toujours, moins certes, mais a des bugs dans GMail en particulier.

    Je ne critique pas du tout le travail de l'equipe, que je trouve vraiment impressionnant (le resultat sur des applications lourdes est impressionnant de vivacite, meme par rapport a Firefox 3), mais je considere qu'on ne peut pas declarer Webkit vainqueur, pas encore tout du moins.

    Et puis il manque Flashblock pour Safari, qui est sans doute la meilleure facon de rendre un browser plus reactif ! :-)
    (Je n'ai pas trop cherche, peut-etre que ca existe en fait)
  • [^] # Re: Eclipse vs la concurrence

    Posté par  . En réponse à la dépêche Sortie de Eclipse 3.4 - Ganymede. Évalué à 1.

    Merci pour le pointeur, mais le problème de ce sujet, c'est que la plupart des gens votent Eclipse alors qu'ils ne connaissent pas IntelliJ et tous ceux qui connaissent IntelliJ disent qu'il le préfère.

    Dois-je en déduire qu'IntelliJ est meilleur ?

    Personne pour dire qu'IntelliJ suxxxxxxx, et d'expliquer pourquoi ? (Oui je sais, sapusèpalibr)
  • # Eclipse vs la concurrence

    Posté par  . En réponse à la dépêche Sortie de Eclipse 3.4 - Ganymede. Évalué à 4.

    Je sais bien que e sujet du jour est Eclipse, mais je me pose des questions sur la comparaison avec la concurrence, en particulier IntelliJ pour faire du Java.

    Au boulot on a le choix enter IntelliJ et Eclipse, mais comme presque toute mon equipe utilise IntelliJ, je m'y suis mis aussi (c'est la premiere fois que je fais du Java, et j'etais plutot emacs avant).
    Et apres une premiere impression negative, je trouve que c'est un fantastique outil, et les rarees fois ou j'ai du ecrire du Java avec emacs furent des experiences moins plaisantes.

    De plus, je vois que mes quelques collegues qui utilisent Eclipse ont l'air de peiner a faire des choses qui sont triviales avec IntelliJ.

    Que dit la sagesse Linuxfr-ienne de ca ?

    (Note: ceci n'est pas un troll, je ne connais pas Eclipse, et je n'ai malheureusement pas le temps d'essayer de voir si ca me plait, et si j'utilise emacs et pas vi c'est que c'est simplement la premiere chose qui m'est tombe sous la main, et apres une courbe d'apprentissage bien raide j'en suis tres content).