langer a écrit 11 commentaires

  • [^] # Re: Analyse statique

    Posté par  . En réponse à la dépêche Audit du code source de Parcoursup par la Cour des comptes. Évalué à 0.

    Ce qui réduit le code SQL significatif à ~100k lignes.

    Moins que ça, si on intègre les étudiants de première année en réorientation qui doivent aussi passer par Parcoursup.

  • [^] # Re: La question a 1 giga yuan...

    Posté par  . En réponse à la dépêche Sortie du Top 500 de juin 2013. Évalué à 0.

    Ma remarque était avant tout humoristique.

    Sur le fond, pour parler de science il faut qu'une méthodologie rigoureuse et honnête soit appliquée de bout en bout, et pas seulement à quelques moments. Sinon on risque de tomber dans la supercherie (cf. la mémoire de l'eau) ou dans la manipulation de résultats (cf. la fraude des petits pois de Mendel).

  • [^] # Re: La question a 1 giga yuan...

    Posté par  . En réponse à la dépêche Sortie du Top 500 de juin 2013. Évalué à 0.

    Les 250 Dell core i7 ça peut se revendre, se réutiliser immédiatement pour de nouvelles simulations, ou se transmettre à un autre labo.

    Devine laquelle des 2 solutions offrent moins de gâchis potentiel ?

    Les deux solutions ne s'excluent pas, elles n'ont ni les mêmes avantages ni les mêmes inconvénients. Tout dépend de ce qu'on met dans le gâchis : coût financier, retard pris, réactivité dans les changements d'axe de recherche, acquisition de nouvelles compétences de l'équipe de recherche …

  • [^] # Re: La question a 1 giga yuan...

    Posté par  . En réponse à la dépêche Sortie du Top 500 de juin 2013. Évalué à 2.

    Si ce gachis est terminé, c'est tant mieux.

    C'est plutôt difficile de quantifier le gâchis. Il y a cluster et cluster. Le gâchis est modéré quant on exploite le temps d'inactivité des micros reliés en réseau dans une université, ou quand on monte un serveur de calcul avec des cartes graphiques du commerce.

    Par contre remplacer ces systèmes par un gros ordinateur de plusieurs PFlops sous-utilisé avec des comités scientifiques/techniques/administratifs qui en limite l'accès, ça peut vite finir en gâchis. Enfin "gâchis" c'est un point de vue … certains le balaieront en arguant du fait que la préparation d'un champion d'échec sur Blue Gene/P constitue une avancée scientifique de premier plan :)

  • [^] # Re: La question a 1 giga yuan...

    Posté par  . En réponse à la dépêche Sortie du Top 500 de juin 2013. Évalué à 1.

    Et combien ont les compétences ou l'argent pour administrer une telle machine ?

    Les compétences c'est rarement le problème dans la recherche.

    L'argent par contre c'est autre chose. Parce que si un labo n'a pas les moyens de financer ce genre de mise en oeuvre, il n'aura pas non plus de quoi se payer des heures de calcul sur HPC. En plus il faut rajouter le temps d'attente, car on accède pas au HPC sans passer devant les commissions chargées d'attribuer les ressources…

  • [^] # Re: La question a 1 giga yuan...

    Posté par  . En réponse à la dépêche Sortie du Top 500 de juin 2013. Évalué à -3.

    Ce n'est pas de la science ?

    Faire tourner le bousin en modifiant les paramètres pour valider un modèle, j'appelle ça du débugage ou de l'optimisation :)

  • [^] # Re: La question a 1 giga yuan...

    Posté par  . En réponse à la dépêche Sortie du Top 500 de juin 2013. Évalué à -3.

    il faisait de la simulation de déclenchement d'avalanche sur ce genre de machine

    Ca n'a rien de révolutionnaire. Ca fait au moins 15 ans qu'on fait de la simulation de déclenchement d'avalanche avec des logiciels comme FLAC 3D sur PC. En fait la plupart des labos se satisfont d'un ordi à moins de 100 TFlop/s . Le top 500 c'est pour les cas particuliers.

  • [^] # Re: Utilité ?

    Posté par  . En réponse à la dépêche Le Top 500 de novembre 2012. Évalué à 1.

    Pour troller en ces temps de crise :

    Le calcul intensif (HPC) est à l'image du CERN. Il fait l'objet d'une politique de projets (au niveau national et européen) où se côtoient des acteurs scientifiques, industriels et politiques. Avec les résultats que l'on connait : grande dépense publique, grandes retombées financières (industriels) ou subventions déguisées (Bull), et faibles avancées scientifiques au final quoiqu'on en dise (car les progrès technologiques induits sont l'oeuvre d'une gabegie au regard des investissements consentis, alors que des dépenses ciblées auraient été plus "rentables").

    Mais ça fait tout de même marcher une partie de l'économie (surtout celle des fondeurs de puces étrangères).

    My 2 cents :)

  • [^] # Re: Et Dirac ?

    Posté par  . En réponse à la dépêche Le débat sur la lecture des codecs vidéo par les balises HTML5. Évalué à 2.

    Si le coût de machines à ajouter dépasse le prix de la licence pour celui qui encode, oui c'est utile d'être rapide. Aujourd'hui c'est le cas.

    sauf que la majorité des vidéos disponibles sont des vidéos personnelles, peu importe alors qu'il faille à un particulier passer 10 ou 20 minutes pour encoder un passage de 5 minutes.


    Dirac change complètement de technologie (ondelettes), donc pas grand chose de ré-utilisable.

    pourtant les transformation en ondelettes discrètes ne sont pas si éloignées des transformations en cosinus, les changement purement matériels ne sont peut être pas si importants que ça. Comme on peut le voir pour la correction de bogues dans les microprocesseurs CISC, pour certains matériels dédié une modification du microcode permettrait d'améliorer les choses. De plus la puissance et la versatilité des DSP qu'on trouve dans dans certaines puces peut aussi apporter de nets améliorations dans la compression et la décompression.


    Qu'a Dirac de plus qu'AVC hormis le fait d'être libre?

    la possibilité de déduire le coût de la licence. C'est d'ailleurs une des raisons qui a poussé la Chine à développer son propre DVD haute définition. Et aussi Dirac a potentiellement la capacité technique de dépasser l'AVC.


    Ce n'est pas par les consommateurs que la demande viendra

    pourtant c'est bien un marché qu'ont créé les consommateurs avec le DivX (le mpeg4 asp a-t-il été utilisé à grande échelle en dehors du divx ?). De même pour le format OGG qu'on retrouve dans les baladeurs. Enfin le consommateur est aussi devenu le premier créateur grâce à internet.
  • [^] # Re: Et Dirac ?

    Posté par  . En réponse à la dépêche Le débat sur la lecture des codecs vidéo par les balises HTML5. Évalué à 2.

    « Encodate lent » est-ce utile alors que la majorité des vidéos disponibles sur internet sont pré-encodées et ne correspondent pas à des flux en live du type webcam.

    « Décodage lent » Ne peut-on pas utiliser partiellement le décodage matériel fourni par les puces spécialisées dans l'AVC ? Un mixe hardware/software avec une adaptation du microcode ?

    « Supporté par une seule entité. » Est-ce un réel défaut du moment qu'une norme soit établie ?

    « Ca tue les batteries à vitesse grand V » c'est juste, mais est-ce aux fabricants de matériel de décider ? Ne sont-ils pas en mesure de s'adapter au choix des consommateurs ? C'est ce qui s'est déjà passé avec le DivX, non ?
  • # Et Dirac ?

    Posté par  . En réponse à la dépêche Le débat sur la lecture des codecs vidéo par les balises HTML5. Évalué à 5.

    On parle beaucoup de Theora et du H264 cependant Dirac offre lui aussi un bon taux de compression, il est libre de droit, et il est soutenu par la BBC. Son seul défaut c'est encore cette histoire de brevet logiciel, puisqu'il utilise une transformation par ondelette comme le jpeg 2000.