lasher a écrit 2730 commentaires

  • [^] # Re: Explication

    Posté par  . En réponse au journal Neverwinter Nights 2 sort... pas sous Linux. Évalué à 2.

    Pas d'accord. J'aime beaucoup mes Might & Magic 4 et 5 (aaaaaah, Clouds of Xeen, Darkside of Xeen :'-) ), il n'empêche que ce que propose NWN est quand même vachement plus abouti techniquement parlant, et apporte énormément à l'ambiance.

    Je n'ai jamais acheté une bête de course pour jouer (je joue de moins en moins, et ai tendance à préférer les jeux un minimum linéaires, justement à cause de ça), même si quand même, j'essaie que chaque nouvelle machine ne soit pas du bas de gamme non plus. Ce n'est pas pour rien : c'est aussi pour profiter des avancées techniques qui sont exploitées dans les jeux vidéos, et celles-ci sont parfois d'ordre purement esthétiques, certes, mais permettent de mieux se plonger dans le jeu.

    Sur ce, je retourne jouer à Jedi Knight : Jedi Academy, qui utilise l'antédiluvien moteur de Quake 3 (les nouvelles techniques de la mort qui tue, je ne les vois que trois ans plus tard :-) ).
  • [^] # Re: Se rabattre sur les console ?

    Posté par  . En réponse au journal Neverwinter Nights 2 sort... pas sous Linux. Évalué à 4.

    « C'est vraiment une manie de ramener ce faux argument.
    Les jeux récents (à quelques exception près, mais les exceptions osnt des démos technologiques qui ne sortiraient pas sur les vielles consoles non plus) tournent sur de vieux PC. »

    Ma réponse était là pour prévenir le côté « une console est obsolète au bout de x années, alors que le PC non ». En pratique, je joue peu, et la plupart du temps, les jeux étaient déjà « vieux » (plus d'un an ;-) ) quand mon PC a été acheté.

    Le fait est que la console force les programmeurs à faire avec un matériel fini, là où ces derniers s'autorisent à rajouter tout un tas d'effets supplémentaires lorsque un ou deux ans se sont écoulés depuis le dernier PC haut de gamme (effets désactivables, bien sûr). Maintenant, je persiste : avec trois ans d'ancienneté pour un PC relativement costaud, on peut toujours jouer à des jeux récents sans rien changer à la configuration (à la condition de désinstaller certains programmes, sans doute), mais on commence déjà à voir la machine devenir poussive. Pour reprendre l'exemple de ce que tu appelles « démos technologiques », sous Linux, il n'y a pas cinquante jeux qui existent, et entre autres, il y a Doom³. Ben je peux lui dire adieu, avec la machine que j'ai. Ou alors, avoir un jeu aussi beau que Quake 3 (allez, un chouilla plus beau), en baissant tous les détails.

    « Et surtout, mais la c'est encore une autre histoire qui ne concerne pas le prix, une console n'est absolument pas le meilleur support de jeu, en tous cas pas pour moi, amateur de jeux de stratégie (aucun sur console) »

    Je peux me tromper, mais j'avais bien cru voir passer des RTS sur console (GBA entre autres) ... Je ne dis pas qu'ils sont au même niveau que ceux existant sur PC, mais affirmer qu'il n'y en a aucun, c'est pour le moins hasardeux.

    « et de FPS (non, un FPS à la manette, ce n'est pas un FPS, c'est un jouet, il faut une souris pour maitriser un FPS), »

    Alors là par contre, m'étant pris une taule (il y a longtemps) à Duke Nukem 3D contre des mecs vraiment très forts à la souris et au joystick/joypad, désormais j'évite d'avoir ce genre de commentaire à propos des FPS [1]. J'ai tendance à être comme toi et préférer le clavier/souris, mais il ne faut pas oublier quelque chose : un FPS fait pour console a été étudié un minimum pour que l'ergonomie du pad soit adaptée.

    « (oui, j'adore aussi Super Mario Bros 4, je peux y jouer sur PC grace à un émulateur, et pas sur PS2/Xbox360, c'est idiot non?) »

    Ça tombe bien, ils veulent permettre d'acheter à pas cher les jeux NES/SNES/Master System/Megadrive/PC-Engine et quelques autres pour la Wii de Nintendo. Comme ça, tu pourras jouer à tous ces jeux légalement [2]. :-)

    « C'est peut-être le meilleur support de jeu pour toi, mais pas pour tout le monde, merci de ne pas généraliser. »

    Ben, c'est mon avis, signé avec mon pseudo (qui permet assez facilement de retrouver ma véritable identité sur le net). Je dis déjà trop « Moi, je [pense que]...», donc j'essaie d'éviter les redondances inutiles. Il est évident qu'il s'agit de mon avis, et pas d'une vérité universelle. Effectivement, pour certaines catégories de jeux (tiens, tu as oublié les simulateurs, notamment de vol), le PC est quasiment le passage obligé. C'est en fait le seul cas où le PC est « obligatoire » : les jeux non présents sur console. [3] :-)

    [1] Certes, j'étais plutôt moyen à DN, mais quand même « moyen plus »...
    [2] Et là, je cache mes émulateurs et ROM neo-geo sous le tapis...
    [3] Un peu comme Windows est presqu'obligatoire si on veut jouer à des jeux récents sur PC ...
  • [^] # Re: Explication

    Posté par  . En réponse au journal Neverwinter Nights 2 sort... pas sous Linux. Évalué à 1.

    « Ouai enfin en même temps je ne vois pas bien ce qui pouvait manquer pour faire un jeu qui déchire. Déjà certains jeux commerciaux sous Linux présentaient et présente toujours (savage 1 et 2) des effets qui sont largement assez "modernes" et suffisament saisissants pour servir de support marketing à un jeu comme Neverwinter Nights II. »

    Ben c'est simple, si tu fais NWN 2, tu ne veux pas faire exactement le même que le 1 (sinon ça s'appelle une extension). Donc tu améliores ce que le jeu proposera non seulement en termes d'options, mais aussi du point de vue purement technique (ergonomie, effets visuels, options de jeu, etc).

    Dire qu'on n'a pas besoin de nouveaux effets de la mort qui tue, dans le domaine du jeu vidéo, c'est comme dire que le téléphone fixe se suffit très bien à lui-même, merci pour lui, et non merci, pas besoin d'un mobile. C'est une opinion qui se respecte, ça se comprend très bien, mais il se trouve que pour beaucoup de gens, le mobile apporte réellement quelque chose (par exemple, j'ai un sens de l'orientation pourri, il vaut mieux donc que j'aie mon mobile avec moi pour la prochaine fois où je me perdrai en allant chez un ami).

    Ben pour les jeux vidéo, entre un jeu super bien du point de vue intérêt, et un jeu super bien dans le même genre, mais avec une technique dix fois meilleures (plus beau, etc), je préfère le deuxième - je sais, je suis superficiel, c'est la beauté intérieure qui compte.

    Reste le côté beau sans intérêt : quel que soit le jeu, sa beauté, etc, s'il n'a pas d'intérêt, on y joue quelques fois, et on arrête assez vite (je te laisse faire le parallèle avec la beauté intérieure/extérieure, tout ça).
  • [^] # Re: Se rabattre sur les console ?

    Posté par  . En réponse au journal Neverwinter Nights 2 sort... pas sous Linux. Évalué à 0.

    [Parlant de Final Fantasy XII]
    « Mais alors qu'est qu'il est moche, on croirait que ca date de... 5 ans. ben oui, effectivement, comme ca tourne sur une machine qui a 5 ans, c'est aussi moche que des jeux d'il y a 5 ans, et cette qualité pourrait très bien passer sur ton PC de 5 ans aussi. »

    N'importe quoi. Je ne parle pas spécifiquement pour FFXII que je ne connais pas. Mais je me souviens très bien de la différence d'un point de vue technique entre FF VII et FF IX (tous deux sortis sur PS première du nom). Techniquement, il y a un monde, ainsi qu'une capacité à exploiter le matériel qui n'est clairement pas la même en fin de vie de la console.

    De plus, même s'il existe de nouveaux effets géniaux et magiques sur les jeux PC récents, s'il te faut la carte graphique qui coûte le prix d'une demi console tous les 2 ou 3 ans, je ne vois pas trop l'intérêt - d'autant plus que généralement il faut aussi au moins booster la RAM avec (ou alors, ton PC t'a coûté très cher, et à ce moment-là, tu fais partie de la moyenne des hard-core gamers sur PC, qui sont plus proches de la trentaine que de la vingtaine, et donc de toute manière c'est ta passion et tu as les moyens).

    Pour quelqu'un avec un budget raisonnable, la console est franchement encore le meilleur support de jeu, sauf si tu as de toute façon décidé de changer d'ordinateur, auquel cas investir un peu plus massivement que d'habitude se justifie. Pour mémoire, il y a quelques années (en août 2002 plus précisément), j'ai acheté mon ordinateur actuel (AMD XP1800+, 512Mo de RAM DDR PC2100, CM Abit, GeForce 4 Ti, HDD 100Go, et le reste). La configuration s'approchait des 900-950 euros sans écran. Certes, ça m'a permis de jouer à pas mal de jeux à l'aise, mais en pratique, maintenant, il est hors de question de jouer correctement sur des jeux vraiment récents, sauf à tout mettre au minimum ou presque - ou alors en tout cas, je n'aurai rien de plus beau que ce qui se fait sur console actuellement. Étant donné que désormais c'est surtout le côté CM+CPU+RAM qui sont le facteur limitant (ah oui, c'est de l'AGP, pas du PCI-E), j'aurai le droit de me racheter presque un PC en entier si je veux pouvoir jouer à des jeux récents.
  • [^] # Re: Nouveautés !

    Posté par  . En réponse au journal OpenBSD 4.0 is out !. Évalué à 4.

    Avec ce genre de raisonnement, on va vite rigoler dans les autres sciences et technologies. J'imagine déjà mes collègues matheux qui devront apprendre l'Allemand pour pouvoir correctement parler entre eux de certaines fonctions mathématiques, parce qu'inventées par Leibnitz.

    « Alors restons sérieux et utilisons les mots anglais quand cela améliore la clarté du propos. »

    Le fait est que, mis à part framework qui effectivement n'a pas de réel équivalent français, tous les autres mots ont une traduction intelligible, sans ambigüité possible, du moment que tu es du métier. Je lis sans problème la littérature technique en Anglais, mais je mets un point d'honneur à parler français, même lorsque je parle d'informatique. Je trouve bien plus ridicule de parler de software en lieu et place de logiciel, par exemple (seule exception notable : dire « un soft » va plus vite que dire « un logiciel » :-) ).
  • [^] # Re: timeo danaos et dona ferentes

    Posté par  . En réponse à la dépêche Novell et Microsoft main dans la main !. Évalué à 1.

    Pourtant tu postes sur et tu lis LinuxFR...
  • [^] # Re: Nouveautés !

    Posté par  . En réponse au journal OpenBSD 4.0 is out !. Évalué à 7.

    Ah bon ?

    "refactoring" et "refactoriser" ou "factorisation" sont tellement antinomiques ? "driver" et "pilote" idem ? "monitorable" et "surveillable" ?

    Le seul mot où je suis presque d'accord, c'est "framework" - et encore, "environnement de travail" ne me semble pas hors propos.
  • [^] # Re: Seth Nickell avait raison !

    Posté par  . En réponse à la dépêche Novell et Microsoft main dans la main !. Évalué à 2.

    Je te conseille vivement la lecture de mon article du mois dernier dans linux mag, cela pourrais te servir à arrêter de mentir, soit délibérément, soit par ignorance.

    On ne ment pas par ignorance. Que vous ayez des échanges animés, soit (surtout que vous êtes loin d'être inintéressants à lire), mais lorsqu'on traite quelqu'un de menteur, c'est plus aggressif et violent je trouve que de le traiter d'abruti (qui peut se comprendre comme étant une perte momentanée de sang froid - même à l'écrit).

    Tu peux éventuellement parler de mauvaise foi, mais le mensonge, c'est "sérieux".
  • [^] # Re: une immondice infame

    Posté par  . En réponse au sondage XML est. Évalué à 2.

    « Mais je comprends, quand on ne connaît rien d'autre que XML et que l'on n'a aucune notion des languages passés tels que Lisp il est difficile d'avoir de l'imagination et surtout d'avoir le moindre regard critique pour les outils que l'on utilise. »

    Et sur ces bonnes paroles, où tu ne fais qu'être aggressif, et parler pour ne rien dire, je te laisse le dernier mot.
  • [^] # Re: Mouais, je vais me faire l'avocat du diable mais...

    Posté par  . En réponse au journal Xavier Niel (Free) répond à la FSF et attaque la GPLv3. Évalué à 6.

    Alors pourquoi faire peser ce genre de menace ?

    Et de façon générale, ça fait un bout de temps que cette histoire traîne, justement. Donc si la FSF n'est pas contente, il « suffit » qu'elle commence le procès : depuis que la Freebox existe ou presque, j'entends parler de cette histoire de GPL gna gna gna (mon avis perso importe peu ici, donc je ne le donne pas). Puisque visiblement ça traîne, et qu'aucune des deux parties ne semble vouloir bouger, il semble justifié de demander un arbitrage. Ou alors on se tait, parce que ça commence à bien faire.
  • [^] # Re: Un miroir FR

    Posté par  . En réponse au journal OpenBSD 4.0 is out !. Évalué à 2.

    Bon ben voilà qui est clair ! Dommage que tu n'aies pas pu me répondre avant qu'un mini-fil de discussion sur la légalité des ISO ne commence. :-)
  • [^] # Re: Un miroir FR

    Posté par  . En réponse au journal OpenBSD 4.0 is out !. Évalué à 3.

    Euh, l'image ISO bootable, c'est juste l'installation par le réseau hein ? Parce qu'à ma connaissance, les images strictement identiques à celles des CD officiels sont interdites de redistribution ...
  • [^] # Re: une immondice infame

    Posté par  . En réponse au sondage XML est. Évalué à 2.

    Bon, je ne réponds qu'à la fin de ton post, ce qui précède n'étant pas argumenté correctement (analogie pas pertinentes, entre autres).

    « Le pifomètre ne s'est pas trompé cette fois-ci, mais malheureusement les tables de hachage, les listes et Lisp ont existé bien avant XML. »

    Le rapport avec XML ? Ce sont des structures de données dont tu parles, moi je parle d'un format de stockage, semi-structuré - et donc par définition hiérarchique, auquel la structuration en arbre pour symboliser ladite hiérarchie [des types entre autres] convient bien.


    « [...] on a besoin d'au moins 5 languages pour faire des simples pages web (sql, java/python/php/langage métier, html/xml, css, javascript), »

    Voyons un peu. HTML/XML sont là pour le contenu, CSS/XSL pour le rendu (et n'oublions pas que XSLT et XQuery vont quand même plus loin que ça, et permettent de générer tout un tas d'autres sorties), JavaScript pour le côté dynamique côté client, et SQL pour les bases de données.

    Je ne dis pas que c'est génial, mais j'aimerais que tu m'expliques comment tu comptes simplifier le tout. Le langage généraliste qui fait tout est à exclure, car alors ce serait une usine à gaz monstrueuse (il n'y a qu'à voir les JSP au début - et même maintenant c'est pas joli à voir, malgré les simplifications et le rajout des tags). Il se trouve qu'une base de donnée n'est pas uniquement utilisée par des applications orientées Web, il leur faut donc un langage standardisé pour pouvoir être utilisées (tiens, ce serait assez drôle d'ailleurs de faire remarquer que chaque SGBD/R n'implémente pas tout des normes SQL...).

    D'ailleurs, des solutions comme Hibernate pour Java sont plutôt intéressantes, car justement on peut éviter un maximum le côté SQL des SGBD et passer par la correspondance Relationnel/Modèle Objet.

    Donc pour faire bref :
    1/ À moins de faire une base de données spécialisée Web, les langages de type SQL/XQuery vont rester un bout de temps (et même en ayant une on duplique inutilement les efforts, du coup)
    2/ Le langage spécialisé est obligatoire pour faire l'interfaçage front-end/back-end (ou alors tu réussis je ne sais comment à tout faire passer en XML/HTML/XSLT, beurk)
    3/ Il te faut bien un moyen de décrire le contenu et le mettre en forme (HTML,XML/CSS,XSL)
    4/ Le seul truc éventuellement serait de réussir à fusionner HTML et JS, car effectivement, au final, tout se fait côté client (d'un autre côté, on peut utiliser Javascript à part, et mélanger la description des données avec leur traitement dynamique, bof...)

    L'incapacité à faire rapide/peu gourmand/etc vient du fait que le développement spécifique à une plate-forme coûte cher en temps et en expertise, d'autant plus qu'on parle d'outils de haut niveau, extrêmement complexes. Le problème c'est qu'une bonne conception nécessite de bien séparer les modules, et du coup on perd au moins le temps de communiquer entre ceux-ci.

    Je te rejoins sur le côté debogage : on est encore à la préhistoire de ce qui pourrait s'envisager, quelle que soit la plate-forme envisagée (et pas seulement pour du Web, même si c'est là que ça pêche le plus).
  • [^] # Re: FSB

    Posté par  . En réponse au journal Distributions Linux, vers un éclatement des formats de paquetages ?. Évalué à 3.

    Inclure les BSD n'est pas très intelligent. BSD != Linux, sur beaucoup de points très subtils parfois, mais qui changent pas mal de choses. Donc à moins de voir les distribs prendrent le pli des BSD (ce qui est hors système doit être installé dans /usr/local, etc), je ne vois pas trop pourquoi les systèmes BSD, qui ont tout de même de GROSSES différences sur certains points avec Linux, se mettraient à changer leurs habitudes. Ils n'ont pas de problème de cohérence, eux. :-)
  • [^] # Re: une immondice infame

    Posté par  . En réponse au sondage XML est. Évalué à 2.

    [utilisations de XML]
    « Et qu'est-ce que tu as utilisé d'autre que xml pour pouvoir comparer ? »

    Java. :-) Plus sérieusement, j'ai utilisé ce que proposaient des langages compilés pour faire tout ce dont il est question, et XML, point. Je l'ai dit dès le départ, je ne connaissais pas YAML et JSON avant qu'on n'en parle ici. Je ne dis pas que XML est la panacée (en fait, je dis exactement le contraire dans le message auquel tu réponds), juste qu'effectivement pour l'échange de données, ainsi que la sérialisation, XML se prêtait bien à la chose (ah oui, et le stockage BDD aussi).

    « Je ne savais pas que JavaScript avait besoin d'une machine virtuelle ? »
    Mauvais terme de ma part. Un interpréteur.

    « Si justement, ça change énormémént. Les balises énormément de bruit et alourdissent les transferts de données. »
    Les balises sont redondantes, donc si compression il y a, et donc je ne vois pas en quoi ça alourdirait le transfert de données.

    « La meilleure façon de compresser des données, c'est avant tout de ne pas y ajouter du bruit. Ensuite cela alourdit le déboggage des données elles-même. »

    De toute manière, dès que tu as un format de données flexible et générique, tu es obligé de gagner en verbosité, XML ou pas XML. Les softs que je vois traiter de gros volumes XML utilisent leur propre représentation interne des arbres XML, et donc tout se fait en binaire. Le côté « chiant » d'XML c'est le parsing, je suis d'accord - ce qui se traduit aussi par les problèmes de transfert que tu évoques. Mais honnêtement, aussi fastidieux cela soit-il, le fait d'avoir le côté ouvrant/fermant permet justement d'être systématique dans le traitement de l'information (et de faire la validation, etc).

    « C'est pas parce que c'est utilisé par tout le monde ou standardisé de fait/historiquement que c'est ce qu'il y a de meilleur. Les produits microsoft dominent le marché, je te laisse conclure. »

    Je ne peux pas accepter cet exemple, car MS est tout seul à imposer sa vision, alors que pour XML, tu as un collège d'industriels et de chercheurs. Alors oui, ça veut aussi dire qu'on n'obtient pas une forme optimale (chaque participant veut insérer à tout prix SA fonctionnalité de la mort, et pour des raisons « politiques » on laisse faire - ou pas). Mais ça veut aussi dire que pas mal de paramètres sont pris en compte et que l'évolution ne se fait pas à la va-vite.

    Pour le côté « standardisé de fait » : c'est justement parce qu'aucun standard n'avait su s'imposer qu'il était temps de faire quelque chose. Le C est un standard de fait dans l'industrie. Java aussi. Pourtant, le C se prête de moins en moins à la programmation généraliste je trouve (l'utilisation de langages de plus haut niveau permet de faire moins d'erreurs de programmation, avec un temps de développement plus réduit), et le Java à toutes les sauces est une aberration informatique.

    De façon générale, je ne sais pas depuis quand YAML et JSON existent, mais au pifomètre je dirais « ils sont plus jeunes que XML ». Et quand une structure adopte un changement déjà assez radical en lui-même, tu ne peux pas t'attendre à ce qu'elle change du jour au lendemain (un peu comme la boite qui est pleine de développeurs C et qui ne va pas se mettre au CAML du jour au lendemain). Il faut aussi gérer l'inertie, et crier « XML SAPU » tout en oubliant que, comme tout format, d'autres lui succèdent en tirant partie de ses erreurs (alors que, comme quelqu'un l'a fait judicieusement remarquer, XML a aussi un lourd passif avec SGML), c'est un peu facile.
  • [^] # Re: une immondice infame

    Posté par  . En réponse au sondage XML est. Évalué à 3.

    Reprenons.

    « YAML is optimized for data serialization, configuration settings, log files, Internet messaging and filtering. »

    Je me suis mal exprimé (j'ai tapé trop vite).

    Tu me demandais : « Donc tu n'utilises pas xml ni pour la sérialisation des données, ni pour les fichiers de configuration, ni pour les fichiers log, ni pour les transferts de données. Tu l'utilises pourquoi déjà ? »

    Je ne l'utilise pas pour faire des fichiers de configuration. La sérialisation, oui ; les fichiers de logs je n'ai jamais eu à en faire en XML, et les transferts de données, évidemment.

    « C'est quoi cette "machine virtuelle JavaScript" ? »
    Je ne savais pas que JavaScript était compilé est s'exécutait sans aide.

    J'expliquais ensuite que « human readable » != « humans will like to read it » (en gros). Tu répondais :

    « On est donc bien d'accord, XML n'est pas lisible ni pratique d'utilisation. »

    Je passe outre le ton ironique. Le XML est effectivement fait pour être techniquement lisible par l'oeil humain.

    J'aimerais que tu m'expliques comment tu fais pour avoir des données lisibles par un humain (autrement que du côté technique que j'ai évoqué précédemment) dans un format texte, lorsque tes données sont décrites de façon extrêmement complexe. Au final, si tu as 1To de données, XML ou YAML ou ... je ne vois pas trop ce que ça change dès que le volume généré est important.

    Quel que soit le type de données semi-structurées que tu emploies (latex, XML, YAML, etc), tu te retrouves avec une hiérarchie (donc au minimum des arbres - bien que dans le cas du XML tu puisses faire des graphes si tu as besoin de cas tordus),

    XML = arbre typé ordonné. C'est tout. Il se trouve que la syntaxe choisie pour XML (balises ouvrantes/fermantes, etc), l'a été pour permettre une bonne automatisation des traitements. Certains trouvent que justement ça l'empêche. Personnellement je ne vois pas en quoi, mais je peux concevoir que ça gêne. Mais on oublie souvent qu'avant XML, des dizaines de formats semi-structurés existaient, mais qu'aucun n'était utilisé partout. XML, c'est le résultat d'une standardisation, avec de gros acteurs industriels qui ont enfin daigné s'asseoir à la même table. Donc non, c'est pas parfait, mais au moins, c'est un format sur lequel des gens bossent (autant les chercheurs que les industriels pur sucre).
  • [^] # Re: une immondice infame

    Posté par  . En réponse au sondage XML est. Évalué à 2.

    « Formulé autrement: XML c'est génial, tant que l'on ne connaît rien d'autre (surtout JSON et surtout YAML). »

    Non. D'après le site :

    « YAML is optimized for data serialization, configuration settings, log files, Internet messaging and filtering. »

    Exactement le genre de choses où je n'utiliserais pas XML (utiliser XML pour faire des fichiers ce configuration est quelque chose de totalement débile la plupart du temps, sauf pour certains logiciels-usines à gaz, et encore).

    Pour JSON, on faisait remarquer plus haut que des problèmes de performances pouvaient survenir. Quid de la machine virtuelle JavaScript qui doit tourner ?

    « La question sur les DTD montre à quel point le format (il ne s'agit pas d'un language de programmation) est lisible et pratique à utiliser rien que pour le cas d'utilisation le plus basique. »

    Je ne vois pas en quoi. Honnêtement, ça ne me dérange absolument pas d'utiliser une DTD tant que la description des données reste simple. Ce que les gens oublient, c'est que XML a été inventé pour être « human readable », mais pas dans une optique « je me farcis tout le texte avec les yeux, tout le temps ». On a tout de suite pensé le format pour qu'il puisse être traité automatiquement par des machines, mais modifiable quand même à la main par des humains, si besoin était.
  • [^] # Re: une immondice infame

    Posté par  . En réponse au sondage XML est. Évalué à 2.

    « Et le temps CPU pris pour générer une réponse en XML puis de la comprimer, c'est pas plus long que de simplement envoyer le binaire proprement? »

    Ton binaire, tu l'envoie en little ou big endian ? Il passe à l'échelle 32/64 bits ? (et je suis certain que tout un tas de questions supplémentaires pourraient me venir en tête).

    L'intérêt de XML c'est le côté plain-text des fichiers.

    « Essayez de faire du XML en environnement restreint. Vous m'en direz des nouvelles.... »

    Qu'est-ce que tu appelles environnement restreint ? (de façon générale, je ne suis pas pour le tout-XML, mais les attaques que j'ai vu contre le format n'étaient pas justifiées, de mon point de vue).

    « PS: Pascal (et Delphi) ont toujours sus se compiler eux-même si je me souvient bien. »

    Tant mieux pour eux. Ce n'était absolument pas le but de ma remarque. LISP aussi sait se compiler lui-même, je ne vois pas en quoi ça change le fait que XML sait se définir en XML, lui aussi. Même s'il est passé par une phase avec DTD qui n'était pas du XML (et à la limite on s'en fout un peu non ? L'important c'est que ton format de stockage soit défini).
  • [^] # Re: Macbook?

    Posté par  . En réponse au journal Ordi portable sans OS. Évalué à 2.

    Apple ne donne rien du tout. Que ce soit leur OS, ou les softs qui viennent avec l'ordinateur (iLife entre autres). Le procédé est grosso-modo le même que celui utilisé dans les PC vendus dans le grand public, à ceci près qu'il est plus simple de se faire rembourser (Apple vend pour le moment bien plus son matériel que ses logiciels - qui sont en partie distribués : Quicktime, iTunes, etc.).
  • [^] # Re: une immondice infame

    Posté par  . En réponse au sondage XML est. Évalué à 3.

    « JSON est totalement générique aussi, et pourtant il est largement plus lisible pour un humain mais aussi pour des parseurs à écrire (pareil pour YAML). »

    Possible, je ne connais pas ces deux solutions.

    « La représentation XML prend de la place, de la bande passante, »
    Bof. Suffit de compresser le tout (et le XML, ça se compresse bien) avant d'envoyer.

    « Si le format XML était si bien et si générique, alors pourquoi n'ont ils pas commencé par écrire les DTD dans ce format ? »

    J'en sais rien. Le fait est qu'ils ont commencé par des DTD. La question en fait me semble totalement inutile : le langage C n'a pas su se compiler lui-même dès le départ, à ce que j'ai compris. Maintenant il sait. Est-ce vraiment pertinent de demander pourquoi XML n'a pas su se récrire en XML au début, alors que maintenant il sait ?
  • [^] # Re: une immondice infame

    Posté par  . En réponse au sondage XML est. Évalué à 2.

    « XML est trop verbeux, il prend trop de place (cf: JSON, YAML) - il y a aussi le binaire mais ce n'est pas forcément extensible, et puis on peut aussi zipper les données »

    C'est le prix à payer pour quelque chose de totalement générique d'une part, et à peu près lisible pour un humain d'autre part. La représentation interne d'un fichier XML (en mémoire dans la machine) n'est que celle d'un arbre : beaucoup moins verbeux, donc.

    « Les dtds ne sont pas en XML »

    D'où la création des schémas XML, qui possèdent une sémantique plus forte que les DTD. Cependant, la DTD permet de définir très simplement les balises. Il est plus simple à mon avis d'écrire une DTD, de la transformer en schéma XML (via un outil qui automatise la tâche), et ensuite de compléter ledit schéma.

    Dans tous les cas, si tu veux spécifier du XML en XML, tu peux.
  • [^] # Re: Ne vous perdez pas en route!

    Posté par  . En réponse au sondage XML est. Évalué à 2.

    L'utilisation de bases de données XML risque d'être de plus en plus importante dans le futur. Premièrement, il faut savoir que le temps de réponse d'une base de données XML est fonction de la taille de la donnée à renvoyer, et pas de celle à chercher. En clair, quelle que soit la complexité de la requête, c'est la taille de la réponse qui est le facteur limitant. On ne peut pas en dire autant des bases de données classiques. Il existe des bases de données réellement orientées XML, et qui sont capables de traiter plusieurs centaines de giga-octets (plusieurs teras, en fait) sans broncher.

    Pourquoi un SGBD/XML serait important ? C'est simple, on se retrouve de plus en plus avec des données non-figées. Avec un SGBD/R classique, j'ai une ligne dans une table, et même si je ne me sers pas des trois-quarts de la ligne, je suis obligé de l'allouer. Je perds donc de la place - mais bon, à la limite, ça c'est pas trop grave. Ce qui l'est plus, c'est quand je dois rajouter une colonne à ma table. C'est beaucoup, *beaucoup* plus chiant. En XML, c'est pas dur, je n'ai qu'à modifier la DTD ou le schéma XML, et c'est fini.

    Bref, les bases de données XML, ça ne fait que commencer, il reste à leur implémenter toutes les astuces connues dans le monde relationnel, ainsi que des astuces spécifiques au format lui-même (sachant qu'évidemment, l'arbre XML n'est pas représenté sous forme textuelle dans la base elle-même, mais sous forme d'index, le tout en binaire pour aller plus vite).
  • [^] # Re: Netinstall

    Posté par  . En réponse à la dépêche Sortie de Zod (alias Fedora Core 6). Évalué à 3.

    pour rappel - et pour faire mon chieur tatillon - 1 byte != 1 octet (qui se dit "octet" en Anglais). Ce n'est pas non plus un mot mémoire. C'est un .... truc. Un groupement de bits dont la taille peut varier d'une machine à l'autre.

    Bon, la plupart du temps, 1 byte == 1 octet, mais j'ai cru comprendre que dans le domaine de l'embarqué, c'était loin d'être toujours le cas, par exemple.

    Sur ce, et si on parlait FC6 ? :-)
  • [^] # Re: Je veux pas dire, mais...

    Posté par  . En réponse au journal Y a t il du racisme dans les BONNES entreprises d'informatique ?. Évalué à 2.

    « Il y a un énorme probleme avec ce genre de raisonnement :
    Tu fais supporter sur des individu la responsabilité d'un groupe (illusoire) auxquel l'individu appartient de facon non volontaire. »

    Bien sûr, et c'est ce que je dis au début de mon précédent message, lorsque j'affirme être d'accord sur le fait qu'il y a très certainement une minorité lésée parmi la « méchante ethnie ».

    Sauf que cette portion-là de la population, on peut espérer que pour tout un tas de raison (et oui, notamment parce qu'elle fait partie de l'ethnie « dominante »), elle pourra plus facilement attérir sur ses pieds, trouver un autre moyen, etc. Et sans vouloir paraître cynique, il y a nécessairement des gens qui pâtissent de ce genre de politique, mais à l'échelle nationale d'un pays de plus de 300 millions d'habitants, c'est quasiment négligeable. Parce que les quelques malheureux (voire les quelques vies ruinées, sans doute) que ce genre de dispositions provoque pâlit devant le retard accumulé par les autres portions de la population qui ont été défavorisées pendant des décénies.

    Encore une fois, même si j'ai tendance à penser qu'aux USA c'était nécessaire (et je ne sais pas si ça l'est encore, mais je doute que 20 ans soient suffisants pour rétablir un semblant d'équilibre), je ne sais pas si son application en France l'est.

    Cependant, pour prendre un exemple, le quota de gens venant de lycées défavorisés et étant entrés à Science Po, qui avait été très décrié (on parlait de « mort de la méritocratie », etc) a été plutôt positif pour la première promo : ils s'en sont tous bien sortis (sans être dans les premiers de promo, mais pas dans les derniers non plus).

    Comme quoi parfois, la sélection est quand même pas mal bourrée de préjugés, à tous les niveaux.
  • [^] # Re: je ne lis pas la même chose dans l'article.

    Posté par  . En réponse au journal Sur les raisons de la chute des ventes de DVD. Évalué à 10.

    Je suis peut-être (sans doute, ok) vaguement maniaque, mais certains films que j'achète sont vus plusieurs fois dans la même semaine. Ils le sont tous dans la même année et généralement les années suivantes, et donc au final, louer ou acheter le DVD revient au même, sauf que je n'ai pas à rendre le DVD dans 6 heures, ni même dans 24, je n'ai pas à faire un premier aller-retour au magasin, ni même un second lorsqu'il faut rendre le DVD.

    Ce qui est drôle, c'est que tu ne penses pas la même chose des CD, je suis sûr. Alors oui, le contexte est un peu différent car tu peux écouter de la musique et faire autre chose, etc. Mais je ne suis pas certain que tu écoutes de la musique de la même manière que moi alors : même si je mets souvent de la musique en fond, je la mets aussi régulièrement comme activité principale : j'écoute les musiciens, je me concentre sur la musique, exactement comme je le fais pour des DVD.

    Donc si on était de mauvaise foi, on pourrait te demander pourquoi tu n'enregistres pas ta musique à la radio (le son est de très bonne qualité), ou bien pourquoi tu ne vas pas chercher tes CD à la médiathèque (après tout, en 3 semaines de location, tu as le temps d'avoir écouté l'album, n'est-ce pas ?)

    La télé te force à choisir ce que tu veux enregistrer et voir (ou alors tu as 50 tuner chez toi, un pour l'enregistreur sur disque, l'autre pour mater le film, etc.), et tu n'as pas le choix de l'heure, ce qui te force donc à te soumettre au bon vouloir de la chaîne. De plus, je ne vois pas en quoi la venue des nouvelles technologies en matière de télé permet d'éviter la publicité en plein milieu d'un film - surtout quand on voit que Macrovision a réussi à faire plier les fabricants de "zappeurs" de pub pour qu'ils n'empêchent pas la coupure pub si le programme le leur demande... Bref, ta remarque n'est pas pertinente sur ce sujet précis.

    Sinon, ton RTFM est déplacé : ce n'est pas parce qu'une chaîne est dispo en TNT qu'elle propose les sous-titres : ça fait des décénies que le câble et le satellite existent, et pourtant toutes les chaînes ne proposent pas le sous-titrage/la VO. La TNT n'échappe pas à ce constat.

    Je ne sais pas pour les autres, mais en ce qui me concerne, je regarde rarement la télévision, et lorsque je le fais c'est plus parce que je n'ai rien à faire pendant 2 ou 3 h et que j'ai pas envie de réfléchir (auquel cas je regarde les programmes dispo). Si rien ne m'intéresse à la télé, je fais autre chose.

    Enfin, il y a une explication "psychologique" aussi, je pense : on aime le côté matériel, le fait de posséder l'objet DVD.