Obsidian a écrit 5300 commentaires

  • [^] # Re: Le langage du futur ?

    Posté par  . En réponse au journal Le langage du futur ?. Évalué à 2.

    Ne le prend surtout pas mal, mais plus je te lis, plus je trouve que ton expérience en la matière est très limitée.

    SU-PER. Tu prends exemple sur le langage C++ qui comme tout le monde le sait n'est pas un langage 100% objet et qui permet de faire tout et n'importe quoi (grâce -- ou à cause -- des pointeurs). Tu prends un environnement d'exécution qui intègre des notions objets comme .NET et alors là tu peux te toucher pour espérer accéder à une fonction private depuis un objet externe en C#, VB.NET ou Java.

    C'était un EXEMPLE ! L'exemple bête de ce qu'il ne faut pas faire justement, mais qui met bien en évidence le fait que ta « protection » n'en est pas une. Je ne pensais vraiment pas être obligé de te l'expliquer.

    Ensuite et surtout: Encore une fois, il s'agit de la force du typage de ton langage ! Cela n'a rien à voir avec le fait qu'il soit orienté objet ou pas.

    Tiens, de la même façon, et puisque l'on parle du C++, tu as l'air de penser que l'une des grandes forces de « l'orienté objet » réside dans la répartition public/private. Soit. En C++, il existe une troisième catégorie: protected. Révolution ou hérésie ? Cela te poserait-il un problème si les différentes catégories de données membres se multipliaient ?

    Tu remarqueras aussi qu'une autre notion de la programmation objet, l'héritage (et tout ce qui touche la réutilisation) est possible quelque soit le langage sur la plate-forme .NET. Tout ça parcque les langages ont une seule contrainte : implémenter certaines notions objet.

    Ok, vu tes lectures, je commence à comprendre. Il n'y a pas que du mauvais chez Microsoft, mais si c'est là ta référence de base pour assimiler les autres langages, tu risques d'avoir une vision quelque peu déformée du fonctionnement d'un ordinateur.

    Evidemment, si tu programme en natif, tout code sera au final traduit en code machine et vu que la machine autorise à peu près tout et n'importe quoi (à l'intérieur d'un même programme j'entend, l'OS est là pour limiter les débordement éventuels). Mais l'informatique a évoluer. Et certain ont su tirer partie justement de la sémantique de ces nouveaux langages dits "orientés objets" pour améliorer la sécurité ou tout simplement l'interopérabilité et l'intégration en implémentant une machine virtuelle qui utilise ces informations.

    1) Je te file une VCS2600 avec une cartouche vierge de 4Ko et je te demande de réécrire Space Invader et de le faire tenir dans le médium fourni. Si tu ne peut pas le faire alors que tes prédécesseurs l'ont fait vingt ans avant toi et sans langage objet, c'est que ce n'est pas une évolution.

    2) Si tu utilises une JVM comme garde-fou parce que tu estimes que ton programme ne pourra fonctionner de façon sûre que dans ce genre d'environnement, c'est toi qu'il faut remettre en cause. Pas ta machine. Comment feras-tu le jour où tu devras à ton tour écrire une machine virtuelle ?

    3) Parlons-en de la portabilité: Un programme écrit dans un langage de haut-niveau fonctionnera sur toutes les machines ... sur lesquelles la librairie standard et la machine virtuelle du langage auront été portées ! Ce qui limite déjà les différents modèles. Ensuite, il fonctionneront exactement de la même façon: A quoi cela sert-il d'avoir des machines différentes alors ? Une machine peut très bien être en avance sur ses concurrentes parce qu'elle apporte une killer-feature, comme on dit. Le programmeur Java/.Net est-il condamné à ne jamais en profiter ? Enfin, et là c'est le concept même de .Net que je remet en cause: A quoi diable cela sert-il de créer une machine virtuelle qui ne tourne que sur un seul système d'exploitation (Windows) et 99,99% du temps sur un PC ? Autant revenir directement à l'assembleur s'il y a si peu de variété.

    Juste pour le fun, j'aimerai savoir avec quelle simplicité tu vas réussir à instancier un pseudo-objet en C de GTK en Java, sans bien sûr refaire une surcouche qui te demanderas des heures et la nécessaire compréhension du mécanisme pseudo-objet de GTK...

    Pourquoi « pseudo » ?
    - Sous GTK+ en C, c'est:
    window1 = gtk_window_new (GTK_WINDOW_TOPLEVEL);
    - En Java, ce sera
    window1 = new gtk_window (GTK_WINDOW_TOPLEVEL);
    L'un sera un handler, l'autre une référence, ce qui pour un langage comme le Java revient exactement au même compte-tenu du fait que l'adresse mémoire effective est gérée par la seule JVM, au dessous encore du niveau du bytecode.

    Pour ce qui est des optimisations je ne suis pas du tout d'accord avec toi. Pour moi ce n'est pas au programmeur de connaître les spécificités de la machine pour laquelle il code, sauf peut-être si celui-ci code en assembleur. Le programmeur doit pouvoir utiliser le langage pour exprimer ses idées et algorithme, c'est au compilateur d'optimiser pour une machine spécifique.

    Non, non, non et non. D'abord, c'est à se demander si tu as effectivement jamais écrit une ligne d'assembleur. Que le programmeur choisisse le langage le mieux adapté à son projet est une évidence (et c'est vrai dans les deux sens: Je programme un microcontrôleur en assembleur et une librairie graphique en C++), tout comme un compilateur se doit de générer le code le plus efficace possible. PAR CONTRE: connaître le fonctionnement d'un ordinateur, c'est précisément le métier du programmeur ! Tu ne peux pas faire de code propre si tu n'as aucune idée de la manière dont ta machine va exécuter tes ordres, de même que ton compilateur ne pourra jamais sérieusement optimiser un code plombé de naissance.

    Et c'est là qu'un langage objet s'avère plus utile que le langage C par exemple : le langage purement objet introduit des informations supplémentaires au compilateur qui peut effectuer plus de vérifications, d 'optimisation.

    Cela n'a aucun sens.
    En quoi le fait que ton langage soit « objet » apporte des informations supplémentaires au compilateur ? Au contraire, la plupart des langages objet, C++ en tête d'ailleurs, ont la fâcheuse réputation de consommer plus de mémoire pour un même résultat.


    Pour ce qui est des optimisations par le programmeur, celles-ci ne doivent s'effectuer qu'au niveau de l'algorithme en diminuant la complexité de celui-ci si nécessaire. Bref, modifier son idée. Mais en aucun cas il ne doit bidouiller et utiliser des "raccourcis" pour que celà soit profitable à l'utilisateur. Tout d'abord c'est une perte de temps vu le gain final, et ensuite la plupart des machines actuelles ont suffisament de puissance pour faire tourner la plupart des algorithmes utilisés par le commun des programmeurs.

    o/* PAF !
    Encore une idée reçue qui a la dent dure et c'est probablement ce qui nous oppose le plus. La puissance d'une machine doit profiter à son utilisateur et pas servir la paresse du programmeur (paresse qui n'est, chez ce programmeur, une qualité que lorsqu'elle le pousse à utiliser sa machine pour accélérer son travail, mais pas au dépit de l'utilisateur). D'abord, tu oublies que contrairement aux machines familliales des années 80, les ordinateurs actuels sont multitâches, et qu'il suffit de faire tourner quatre ou cinq programmes écrits par des gens qui ont la même mentalité que toi pour mettre une machine en carafe.

    Lorsqu'un codeur écrit avec les pieds un programme utilisant un langage de trop haut niveau (spécialement lorsqu'il est interprété, ou sous forme de bytecode), 80% de la puissance de la machine est consommée dans les conversions successives entre ces couches, dans un sens puis dans l'autre, et cette puissance ne profite:
    - ni au programmeur, qui ne se soucie plus de son programme une fois livré,
    - ni à l'utilisateur qui passe ses journées entières à attendre son logiciel.

    D'autre part, optimiser un programme ne se limite pas à « simplifier l'algorithme utilisé », mais aussi à parler le langage de ta machine. Tu oublies qu'un compilateur est avant tout un traducteur. C'est comme si tu me disais qu'il est inutile d'apprendre une langue étrangère parce que les traducteurs logiciels le font pour nous. As-tu déjà jaugé la qualité des traductions de Babelfish ? Il m'est arrivé de multiplier la taille d'une ligne de C par 5 pour qu'elle soit au final compilée de la meilleure manière possible.

    C'est bien la mentalité Microsoft, ça. On sort un produit tordu à la base, et on applique des patches successifs plutôt que de revoir le concept.

    Enfin, le « gain final » dont tu parles est à mesurer avec la plus grande circonspection. Il suffit que tu intègres le code concerné au sein d'une boucle pour que le gain en question ne soit plus une durée fixe mais un pourcentage du temps consommé. Ainsi, si tu écris ton programme en assembleur, et que tu l'optimises pour passer de 10 cycles machines par boucle à 5 cycles (soit 2ns de gain sur une machine moyenne), tu doubles la vitesse de ton programme. Un travail réalisé initialement en deux mois le sera désormais en un seul.

    Après il y a deux niveaux de programmation : il y a la programmation système ou un langage bas-niveau comme le C est utilisé, par soucis d'optimisation. Mais c'est limité aux programmeurs expérimentés qui maîtrise les pointeurs à merveille (le pointeur c'est comme un scalpel, dans des mains expertes il fait des merveilles, mais donner les au programmeur de base...)

    Personnellement, je n'ai jamais eu de problème à manipuler un pointeur. Peut-être parce qu'à la base je savais ce qu'est une adresse mémoire. Tout le problème est là: On n'écrit pas un programme (du moins pas professionnellement) pour adapter une équation tout comme on utiliserait Mathlab pour résoudre un problème de maths, de la même façon que, si puissant qu'il soit, mathlab ne te sera d'aucune utilité si à la base tu es nul en maths ...

    Et puis surtout, la disponibilité des données est un problème qui se retrouve sur tous les langages:
    - En C/C++ le programmeur se tape des segfaults;
    - En Java, le programmeur se tape des NullPointerException.
    « Ah bon ? Mais Monsieur, je croyais qu'y'avait pas d'pointeurs en Java ... »

    C'est quand même inouï. L'informatique est quand même le seul métier où non seulement « le néophite complet se sent en mesure de vous apprendre votre métier dans le quart d'heure qui suit le montage de sa bécane », mais c'est également le seul où on l'on trouve des gens qui aspirent à devenir professionnels sans vouloir apprendre le métier. Un programmeur qui ne sait pas comment fonctionne un microprocesseur - et qui en plus le revendique - est pour moi un paradoxe.

    Si on veut utiliser toute la sémantique qu'introduit les notions objets et qu'on veut notamment appuyer les notions l'interopérabilité ou de sécurité, on prendra un vrai langage objet, et si possible une machine (virtuelle) qui exploite justement ces notions...

    Là encore, et pour la dernière fois, machine virtuelle et orienté objet sont deux choses distinctes, même si on les trouve souvent livrés ensemble. D'ailleurs le concept de machine virtuelle n'est pas nouveau, il est utilisé depuis les années 70 mais pas en microinformatique. Plutôt sur gros systèmes, tels que ceux que l'on trouve dans les aéroports.

    Ton post me laisse perplexe, pour le moins. J'ai l'impression que tu confonds plusieurs notions, notament typage, sécurité, et approche objet, de la même façon que Jayce the Crazychild confondait mode texte et langage interprété (là, 'faut quand même le faire, soi dit en passant) ou, plus sérieusement, comme beaucoup de monde assimilait programmation 32 bits et mode protégé lors des débuts de Win32.
  • [^] # Re: Le langage du futur ?

    Posté par  . En réponse au journal Le langage du futur ?. Évalué à 1.

    Seul un langage orienté objet peut le faire.

    Non, c'est une erreur. C'est un peu comme dire que la poésie ne peut s'exprimer qu'avec des vers, et réciproquement.


    class Toto
    {
    public:
    int x;
    private:
    int y;
    }

    int main (void)
    {
    Toto t;
    int x;

    for (x=0;x<sizeof(t);++x) *(((char *)&t)+x)=0; // Ecrase tout.

    return 0;
    }


    Et voila, j'accède aux membres privés de l'objet "t".
    La seule chose qui puisse m'empêcher de faire cela est un typage fort. Cela n'a rien à voir avec l'orienté objet. La POO est une vue d'esprit. Il ne faut jamais oublier que les différents appels aux méthodes d'un objet en particulier seront résolus en sauts vers des fonctions, évidement en exemplaire unique en mémoire, et qui recevront implicitement un pointeur ou une référence sur les données de l'objet qui se résume à une simple structure de données. D'ailleurs il me semble même qu'en Python, l'équivalent de "this" est passé explicitement (je ne fais pas de python).

    En ce sens, GTK+ et même la X-lib ont une approche orientée objet de la chose. Il peut exister plusieurs entités appartenant à une même catégorie, et sur lesquels peuvent par conséquent s'appliquer toute une batterie de fonctions destinées à la gestion des objets de cette catégorie. Exemple: les Drawables. Le fait que l'on invoque ces facilités à l'aide d'une méthode d'un symbole donné, ou que l'on se réfère à cette entité un utilisant un handler sous la forme d'un entier transmis à l'appel de la fonction revient au même.

    D'autre part, il faut également toujours garder à l'esprit que tout le code écrit sera au final traduit en langage machine. La programmation ne s'aborde pas comme un problème mathématique dans lequel la finalité ne consiste qu'à résoudre une équation. Chaque action consomme des ressources en temps système et en mémoire, et il appartient au programmeur de connaître ses spécificités, et éventuellement d'utiliser des raccourcis si cela est profitable à l'utilisateur final. D'une manière générale, l'optimisation d'un programme devrait à mon goût occuper autant de temps que la rédaction et le débuggage de ce programme. C'est spécialement vrai lorsque l'on utilise un langage interprété ou un système de byte-code.

    Tout cela pour dire que l'approche objet est un framework comme un autre. L'utilisation d'un langage orientée objet est une chose naturelle lorsque tout un projet est axé autour de ce concept, mais c'est loin d'être une nécessité.
  • # Re: sites nationaux de linux

    Posté par  . En réponse au journal sites nationaux de linux. Évalué à 3.

    La palme de l'exotisme revient à l'inattendu site de l'Antarctique :

    Bah, c'est un minimum quand même ! C'est le pays natal de Tux !
  • [^] # Re: Le langage du futur ?

    Posté par  . En réponse au journal Le langage du futur ?. Évalué à 3.

    Tout-à-fait, et même la X-lib en fait !

    Je trouve - personnellement - et sans attaque personnelle qu'assimiler la programmation orientée objet en langage C à une énorme connerie est une erreur de débutant. Ce genre d'activité peut même être très bénéfique parce qu'elle permet de dissocier le concept même de programmation objet du langage lui-même. C'est vrai dans les deux sens d'ailleurs: les mauvais programmeurs C++ ont souvent tendance (pour les listings que j'ai pu lire) à instancier un objet de leur création simplement pour pouvoir invoquer les méthodes qu'il contient, séquentiellement.

    Depuis que l'informatique s'est démocratisée et que la programmation est enseignée - plus ou moins - sérieusement dans les écoles, il y a un (trop) grand nombre d'élèves programmeurs qui se bornent à apprendre leur cours sans se poser de question, ce qui est problématique dans un milieu où le métier change d'aspect tous les six mois. Pour la plupart: C=Langage procédural C++=Orienté Objet et la frontière entre les deux est infranchissable.
  • [^] # Re: Combien de spams recevez-vous par jour ?

    Posté par  . En réponse au sondage Combien de spams recevez-vous par jour ?. Évalué à 3.

    Pour la boîte aux lettres postale (papier), le seul inconviénent du SPAM, outre la lassitude du propriétaire, est que cela finit par consommer beaucoup de papier pour rien. On pourrait effectivement obliger les émetteurs de prospectus à cotiser à un fond de ramassage et de recyclage (tant que cela ne les mène pas à croire qu'ils sont autorisés à inonder nos boites outre mesure, un peu à la manière de l'inepte tasca-taxe, qui légitimise un peu et de fait le piratage audio).

    Pour le SPAM électronique, c'est plus ennuyeux parce que cela consomme des ressources tout au long de la chaîne. Une bonne partie des taux de transfert nominaux (je n'aime pas parler de bande passante parce que c'est une abus de langage) y passe, et aussi l'espace-disque puisqu'en général chaque message est envoyé individuellement sans lien officiel avec ses semblables. Cela peut aussi empêcher de recevoir des messages importants lorsque la boite de l'utilisateur est pleine.

    Tout cela pour dire qu'on ne peut pas maintenir la légalité du SPAM comme on le ferait avec les prospectus, ne serait-ce que parce que ceux-ci ont un coût réel à l'unité et surtout un rayon d'action limité, et également parce pour remplir à ras-bord une boite aux lettres postale, il faut vraiment travailler, alors qu'il suffit d'un script pour polluer tout un parc d'adresses e-mail.

    Par contre, il y a toujours quelque chose qui m'étonne: Le protocole POP3 est fait pour envoyer la liste des messages reçus et la taille de chacun d'eux avant de les émettre en entier. Pour se débarrasser efficacement d'un message trop gros par exemple, il suffit soit d'utiliser le webmail s'il est disponible, soit de faire un telnet 110 et d'effacer le message concerné. Or, je ne connais aucun client mail offrant ces facilités ...
  • [^] # Re: Traduction

    Posté par  . En réponse au journal Xfree86 meurt.... Évalué à 4.

    Oui, c'est clair que cela ne signifie pas une dissolution du projet mais simplement du noyau de l'équipe, devenu statique. Ca vaudrait le coup d'en faire une news de seconde page. Je suis bien curieux de savoir quelle va être la nouvelle organisation « officielle ».
  • [^] # Re: Israel confirme ...

    Posté par  . En réponse au journal Israel confirme .... Évalué à 0.

    1) Bon, quand je clique sur le lien, mon mozilla (1.3, sur Mdk 9.1) mouline à plein régime pendant une minute avant de planter lamentablement. C'est décidé, je passe à Konqueror.

    2) Pour Israël, c'est clair que Microsoft ne va pas se laisser faire comme çà. Si j'ai bien compris, une part significative du parc de l'administration d'Israël n'a besoin que d'un ou deux éléments du pack Office ? Je ne vois vraiment pas où est le problème. J'ai vraiment l'impression que MS titille exprès ses clients, même avec la « menace » du libre. Si vraiment cette mesure venait à se concrétiser, il suffirait à Redmond de dire « Bon, d'accord. » pour que le problème soit réglé et que la politique de licences soit reconduite. J'ai bien hâte de voir ce que cela va donner, mais honnêtement je n'y crois pas.
  • [^] # Re: C'ESR CHIANT UNE BELLE FAMILLE

    Posté par  . En réponse au journal C'ESR CHIANT UNE BELLE FAMILLE. Évalué à 2.

    Tu lui prète la soeur de ton beau-frère ?
  • # Re: L'accessoire de la mort pour wmcoincoin

    Posté par  . En réponse au journal L'accessoire de la mort pour wmcoincoin. Évalué à 1.

    Je connaissais, mais quand même, il n'y pas à dire: ce canard, il a vraiment une grosse pin ...
  • [^] # Re: Ma connexion Internet personnelle :

    Posté par  . En réponse au sondage Ma connexion Internet personnelle :. Évalué à 0.

    Oui, enfin à moins que tu fasses de l'IPoEPP par PLIP interposé, ça revient au même.
  • # Re: Ma connexion Internet personnelle :

    Posté par  . En réponse au sondage Ma connexion Internet personnelle :. Évalué à 5.

    [x] 1200 bauds

    J'accède au Net via une passerelle Minitel. Ben oui, et alors ?

    ->[]. Et puis non: <-[]. Trop froid dehors. 'fait un temps de troll.
  • [^] # Re: "telephone sonne" sur les SPAM vendredi soir

    Posté par  . En réponse au journal "telephone sonne" sur les SPAM vendredi soir. Évalué à 2.

    Non, heureusement. Il n'a même pas prononcé le mot « Linux », et pour une fois c'est une bonne chose.

    L'animateur a posément répondu: « Même en langage binaire, cela s'appelle du chantage . », sans faire de remarque sur la puérilité apparente des membres de ladite communauté. Merci à lui.
  • [^] # Re: "telephone sonne" sur les SPAM vendredi soir

    Posté par  . En réponse au journal "telephone sonne" sur les SPAM vendredi soir. Évalué à 2.

    Mais pour un message de ce type passé à l'antenne, combien ont été reçus ? Cela me fait froid dans le dos.

    J'ai écrit un message par le même biais pour bien préciser que la majeure partie de la communauté du logiciel libre a une autre mentalité. Je suis bien content de constater aujourd'hui que c'est vrai.
  • [^] # Re: Compiler du C à la volée

    Posté par  . En réponse au message [Terminal] Compiler du C à la volée. Évalué à 3.

    Berk.
  • [^] # Re: Help problème de kernel...

    Posté par  . En réponse au journal Help problème de kernel.... Évalué à 2.

    Pas forcément au démarrage. Normalement les modules dépendants des autres doivent se charger en cascade, mais dans tous les cas, tu peux toujours essayer de mettre le module zlib dans /etc/modules, là il sera chargé au démarrage. Autrement, laisse tomber le noyau mdk et prend l'original sur kernel.org. En général, cela évite des ennuis difficiles à résoudre.
  • # Re: Module Noyeau

    Posté par  . En réponse au journal Module Noyeau. Évalué à 1.

    Si ta carte réseau est intégrée à ta carte-mère et que tu ne connais pas son modèle, il y a neuf chances sur dix pour que ce soit une Intel EtherExpress 10/100 des familles.

    modprobe e100
    ou
    modprobe eepro100

    sont tous deux tes amis. :-)

    Si c'est bien celle-la, ajoute-le nom du module dans /etc/modules, et eventuellement "alias eth0 e100" dans /etc/modules.conf pour être sûr que ta carte ne changera pas de numéro.
  • [^] # Re: Module Noyeau

    Posté par  . En réponse au journal Module Noyeau. Évalué à 1.

    Sinon, si c'est vital pour toi de savoir quels étaient les modules chargés avant le dernier reboot, tu peux toujours mettre un "lsmod > MesModules" dans rc6.d et rc0.d.
  • [^] # Re: Microsoft s'intéresse à ce que l'on fait de notre linux.

    Posté par  . En réponse à la dépêche Microsoft s'intéresse à ce que l'on fait de notre linux.. Évalué à 2.

    Files moi un argument prouvant que MS essaie et/ou fait pression sur les constructeurs pour qu'ils ne developpent pas de drivers Linux, on en reparlera apres.

    Il est écrit: « ils vont » !

    MS c'est surement pas des anges, leur tout mettre sur le dos n'est pas acceptable cependant, s'il n'y a pas un minimum de debut de preuve derriere alors c'est la porte ouverte a toutes les accusations.

    Effectivement, mais tu sembles oublier que c'est de Microsoft que l'on parle (encore et encore, mais çà, c'est une autre histoire), pas de n'importe quelle autre compagnie à qui l'on pourrait accorder le bénéfice du doute.

    Je ne comprends pas ceux qui ont voté négativement le message de nicO. Le support matériel de Linux est tout de même remarquable (il n'y a qu'à recompiler un noyau pour avoir une idée des différents modèles reconnus), mais reste en deçà, comme tous les autres systèmes alternatifs, du sempiternel Windows parce qu'il faut toujours faire des pieds et des mains chaque fois qu'un nouveau produit sort pour en obtenir soit les spécifications, soit un pilote OEM. A l'inverse, Windows aura toujours une position d'avance en fonctionnant sur tous les matériels, non pas grâce à sa qualité intrinsèque, mais parce que tous les fabricants produisent eux-même et automatiquement un pilote pour le système de référence. C'est un sérieux avantage. Fort de ceci, on peut avancer sans trop se mouiller que pour ta boite, essayer de conserver cet avantage:

    1) est tout-à-fait envisageable.
    2) ferait du tort à la communauté Linux.

    A partir de là, je ne vois vraiment pas pourquoi Bill se priverait.
    Les pressions qu'ont subi les assembleurs de machines vis-à-vis du système d'exploitation proposé sont déjà un minimum de preuves. Alors non, personne n'a encore dit que ta boite est en train de faire pression sur les fabricants de matériel cette fois, mais oui, c'est quelque chose du domaine du possible, voir même du probable pour les prochains mois.
  • # Re: Jon Lech Johansen, mac gyver du libre

    Posté par  . En réponse au journal Jon Lech Johansen, mac gyver du libre. Évalué à 4.

    'faut quand même reconnaître, même s'il a raison, que Johansen cherche un peu les ennuis ! :-) Je dis çà pour lui ...

    Au fait, qu'en est il de DeCCS en France, avant que je diffuse 42 fois le code ?
  • [^] # Re: Un fake ?

    Posté par  . En réponse à la dépêche Microsoft s'intéresse à ce que l'on fait de notre linux.. Évalué à 4.

    A moins que ce soit parce que cela ferait trop mauvais effet sur leur site ! :-) En même temps, des linuxiens convaincus qui passent régulièrement sur le site de Microsoft, il ne doit pas y en avoir beaucoup ...

    Je penche quand même pour le fake mais bon: Je viens de jeter un oeil au formulaire et les informations qui y sont récoltées ont de la valeur, si tant est que les sondés ne bidonnent pas le questionnaire exprès.

    Je me demande si ce ne serait pas encore un coup de Lindows, après la prime pour le craquage de la X-Box, ce pourrait bien être le cas.
  • [^] # Re: Ettore Perazzoli s'en est allé

    Posté par  . En réponse à la dépêche Ettore Perazzoli s'en est allé. Évalué à 1.

    Malheureusement non:

    "On the night of December 10, Ettore Perazzoli died unexpectedly".

    Paix à son âme et merci pour le boulot fourni.
  • # Re: Attention aux choix des cadeaux ....

    Posté par  . En réponse au journal Attention aux choix des cadeaux ..... Évalué à 1.

    C'ets vrai, quoi. Britney Spears pour Noël, quoi de pire ?
  • [^] # Re: Ouuuuééé...

    Posté par  . En réponse au journal Ouuuuééé.... Évalué à 2.

    Ce qui est malheureux, c'est que c'était couru d'avance. Imagine un peu:

    1) Tous les candidats qui y croyaient vraiment, qui ont passé du temps, pour être éliminés pratiquement dès le départ.
    2) La gagnante qui est persuadée d'avoir réussi grâce à son talent (à moins qu'elle sache très bien ce qu'elle fait et dans ce cas c'est une sâââ->[]).
  • [^] # Re: Partition Magic c'est l'horreur...

    Posté par  . En réponse au journal Partition Magic c'est l'horreur.... Évalué à 1.

    Ceux-là ne sont plus admins. Il y a de bonnes chances qu'il aient effectivement pris la --->[].
  • [^] # Re: Partition Magic c'est l'horreur...

    Posté par  . En réponse au journal Partition Magic c'est l'horreur.... Évalué à 6.

    Héhéhé, il faut dire que l'utilisateur qui voit son disque rendu illisible par un rayon cosmique (surtout un seul) n'a vraiment pas de chance. Il faut encore que ce rayon traverse l'atmosphère, puis la structure en béton du bâtiment, puis le boitier métalique de la machine qui contient le disque et enfin les solides plaques de métal qui referment le disque lui-même. Arrivé là, il faut qu'il ait la bonne fréquence, suffisament d'énergie et qu'il passe au bon endroit pour modifier la surface du disque de façon si vicieuse que même le CRC ne pourra rien faire pour le pauvre secteur. A ce point, ce n'est plus du hasard, c'est de l'acharnement ! :-)