zerkman a écrit 1107 commentaires

  • [^] # Re: Je compatis

    Posté par  (site web personnel) . En réponse au journal Les joies d'une distribution en Rolling Release.. Évalué à 4.

    ah oui comme avec lilo quand on voulait garder à la fois le noyau 0.9 et le 1.0
  • [^] # Re: si sony etait consistant cela se saurait

    Posté par  (site web personnel) . En réponse au journal Sony décide d'utiliser GNUstep pour… on ne sait pas trop quoi.. Évalué à 6.

    C'est pas très sympa pour les enculés en général. (j'ai failli dire « au sens large »)
  • [^] # Re: si sony etait consistant cela se saurait

    Posté par  (site web personnel) . En réponse au journal Sony décide d'utiliser GNUstep pour… on ne sait pas trop quoi.. Évalué à 5.

    Sony a supprimé le "dual boot" sur la PS3 pour des questions de sécurité de la partie propriétaire de la console.
    non, non, et non. Sony a viré l'OtherOS sur leur PS3 "slim" avant même qu'on entende parler de Geohot et de son attaque hardware. Ensuite la suppression par mise à jour sur toutes les consoles a été rendue "justifiable" par de prétendues menaces sur le système que faisait peser l'attaque hardware.

    A mon humble avis si l'otheros en était resté au même point, personne n'aurait cherché à hacker l'OS principal. C'est paradoxalement cette décision de suppression qui a accéléré l'apparition du jailbreak.
  • [^] # Re: si sony etait consistant cela se saurait

    Posté par  (site web personnel) . En réponse au journal Sony décide d'utiliser GNUstep pour… on ne sait pas trop quoi.. Évalué à 6.

    La politique pour la PS3 est l'exemple qui retire toute crédibilité aux prétentions d'ouverture de Sony. Même si parfois on a vraiment l'impression qu'ils cherchent à encourager le libre, s'il y avait une réelle direction, une ligne politique claire chez Sony, ça se saurait. Ce n'est pourtant pas impossible : chez Apple, ils y arrivent bien eux, y'a rien qui dépasse.

    Je conseille à chacun d'être très méfiant vis à vis d'une soi-disant ouverture de Sony. Leur stratégie est plus que louche.
  • [^] # Re: Raison

    Posté par  (site web personnel) . En réponse au journal Comportement d'apt-get par défaut. Évalué à -3.

    Il n'y a pas de confusion de ma part. La moindre appli qui dépend un tant soit peu d'un bout de Qt demande l'installation de plusieurs centaines de mégas de trucs KDE sous Debian.

    C'est toi qui fais la confusion entre un troll Qt/KDE et un vrai message exprimant mon désarroi face à ce sac de noeuds que sont les dépendances Debian.
  • [^] # Re: Raison

    Posté par  (site web personnel) . En réponse au journal Comportement d'apt-get par défaut. Évalué à -2.

    ou encore le moindre outil sous Qt qui me propose la totale d'un environnement de bureau que je n'utiliserai jamais.
  • [^] # Re: git != svn

    Posté par  (site web personnel) . En réponse au message GIT, branches et hook. Évalué à 2.

    non, tu peux ajouter les différents dépôts en remote (cf commande "git remote add"), et faire un fetch dessus.

    et ensuite : git merge alice ; git merge bob, etc, alice et bob étant configurés comme des remotes.
  • [^] # Re: eeebox ?

    Posté par  (site web personnel) . En réponse au journal ACPI4Asus à besoin de vous pour compléter le driver eeepc-wmi !. Évalué à 2.

    ok, bon.

    au cas où quand même, le acpidump : http://ouasse.ath.cx/ps3/acpi.txt.gz
  • # eeebox ?

    Posté par  (site web personnel) . En réponse au journal ACPI4Asus à besoin de vous pour compléter le driver eeepc-wmi !. Évalué à 3.

    J'ai une eeebox, c'est censé être le même matos que le eeepc, non ?

    Le pc a environ 2 ans, le proc c'est un Atom N270 1,6 GHz.

    Je peux fournir un accès ssh.
  • # git != svn

    Posté par  (site web personnel) . En réponse au message GIT, branches et hook. Évalué à 8.

    C'est bizarre de centraliser des branches pour chaque utilisateur. Avec Git on travaille plutôt avec un dépôt par utilisateur. Le chef merge les commits à partir des différents dépôts, c'est pratique, c'est fait pour, et sur le dépôt principal on ne voit qu'une évolution linéaire des commits. Et du coup tu n'as rien à changer à ton script.
  • [^] # Re: Tera 100

    Posté par  (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 2.

    Ce genre de centrale peut fonctionner 5 à 10 ans sans intervention humaine. De plus la quantité de combustible est trop faible pour atteindre la "masse critique" qui rend possible une réaction en chaîne de type tchernobyl.

    Il semble que les résidus de fin de cycle ne sont pas un problème.

    Enfin, le combustible utilisé (uranium 235) ne permet pas de fabriquer des bombes (qui utilisent de l'uranium 238).

    http://www.futura-sciences.com/fr/news/t/physique-1/d/des-re(...)

    Enfin, avant de pouvoir installer ce genre de truc il faudra arriver à convaincre la population que c'est sans danger, et ça c'est pas gagné avec la propagande anti-nucléaire actuelle.
  • [^] # Re: Tera 100

    Posté par  (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 5.

    L'eau de mer en contient une très grande quantité. Mais on avait besoin de super Phoenix pour l'utiliser...
    tu confonds les surgénérateurs (Phénix, Superphénix) et la fusion nucléaire. Les premiers sont des évolutions des technologies actuelles basées sur la fission de l'uranium (je parle de vraie évolution et pas juste de petites améliorations du style EPR), et l'eau de mer contient les isotopes d'hydrogène utilisés dans la fusion nucléaire, dont la technologie n'est pour l'instant maîtrisée que pour faire des bombes.

    La personne au-dessus oublit que si les centrales font dans le gigantisme c'est aussi une question de prix. Plus la central est petite et plus la quantité d'énergie coute chère. La baisse du prix de l'électricité provient de la création de ces gigantesques unités.
    C'est complètement faux. Quand je parle de production en série c'est justement dans le but de faire baisser les prix, de plus les économies d'énergie et d'entretien de réseau réalisées compensent largement d'éventuels surcoûts liés à la multiplication des générateurs. Ajoutons à cela les moyens nécessaires à la surveillance, et à la gestion de situations de crise, gigantesques pour une centrale régionale, négligeables dans un générateur de quartier car si on réduit la taille du générateur, on réduit aussi la gravité des éventuels incidents.
  • [^] # Re: 1993

    Posté par  (site web personnel) . En réponse au journal MultideskOS est dépassé maintenant c'est LoseThos !!!. Évalué à 2.

    Sinon les tout premiers PowerPC (à partir du 603) avaient déjà un bus de données 64-bit, seul le bus d'adresse était 32 bits. Les registres étaient 64 bits dès le départ.
  • [^] # Re: 1993

    Posté par  (site web personnel) . En réponse au journal MultideskOS est dépassé maintenant c'est LoseThos !!!. Évalué à 2.

    De 1997 avec le PowerPC 620 : http://fr.wikipedia.org/wiki/PowerPC_620
  • [^] # Re: 1993

    Posté par  (site web personnel) . En réponse au journal MultideskOS est dépassé maintenant c'est LoseThos !!!. Évalué à 4.

    La famille PowerPC avait dès le départ des specs 64-bits, même si beaucoup d'implémentations étaient 32 bits.
  • [^] # Re: Tera 100

    Posté par  (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 3.

    Je ne pense pas que des centrales nucléaires plus puissantes suffiraient à enlever tout besoin de pétrole. Il faudrait aussi développer pas mal d'autres technologies, selon moi, notamment pour avoir des batteries assez efficaces pour des voitures électriques, ou même des avions longs-courriers électriques…
    Aujourd'hui avec la phobie du nucléaire la recherche se cantonne à concevoir des centrales de plus en plus grosses, concentrant ainsi les risques éventuels en un seul (gros) point, alors qu'il faudrait en faire des plus petites, et en très grande quantité. Déjà parce qu'en deçà d'une certaine taille les risques éventuels sont inexistants à côté de ce que représente un EPR, et qu'en plus la fabrication en grandes série permettrait de réduire la part des coûts de recherche dans les centrales, et faciliterait les améliorations de sécurité.

    Une part énorme de l'énergie électrique est perdue par effet Joule dans les lignes à très haute et à haute tension, nécessaires lorsqu'une seule centrale alimente toute une région, dans les transformateurs etc, alors qu'avec une petite centrale de quartier l'énergie serait utilisée bien plus efficacement. Sans compter les opérations de renouvellement de combustible et d'élimination des déchets, infiniment plus simples et sûres. Et ce, en attendant la fusion nucléaire qui supprimera définitivement le problème des déchets.

    Le jour où l'énergie nucléaire sera parfaitement maîtrisée, on pourra faire rouler des bagnoles avec. et les besoins en énergie ne seront plus jamais un problème.

    Mais c'est comme tout : à partir du moment où ça peut être dangereux, il y a toujours des opposants qui apparaissent. Et c'est en partie dû à la recherche militaire, qui montre qu'on est bien plus forts à fabriquer des bombes qu'à produire de l'énergie proprement et efficacement.
  • [^] # Re: Tera 100

    Posté par  (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 4.

    Ca a aussi l'avantage de protéger des ours polaires : regardez, il n'y en a aucun chez nous.
  • [^] # Re: Tera 100

    Posté par  (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 0.

    C'est bien cela le problème : les avancées dans la recherche civile ne sont bien souvent que des retombées de la recherche militaire. Si on utilisait réellement et efficacement le budget alloué pour faire péter des bombes à la recherche sur le nucléaire civil, on n'en serait plus à construire de nouvelles centrales basées sur de la technologie à peine plus performante que pour les centrales des années 1960, et le manque de pétrole ne serait plus un problème.

    Enfin, tout cela est c'est une question de priorités.
  • [^] # Re: Tera 100

    Posté par  (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 3.

    En même temps vu qu'on n'est pas supposés les utiliser, on s'en fout qu'elles pètent réellement ou pas, non ?
  • [^] # Re: Tera 100

    Posté par  (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à -4.

    Je réponds à ce troll juste sur un point :

    Les calculs militaires sont tout aussi utiles pour l'avenir de l'humanité. Pas que pour l'armée (pour te protéger même si tu trouves ça inutile), mais pour le civil aussi (nombre de choses faite initialement pour le militaire servent quelques années après pour le civil. Par hasard, l'énergie que tu utilises pour t'éclairer / te chauffer parfois / faire tourner ton PC)

    Sache que les problématiques de l'armement nucléaire n'ont que très peu à voir avec celles du civil. Dans le premier cas on cherche plutôt à faire péter un truc le plus fort possible, dans l'autre on cherche à maintenir le contrôle d'une réaction nucléaire dans des conditions extrêmes. Autant dire qu'à partir du moment où ça pète les militaires sont contents, et ils vont plutôt chercher ensuite quelles sont les conséquences d'une explosion sur les bâtiments, sur les gens, etc. Les civils vont plutôt avoir tendance à réduire à zéro le risque d'explosion, en ramenant à zéro les conséquences sur les gens et le matériel. Ce sont vraiment deux domaines de recherche à part. Et le problème, c'est que les premiers ont bien plus de moyens que les seconds.

    Ensuite, la publication de la part du CEA est plutôt un coup de pub pour montrer qui a la plus grosse. J'ai la ferme conviction que si l'armée US, la NSA ou la CIA rendaient publiques les performances de leurs machines, le top500 ne serait pas tout à fait le même.
  • [^] # Re: Ouais mais...

    Posté par  (site web personnel) . En réponse au journal Non à l'expulsion des CD-Rom !!!. Évalué à 8.

    Ils ont voulu arrêter les déguisements. On sait désormais qui se cache réellement derrière le mouchard de l'HADOPI.
  • # Merci !

    Posté par  (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 8.

    Merci pour cette très bonne analyse du résultat du top500.

    Je signale juste une petite coquille, tu as écrit que la machine Tera-100 du CEA atteignait 1,05 téraflops, il s'agit bien sûr de 1,05 pétaflops.
  • [^] # Re: hg

    Posté par  (site web personnel) . En réponse au sondage Mon logiciel de Logiciel de gestion de versions favori est :. Évalué à 2.

    On peut aussi pour Git, avec dav/http. Mais franchement, pourquoi faire compliqué ?
  • [^] # Re: Tu ne crois pas si bien dire...

    Posté par  (site web personnel) . En réponse au journal Le Web sauvera Internet, le journal retour. Évalué à 4.

    Il faut un compte Facebook pour pouvoir télécharger le document O_o
  • [^] # Re: Steve Wozniak

    Posté par  (site web personnel) . En réponse au journal Le Web sauvera Internet, le journal retour. Évalué à 5.

    En même temps Woz n'est pas vraiment impliqué dans ce qu'est devenu Apple. Les premiers Apple étaient complètement extensibles, permettaient l'ajout de cartes d'extension tierces à faible coût de fabrication, et le concept du PC leur doit beaucoup.

    Bref, les premiers Apple (au moins jusqu'au //e voire le //GS) étaient des modèles d'ouverture, pour ce que cela pouvait signifier à l'époque (les logiciels libres n'ayant pas atteint les ordinateurs personnels).