Sony a supprimé le "dual boot" sur la PS3 pour des questions de sécurité de la partie propriétaire de la console.
non, non, et non. Sony a viré l'OtherOS sur leur PS3 "slim" avant même qu'on entende parler de Geohot et de son attaque hardware. Ensuite la suppression par mise à jour sur toutes les consoles a été rendue "justifiable" par de prétendues menaces sur le système que faisait peser l'attaque hardware.
A mon humble avis si l'otheros en était resté au même point, personne n'aurait cherché à hacker l'OS principal. C'est paradoxalement cette décision de suppression qui a accéléré l'apparition du jailbreak.
La politique pour la PS3 est l'exemple qui retire toute crédibilité aux prétentions d'ouverture de Sony. Même si parfois on a vraiment l'impression qu'ils cherchent à encourager le libre, s'il y avait une réelle direction, une ligne politique claire chez Sony, ça se saurait. Ce n'est pourtant pas impossible : chez Apple, ils y arrivent bien eux, y'a rien qui dépasse.
Je conseille à chacun d'être très méfiant vis à vis d'une soi-disant ouverture de Sony. Leur stratégie est plus que louche.
Il n'y a pas de confusion de ma part. La moindre appli qui dépend un tant soit peu d'un bout de Qt demande l'installation de plusieurs centaines de mégas de trucs KDE sous Debian.
C'est toi qui fais la confusion entre un troll Qt/KDE et un vrai message exprimant mon désarroi face à ce sac de noeuds que sont les dépendances Debian.
C'est bizarre de centraliser des branches pour chaque utilisateur. Avec Git on travaille plutôt avec un dépôt par utilisateur. Le chef merge les commits à partir des différents dépôts, c'est pratique, c'est fait pour, et sur le dépôt principal on ne voit qu'une évolution linéaire des commits. Et du coup tu n'as rien à changer à ton script.
Ce genre de centrale peut fonctionner 5 à 10 ans sans intervention humaine. De plus la quantité de combustible est trop faible pour atteindre la "masse critique" qui rend possible une réaction en chaîne de type tchernobyl.
Il semble que les résidus de fin de cycle ne sont pas un problème.
Enfin, le combustible utilisé (uranium 235) ne permet pas de fabriquer des bombes (qui utilisent de l'uranium 238).
Enfin, avant de pouvoir installer ce genre de truc il faudra arriver à convaincre la population que c'est sans danger, et ça c'est pas gagné avec la propagande anti-nucléaire actuelle.
L'eau de mer en contient une très grande quantité. Mais on avait besoin de super Phoenix pour l'utiliser...
tu confonds les surgénérateurs (Phénix, Superphénix) et la fusion nucléaire. Les premiers sont des évolutions des technologies actuelles basées sur la fission de l'uranium (je parle de vraie évolution et pas juste de petites améliorations du style EPR), et l'eau de mer contient les isotopes d'hydrogène utilisés dans la fusion nucléaire, dont la technologie n'est pour l'instant maîtrisée que pour faire des bombes.
La personne au-dessus oublit que si les centrales font dans le gigantisme c'est aussi une question de prix. Plus la central est petite et plus la quantité d'énergie coute chère. La baisse du prix de l'électricité provient de la création de ces gigantesques unités.
C'est complètement faux. Quand je parle de production en série c'est justement dans le but de faire baisser les prix, de plus les économies d'énergie et d'entretien de réseau réalisées compensent largement d'éventuels surcoûts liés à la multiplication des générateurs. Ajoutons à cela les moyens nécessaires à la surveillance, et à la gestion de situations de crise, gigantesques pour une centrale régionale, négligeables dans un générateur de quartier car si on réduit la taille du générateur, on réduit aussi la gravité des éventuels incidents.
Sinon les tout premiers PowerPC (à partir du 603) avaient déjà un bus de données 64-bit, seul le bus d'adresse était 32 bits. Les registres étaient 64 bits dès le départ.
Je ne pense pas que des centrales nucléaires plus puissantes suffiraient à enlever tout besoin de pétrole. Il faudrait aussi développer pas mal d'autres technologies, selon moi, notamment pour avoir des batteries assez efficaces pour des voitures électriques, ou même des avions longs-courriers électriques…
Aujourd'hui avec la phobie du nucléaire la recherche se cantonne à concevoir des centrales de plus en plus grosses, concentrant ainsi les risques éventuels en un seul (gros) point, alors qu'il faudrait en faire des plus petites, et en très grande quantité. Déjà parce qu'en deçà d'une certaine taille les risques éventuels sont inexistants à côté de ce que représente un EPR, et qu'en plus la fabrication en grandes série permettrait de réduire la part des coûts de recherche dans les centrales, et faciliterait les améliorations de sécurité.
Une part énorme de l'énergie électrique est perdue par effet Joule dans les lignes à très haute et à haute tension, nécessaires lorsqu'une seule centrale alimente toute une région, dans les transformateurs etc, alors qu'avec une petite centrale de quartier l'énergie serait utilisée bien plus efficacement. Sans compter les opérations de renouvellement de combustible et d'élimination des déchets, infiniment plus simples et sûres. Et ce, en attendant la fusion nucléaire qui supprimera définitivement le problème des déchets.
Le jour où l'énergie nucléaire sera parfaitement maîtrisée, on pourra faire rouler des bagnoles avec. et les besoins en énergie ne seront plus jamais un problème.
Mais c'est comme tout : à partir du moment où ça peut être dangereux, il y a toujours des opposants qui apparaissent. Et c'est en partie dû à la recherche militaire, qui montre qu'on est bien plus forts à fabriquer des bombes qu'à produire de l'énergie proprement et efficacement.
C'est bien cela le problème : les avancées dans la recherche civile ne sont bien souvent que des retombées de la recherche militaire. Si on utilisait réellement et efficacement le budget alloué pour faire péter des bombes à la recherche sur le nucléaire civil, on n'en serait plus à construire de nouvelles centrales basées sur de la technologie à peine plus performante que pour les centrales des années 1960, et le manque de pétrole ne serait plus un problème.
Enfin, tout cela est c'est une question de priorités.
Les calculs militaires sont tout aussi utiles pour l'avenir de l'humanité. Pas que pour l'armée (pour te protéger même si tu trouves ça inutile), mais pour le civil aussi (nombre de choses faite initialement pour le militaire servent quelques années après pour le civil. Par hasard, l'énergie que tu utilises pour t'éclairer / te chauffer parfois / faire tourner ton PC)
Sache que les problématiques de l'armement nucléaire n'ont que très peu à voir avec celles du civil. Dans le premier cas on cherche plutôt à faire péter un truc le plus fort possible, dans l'autre on cherche à maintenir le contrôle d'une réaction nucléaire dans des conditions extrêmes. Autant dire qu'à partir du moment où ça pète les militaires sont contents, et ils vont plutôt chercher ensuite quelles sont les conséquences d'une explosion sur les bâtiments, sur les gens, etc. Les civils vont plutôt avoir tendance à réduire à zéro le risque d'explosion, en ramenant à zéro les conséquences sur les gens et le matériel. Ce sont vraiment deux domaines de recherche à part. Et le problème, c'est que les premiers ont bien plus de moyens que les seconds.
Ensuite, la publication de la part du CEA est plutôt un coup de pub pour montrer qui a la plus grosse. J'ai la ferme conviction que si l'armée US, la NSA ou la CIA rendaient publiques les performances de leurs machines, le top500 ne serait pas tout à fait le même.
En même temps Woz n'est pas vraiment impliqué dans ce qu'est devenu Apple. Les premiers Apple étaient complètement extensibles, permettaient l'ajout de cartes d'extension tierces à faible coût de fabrication, et le concept du PC leur doit beaucoup.
Bref, les premiers Apple (au moins jusqu'au //e voire le //GS) étaient des modèles d'ouverture, pour ce que cela pouvait signifier à l'époque (les logiciels libres n'ayant pas atteint les ordinateurs personnels).
[^] # Re: Je compatis
Posté par zerkman (site web personnel) . En réponse au journal Les joies d'une distribution en Rolling Release.. Évalué à 4.
[^] # Re: si sony etait consistant cela se saurait
Posté par zerkman (site web personnel) . En réponse au journal Sony décide d'utiliser GNUstep pour… on ne sait pas trop quoi.. Évalué à 6.
[^] # Re: si sony etait consistant cela se saurait
Posté par zerkman (site web personnel) . En réponse au journal Sony décide d'utiliser GNUstep pour… on ne sait pas trop quoi.. Évalué à 5.
non, non, et non. Sony a viré l'OtherOS sur leur PS3 "slim" avant même qu'on entende parler de Geohot et de son attaque hardware. Ensuite la suppression par mise à jour sur toutes les consoles a été rendue "justifiable" par de prétendues menaces sur le système que faisait peser l'attaque hardware.
A mon humble avis si l'otheros en était resté au même point, personne n'aurait cherché à hacker l'OS principal. C'est paradoxalement cette décision de suppression qui a accéléré l'apparition du jailbreak.
[^] # Re: si sony etait consistant cela se saurait
Posté par zerkman (site web personnel) . En réponse au journal Sony décide d'utiliser GNUstep pour… on ne sait pas trop quoi.. Évalué à 6.
Je conseille à chacun d'être très méfiant vis à vis d'une soi-disant ouverture de Sony. Leur stratégie est plus que louche.
[^] # Re: Raison
Posté par zerkman (site web personnel) . En réponse au journal Comportement d'apt-get par défaut. Évalué à -3.
C'est toi qui fais la confusion entre un troll Qt/KDE et un vrai message exprimant mon désarroi face à ce sac de noeuds que sont les dépendances Debian.
[^] # Re: Raison
Posté par zerkman (site web personnel) . En réponse au journal Comportement d'apt-get par défaut. Évalué à -2.
[^] # Re: git != svn
Posté par zerkman (site web personnel) . En réponse au message GIT, branches et hook. Évalué à 2.
et ensuite : git merge alice ; git merge bob, etc, alice et bob étant configurés comme des remotes.
[^] # Re: eeebox ?
Posté par zerkman (site web personnel) . En réponse au journal ACPI4Asus à besoin de vous pour compléter le driver eeepc-wmi !. Évalué à 2.
au cas où quand même, le acpidump : http://ouasse.ath.cx/ps3/acpi.txt.gz
# eeebox ?
Posté par zerkman (site web personnel) . En réponse au journal ACPI4Asus à besoin de vous pour compléter le driver eeepc-wmi !. Évalué à 3.
Le pc a environ 2 ans, le proc c'est un Atom N270 1,6 GHz.
Je peux fournir un accès ssh.
# git != svn
Posté par zerkman (site web personnel) . En réponse au message GIT, branches et hook. Évalué à 8.
[^] # Re: Tera 100
Posté par zerkman (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 2.
Il semble que les résidus de fin de cycle ne sont pas un problème.
Enfin, le combustible utilisé (uranium 235) ne permet pas de fabriquer des bombes (qui utilisent de l'uranium 238).
http://www.futura-sciences.com/fr/news/t/physique-1/d/des-re(...)
Enfin, avant de pouvoir installer ce genre de truc il faudra arriver à convaincre la population que c'est sans danger, et ça c'est pas gagné avec la propagande anti-nucléaire actuelle.
[^] # Re: Tera 100
Posté par zerkman (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 5.
tu confonds les surgénérateurs (Phénix, Superphénix) et la fusion nucléaire. Les premiers sont des évolutions des technologies actuelles basées sur la fission de l'uranium (je parle de vraie évolution et pas juste de petites améliorations du style EPR), et l'eau de mer contient les isotopes d'hydrogène utilisés dans la fusion nucléaire, dont la technologie n'est pour l'instant maîtrisée que pour faire des bombes.
La personne au-dessus oublit que si les centrales font dans le gigantisme c'est aussi une question de prix. Plus la central est petite et plus la quantité d'énergie coute chère. La baisse du prix de l'électricité provient de la création de ces gigantesques unités.
C'est complètement faux. Quand je parle de production en série c'est justement dans le but de faire baisser les prix, de plus les économies d'énergie et d'entretien de réseau réalisées compensent largement d'éventuels surcoûts liés à la multiplication des générateurs. Ajoutons à cela les moyens nécessaires à la surveillance, et à la gestion de situations de crise, gigantesques pour une centrale régionale, négligeables dans un générateur de quartier car si on réduit la taille du générateur, on réduit aussi la gravité des éventuels incidents.
[^] # Re: 1993
Posté par zerkman (site web personnel) . En réponse au journal MultideskOS est dépassé maintenant c'est LoseThos !!!. Évalué à 2.
[^] # Re: 1993
Posté par zerkman (site web personnel) . En réponse au journal MultideskOS est dépassé maintenant c'est LoseThos !!!. Évalué à 2.
[^] # Re: 1993
Posté par zerkman (site web personnel) . En réponse au journal MultideskOS est dépassé maintenant c'est LoseThos !!!. Évalué à 4.
[^] # Re: Tera 100
Posté par zerkman (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 3.
Aujourd'hui avec la phobie du nucléaire la recherche se cantonne à concevoir des centrales de plus en plus grosses, concentrant ainsi les risques éventuels en un seul (gros) point, alors qu'il faudrait en faire des plus petites, et en très grande quantité. Déjà parce qu'en deçà d'une certaine taille les risques éventuels sont inexistants à côté de ce que représente un EPR, et qu'en plus la fabrication en grandes série permettrait de réduire la part des coûts de recherche dans les centrales, et faciliterait les améliorations de sécurité.
Une part énorme de l'énergie électrique est perdue par effet Joule dans les lignes à très haute et à haute tension, nécessaires lorsqu'une seule centrale alimente toute une région, dans les transformateurs etc, alors qu'avec une petite centrale de quartier l'énergie serait utilisée bien plus efficacement. Sans compter les opérations de renouvellement de combustible et d'élimination des déchets, infiniment plus simples et sûres. Et ce, en attendant la fusion nucléaire qui supprimera définitivement le problème des déchets.
Le jour où l'énergie nucléaire sera parfaitement maîtrisée, on pourra faire rouler des bagnoles avec. et les besoins en énergie ne seront plus jamais un problème.
Mais c'est comme tout : à partir du moment où ça peut être dangereux, il y a toujours des opposants qui apparaissent. Et c'est en partie dû à la recherche militaire, qui montre qu'on est bien plus forts à fabriquer des bombes qu'à produire de l'énergie proprement et efficacement.
[^] # Re: Tera 100
Posté par zerkman (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 4.
[^] # Re: Tera 100
Posté par zerkman (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 0.
Enfin, tout cela est c'est une question de priorités.
[^] # Re: Tera 100
Posté par zerkman (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 3.
[^] # Re: Tera 100
Posté par zerkman (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à -4.
Les calculs militaires sont tout aussi utiles pour l'avenir de l'humanité. Pas que pour l'armée (pour te protéger même si tu trouves ça inutile), mais pour le civil aussi (nombre de choses faite initialement pour le militaire servent quelques années après pour le civil. Par hasard, l'énergie que tu utilises pour t'éclairer / te chauffer parfois / faire tourner ton PC)
Sache que les problématiques de l'armement nucléaire n'ont que très peu à voir avec celles du civil. Dans le premier cas on cherche plutôt à faire péter un truc le plus fort possible, dans l'autre on cherche à maintenir le contrôle d'une réaction nucléaire dans des conditions extrêmes. Autant dire qu'à partir du moment où ça pète les militaires sont contents, et ils vont plutôt chercher ensuite quelles sont les conséquences d'une explosion sur les bâtiments, sur les gens, etc. Les civils vont plutôt avoir tendance à réduire à zéro le risque d'explosion, en ramenant à zéro les conséquences sur les gens et le matériel. Ce sont vraiment deux domaines de recherche à part. Et le problème, c'est que les premiers ont bien plus de moyens que les seconds.
Ensuite, la publication de la part du CEA est plutôt un coup de pub pour montrer qui a la plus grosse. J'ai la ferme conviction que si l'armée US, la NSA ou la CIA rendaient publiques les performances de leurs machines, le top500 ne serait pas tout à fait le même.
[^] # Re: Ouais mais...
Posté par zerkman (site web personnel) . En réponse au journal Non à l'expulsion des CD-Rom !!!. Évalué à 8.
# Merci !
Posté par zerkman (site web personnel) . En réponse à la dépêche Le Top 500 de novembre 2010. Évalué à 8.
Je signale juste une petite coquille, tu as écrit que la machine Tera-100 du CEA atteignait 1,05 téraflops, il s'agit bien sûr de 1,05 pétaflops.
[^] # Re: hg
Posté par zerkman (site web personnel) . En réponse au sondage Mon logiciel de Logiciel de gestion de versions favori est :. Évalué à 2.
[^] # Re: Tu ne crois pas si bien dire...
Posté par zerkman (site web personnel) . En réponse au journal Le Web sauvera Internet, le journal retour. Évalué à 4.
[^] # Re: Steve Wozniak
Posté par zerkman (site web personnel) . En réponse au journal Le Web sauvera Internet, le journal retour. Évalué à 5.
Bref, les premiers Apple (au moins jusqu'au //e voire le //GS) étaient des modèles d'ouverture, pour ce que cela pouvait signifier à l'époque (les logiciels libres n'ayant pas atteint les ordinateurs personnels).