"ouvert" ? Non ! Les specs sont publiquement accessibles.
Drôle de phrase. Tu n'as pas l'impression de te contredire ?
Quoi qu'il en soit, un format dont les spécifications sont disponibles pour tout le monde est un format ouvert (ou alors je parle vraiment mal le français), et c'est le cas du MPEG.
Et qui se souvient de Dopus magelan ?
Le truc qui venait par dessus le workbench et la lib MUI ( y avait un E ? )
Je m'en souviens très bien de Directory Opus (DOpus pour les intimes), et la lib MUI (Magic User Interface) qui était aux gadgets de base du système ce que GTK est à X11.
Ce que je regrette beaucoup, c'est BrowserII (je n'utilisais pas DOpus), qui permettait d'avoir autant de fenêtres qu'on voulait (au lieu des 2 vues de DOpus), des menus contextuels variés, des options de copie puissantes (du genre "renommer, écraser, updater ?", etc). C'était programmé par 2 français, Sylvain Rougier et Pierre Carette si ma mémoire est bonne (malheureusement l'un des 2 est décédé à l'époque dans un accident de moto). Si quelqu'un connaît un programme similaire pour X, je suis preneur !
Ca faisait depuis fin 1998 que je n'avais pas été voir (avant c'était presque tous les jours, j'avais mon 1200 (au fait je l'ai toujours mais il ne sert plus)), j'ai été scié de voir qu'il y a encore eu une cinquantaine de nouveautés dans les 7 derniers jours. Il faut croire que la communauté est bien active.
Y'a qu'à faire un tour sur Aminet pour voir le nombre de programmes qui existent pour l'Amiga.
Tu peux le dire, j'étais un drogué de l'AmiNet ! Et avant AmiNet, en 1990 il y avait déjà des programmes en GPL, sur les disquettes Fred Fish. A l'époque, je connaissais la license, mais c'était avant le phénomène Linux donc je ne mesurais pas toute la potentialité de la chose. J'ai eu accès à AmiNet dès 1991 grâce à l'accès Internet de l'ENST. Je pouvais même me connecter depuis chez moi avec un modem, c'était vachement bien fichu à l'ENST.
(note: pour ceux qui ont connu, je suis un des fondateurs du club Amiga Télécom-Paris et on écrivait des articles dans AmigaNews).
les vrais de vrais on commence avec un vic20 non ?
En effet, j'avais fait quelques essais sur un Vic20 au lycée, et ensuite mes parents nous avaient offert un Commodore 64.
Je m'étais passionné pour la bête, j'avais même écrit un assembleur 2 passes qui surpassait largement celui disponible dans le commerce, et j'avais écrit partiellement un macro-assembleur. A l'époque, on pouvait vraiment connaître à fond sa machine. Le chipset sonore permettait de faire des choses pas si mal pour l'époque.
Et par un ami allemand j'avais accès à plein de jeux, il y en avait eu un paquet, dont certains absolument passionnant (Boulder Dash I et II, j'y ai passé des heures dessus !).
Pour répondre sérieusement à ton commentaire, l'Amiga avait un OS qui était sans commune mesure avec celui de l'Atari. L'Amiga était un "petit" Unix, sans la protection mémoire mais avec beaucoup de concepts avancés, surtout pour l'époque sur une machine à 3000 FRF (Amiga 500).
Ensuite, avec l'A1200 et le Workbench 3.0, il y a eu les datatypes et plein d'autres trucs très bien fichus. Il y avait ARexx aussi pour commander les applications depuis des scripts (on peut considérer que Perl remplit un peu ce rôle sous Linux, je m'en sers pour "scripter" GIMP).
De plus Atari a sorti un modèle comparable à l'A500 en termes de chipset graphique/sonore mais nettement après. Haaaa, Agnus, Paula, Denise, tout un monde :-)
Les vrais hommes ont connu l'Amiga. Je suis passé de l'Amiga au PC/Linux en 1998, je n'ai jamais eu Windows chez moi.
Fait la utiliser konqui (avec fake ua=IE ) et ça passe sans problèmes.
D'un autre côté, simuler Internet Explorer fait augmenter artificiellement les statistiques de ce navigateur, ce qui va à l'encontre de l'interopérabilité car s'ils voient 99% de I.E., pourquoi ils s'embêteraient à changer leur site ?
(ce que je dis n'est pas nouveau mais je le rappelle)
Reponce sencé de l'ingenieur IBM, on ne peut étre responcable [...]
Pitié pour l'orthographe, comme d'habitude...
Juste par curiosité, quel est ton métier ? Je n'ai quasiment jamais vu quelqu'un écrire aussi mal, surtout pour une personne qui a des connaissances techniques non triviales. Ca ne te joue pas des tours ?
J'ai une question pratique à propos de nmap. Est-ce qu'on a le droit le l'utiliser en France? Enfin, mis à part scanner sa propre machine bien sûr? Il est interdit de scanner les ports ou pas?
Je pense que c'est autorisé, mais si je voulais faire un nmap je le ferais en mode discret de préférence, pour moins risquer de charger la machine explorée ou le réseau.
Par contre, j'ai appris tout récemment qu'à ma boîte c'est interdit. Je l'avais fait depuis un de mes serveurs Linux sur une machine qui me semblait avoir essayé de rentrer sur la mienne. Je pense que j'ai dû scanner une machine du service interne informatique qui faisait un audit de sécurité.
Je viens de la compiler et de l'essayer, mais je vais encore rester à la 0.90pre10.
C'est la dernière version qui marche bien chez moi pour le plein écran, à savoir que quand je passe en plein écran, quand mplayer passe au fichier suivant, ça reste en plein écran. Ici, avec la rc3 (la rc2 c'était pareil, sans doute la rc1 me souviens plus), je n'arrive même plus à passer au fichier suivant, il rejoue au début le même fichier !
Je me demande ce qu'ils entendent par avoir réparé le plein écran. Quelqu'un est dans le même cas que moi ?
Ma configuration : noyau 2.4.18, XFree 4.2.0, Matrox G400 (le driver xv est très bien supporté), Duron 1 GHz, 384 Mo.
Mais à la relecture avec la grille de lecture que je donne, c'est tristement limpide
Il faut vraiment arrêter de dire n'importe quoi. Tu prends tes fantasmes pour la réalité sans doute... C'est toi qui est pitoyable dans ta vision des choses.
(désolé, pour une fois que je manifeste un peu d'agacement, mais là c'est trop fort)
Je peux te dire que quand on stocke des événements en temps réel, on est bien content de tirer parti de la rapidité de MySQL...
J'imagine que tu parles d'expérience, tu peux en dire plus sur tes besoins ? As-tu comparé MySQL et PostgreSQL pour ton utilisation ? N'hésite pas, tout retour d'information est intéressant.
Mysql est souvent plus rapide (ca dépend des insctructions) et stable, mais il est à noter que pgsql devient de plus en plus rapide et stable et mysql dispose de plus en plus de fonctionnalités.
On peut donc dire qu'ils vont vers le même point.
MySQL est souvent plus rapide, mais en cas de requêtes complexes, Postgresql est supérieur (il a un optimiseur complexe, et même un mode par algo génétique pour les requêtes vraiment complexes). De plus, si on ajoute tout ce que peut faire Postgres "tout seul" : triggers, procédures stockées, contrôle d'intégrité (foreign keys), il est beaucoup plus puissant.
Question stabilité, je n'ai jamais planté Postgres (ainsi qu'un ami qui en a sur ses serveurs en production); alors que MySQL a eu la réputation d'être plantable (d'où les outils de récupération de table ISAM).
Je crois qu'une grosse amélioration qui a été apportée à Postgres, c'est le "vacuum" sans verrouillage de table. Le vacuum effectue une sorte de défragmentation, et jusqu'à un version récente, il revenait à rendre la base plus ou moins inutilisable, ce qui est un problème si la base doit fonctionner 24h/24. Le vacuum ("vide" en anglais) réduit la taille des fichiers de la base (élimine les trous).
La fragmentation est dûe au modèle de MVCC = Multi-Version Concurrency Control, qui permet l'isolation des transactions, ce qui veut dire qu'on peut être plusieurs à modifier la base en même temps et chacun ne voit que ses modifs, tant que ce n'est pas "commité". La fragmentation sera d'autant plus forte qu'il y aura des mise à jour (update), bien entendu si on fait surtout des select, la fragmentation sera faible. Je ne sais pas s'il est forcément nécessaire de faire des vacuum souvent, il faudrait mesurer l'impact sur les performances.
J'entends toujours dire que Postgres est supérieur à MySQL. Si c'est vrai, pourquoi dit-on toujours du trio Apache/PHP/MySQL qu'il est si génial ? Pourquoi pas le trio Apache/PHP/Postgres ?
Il y a plusieurs raisons à la popularité de MySQL :
- il a commencé comme un moteur tout simple et a été adopté très tôt par des sites Web pour rajouter du dynamique
- il y a une société derrière, qui aide à le promouvoir, ça compte (dès qu'il y a une nouvelle version, c'est repris sur pas mal de sites Web)
- dans le temps, MySQL était beaucoup plus rapide pour des requêtes simples comme celles d'un site Web. Je ne sais pas si ce surcroît de rapidité est toujours nécessaire (comme pour une carte graphique, atteindre 220 fps c'est pas vraiment utile).
J'utilise Apache/PHP/Postgres depuis 2 ans, et ça marche très bien. Je pense que si on veut une base de données pour stocker des choses vraiment importantes, Postgres est indispensable car il gère parfaitement les transactions et la cohérence (avec les clefs étrangères), ce que ne fait pas encore MySQL. Historiquement, Postgres se comporte très bien avec un grand nombre de connexions simultanées.
J'ai tout récemment voulu tester les différentes version de Postgres (par exemple la dernière 7.3 par rapport à la 7.0), j'ai utilisé pgbench qui est livré avec et qui simule plus ou moins un TCP-B (c'est ce qui est écrit). C'est un benchmark assez basique, qui ne remplace pas votre test pour votre besoin. A première vue, il n'y a pas de différence très significative, mais il faudrait que je refasse les tests plus rigoureusement (j'ai déjà utilisé une partition formatée avant chaque test). pgbench simule plusieurs clients en parallèle.
J'ai aussi voulu faire la comparaison Postgres 7.3.1 contre MySQL 3.23.54 (dernières versions), en portant pgbench sur MySQL. Effectivement, en utilisant des tables simples (MyISAM) et sans transactions (pgbench fait "begin; select; update; [...] ; end"), MySQL est 2 à 3 fois plus rapide. Par contre, dès que j'utilise des tables InnoDB, les performances baissent très nettement. En fait, je n'ai pas réussi à reproduire le test de pgbench car MySQL bloque lors de 2 updates simultanés sur la même rangée (deadlock).
J'ai aussi testé les procédures stockées de Postgres (toujours avec pgbench) et ça accélère énormément : selon les paramètres, entre 2 et 4 fois.
- Le clonage par l'intermédiaure d'un graveur de salon est toujours possible même pour un CD protégé.
Je n'ai pas tellement compris cette histoire (j'ai écouté l'émission).
Si on peut recopier un CD protégé, où est la protection ? Est-ce que ça veut dire que le graveur produit un CD protégé ?
Le seul frein à la copie est alors le fait d'avoir un graveur de salon. Je m'étonne quand même qu'on ne puisse pas modifier le firmware d'un CD-ROM pour pouvoir lire un CD "protégé" de la même façon qu'un graveur de salon y arrive.
Corrigez-moi si je me trompe, mais il semble qu'il soit impossible de presser un CD (de manière industrielle) dont la durée dépasse 74 min.
Je ne crois pas car j'ai déjà vu des CD dans le commerce qui dépassent les 74 minutes, dans un cas c'était une compilation style "Dance Hits" (77 minutes), dans l'autre la 9e symphonie de Beethoven (un Deutsche Grammophon je crois, pas une production confidentielle), 79 minutes.
il me semble qu'à l'epoque de Gutemberg, pour imprimer un caractere, on placait une petite fonte (un morceau de fonte representant la lettre donc) dans un grand cadre que l'on encrait et qu'on appliquait sur le papier...
Non, les caractères étaient en plombs, et ils étaient fondus, d'où le terme de fonte je suppose (cf d'autres commentaires).
ca me semble tres francais comme terme ...
Le terme de fonte est bien français, par contre les fontes (pluriel) désigne autre chose, à savoir les sacoches qui sont accrochées à la selle d'un cheval. On peut le lire dans la littérature des siècles précédents, où des gens voyagent à cheval ("qu'ai-je donc dans mes fontes" dans Don Juan de Molière je crois). Ca se dit aussi pour des sacoches qu'on met sur un moto, sur la selle.
un cd comprend 2 zones ... la zone de donné + une zone de correction
en gros c a peu pres la meme capacité.
Je pense que tu te trompes.
A ma connaissance, un secteur de CD fait 2560 octets bruts, et selon que c'est un CD-Audio ou un CD-ROM les données de contrôle et correction d'erreur ne prennent pas autant de place :
- 256 octets pour un CD-Audio, restent 2304 octets de données musicales
- 512 octets pour un CD-ROM, restent 2048 octets de données
C'est compréhensible car il est tolérable de laisser passer des erreurs sur un CD-Audio (souvent quasi-inaudible) alors que sur un CD-ROM il ne peut y en avoir aucune (pour être plus précis, la probabilité d'erreur doit être super faible).
Les lecteurs de salon lisent bien sûr la zone de correction des CD-Audio. J'ai malheureusement un CD (un Deutsche Grammophon) qui s'est dégradé avec le temps (il a plus de 10 ans) et qui est devenu peu à peu illisible, la surface doit être trop abîmée. Mon lecteur de CD SCSI ne fait pas mieux que mon lecteur audio Philips. J'aurais dû le dupliquer avant qu'il ne s'abîme trop, mais je ne l'écoutais pas souvent. En principe il devrait être échangeable, il faudrait que je voie avec l'éditeur.
Cette différence (de place prise par les codes correcteurs) explique pourquoi un CD-ROM est donné nominalement pour 650 Mo alors que quand on extrait 74 minutes de musique d'un CD-Audio (durée max nominale) on obtient plutôt 740 Mo (650 / 2048 * 2304).
[ DVD illisible presque partout] j'ai dû faire une copie en divx sur du film que j'avais acheté...
Sais-tu pourquoi il est sensé être illisible, c'est normal ou pas ?
Par ailleurs, comment as-tu réussi à le copier en DivX si tu n'arrivais pas à le lire ?
il y à écrisa écrit DADC sur le dvd (en tout petit petit)..
Non. Cf aussi la crise de 1929, où on brûlait les oranges en Californie pour ne pas faire baisser les prix alors que les gens mourraient de finaim.
Ce n'est pas comparable.
Tout d'abord la crise était sévère, mais je ne pense pas que les gens mourraient litéralement de faim.
D'une part en maintenant le cours des oranges à un certain niveau, cela permettait sans doute à pas mal d'agriculteurs de continuer à tirer un revenu de leur activité (les temps étaient durs pour tout le monde) et de vivre. D'autre part, pour que les oranges en surplus puissent nourrir les gens affamés, il aurait fallu les transporter, ce qui n'est pas gratuit. C'est comme pour les excédents agricoles qu'on a en Europe, ils pourraient servir à nourrir des gens en Afrique mais ça coûterait cher de les expédier.
Il s'agit d'un modèle "N to M", qui ressemble à ce qui a été fait dans la NPTL (Native Posix Threads Library de Ulrich Drepper et Ingo Molnar) pour Linux. Ca permet d'avoir beaucoup de threads répartis efficacement sur plusieurs CPU, sans surcoût important.
Un crime, tu n'y vas pas de main morte !
Tout d'abord il faut bien définir ce qu'on entend par piratage informatique :
- copie non autorisée de fichiers (recopie de programmes ou de fichiers multimédias)
- simple intrusion dans un système
- intrusion dans un système avec vol
- ou encore, ce qui est à mon avis le plus dangereux, intrusion dans un système avec mise en danger de la vie d'autrui (par exemple un système de contrôle ou surveillance de trafic aérien).
Dans la plupart des cas, c'est un délit au même titre que le vol. Dans le dernier cas que je cite, je ne suis pas un spécialiste en droit, ça pourrait sans doute être qualifié en crime (l'homicide involontaire est-il un crime ? si quelqu'un peut nous éclairer).
Ma nouvelle ayant mis du temps à être modérée (j'ai l'ai soumise le 14 ou le 15), j'ai cru qu'un modérateur était tombé sur un des démentis et qu'elle ne serait pas publiée...
Même si c'est un faux, en première lecture rapide ça m'avait l'air d'être relativement plausible, ça nous apprendra au moins à être encore plus prudent et à nous méfier un peu plus de ces "majors" de la musique et du cinéma. Cela dit, je ne regarde pas d'un très bon oeil ceux qui passent leur temps à pomper des MP3 sur le Net et qui n'achètent jamais de disque.
En pratique, les perf de linux sur quadri/octo sont assez pourris parait-il.
De ce que j'ai compris, le noyau 2.2 gérait correctement 2 processeurs, mais beaucoup moins bien à partir de 4, étant donné la granularité grossière des verrous (le big kernel lock), quasiment un seul processus seulement pouvant être dans le noyau à la fois.
Avec le noyau 2.4 est arrivée une granularité beaucoup plus fine et je crois que le big kernel lock n'est presque plus utilisé. La granularité plus fine permet aussi de faciliter le développement de patch "low-latency" ou "preempt". Je ne sais pas jusqu'à combien de processeurs le noyau 2.4 est censé être performant.
Le noyau 2.5/2.6 a quant à lui été retravaillé pour une meilleure granularité pour les entrées/sorties. Ca concernera surtout les serveurs qui seront chargés en E/S, sans doute pas beaucoup nous sur nos machines de bureau.
Si bien sûr, il y a eu au moins la 8.0 (1er semestre) et la 8.1 (second semestre).
Je crois qu'il y a des gens qui n'aiment pas la SuSE parmi ceux qui ont rédigé la nouvelle. C'est un peu débile à mon avis, étant donné le soutien qu'apporte SuSE au logiciel libre et à Linux, avec les projets qu'elle sponsorise et les développeurs qu'elle fait directement travailler comme Andrea Archangeli (auteur de la VM du noyau, rien que ça).
Ceci dit c'est vrai qu'à priori les lois ne sont pas rétroactives donc pour le DVD on est normalement tranquilles, mais pour les nouveaux supports à venir - qui seront cryptés, faut pas se leurrer - ça va être la bonne grosse merde.
Pour aller dans ton sens, je pense que ce qui pourrait être interdit dans le futur, avec de nouveaux supports, c'est de diffuser des techniques de décryptage. On risque en effet d'être dans la merde. Cependant, l'argument selon lequel DeCSS permet de pirater un DVD n'est pas valide puisqu'on peut très bien dupliquer un DVD sans le décrypter (je dis bien décrypter et non déchiffrer vu qu'on casse le truc), ce dont ne se privent pas les réseaux de DVD pirates.
A mon avis, on ne peut pas interdire l'utilisation d'un logiciel comme DeCSS pour un particulier, puisque personne n'est lésé : on voit un DVD qu'on a acheté. D'ailleurs même aux USA je pense qu'aucune "major" du cinéma ne pense à poursuivre les particuliers qui lisent des DVD avec DeCSS. Faudra juste héberger les serveurs des projets de décryptage dans des pays qui n'ont pas de législation à la DMCA ou EUCD, genre en Asie (Taiwan, Philipines, etc).
[^] # Re: Microsoft tente de déstabiliser le MPEG-4
Posté par Olivier Jeannet . En réponse à la dépêche Microsoft tente de déstabiliser le MPEG-4. Évalué à 0.
Drôle de phrase. Tu n'as pas l'impression de te contredire ?
Quoi qu'il en soit, un format dont les spécifications sont disponibles pour tout le monde est un format ouvert (ou alors je parle vraiment mal le français), et c'est le cas du MPEG.
[^] # Re: Amiga est de retour !
Posté par Olivier Jeannet . En réponse à la dépêche Amiga est de retour !. Évalué à 1.
Le truc qui venait par dessus le workbench et la lib MUI ( y avait un E ? )
Je m'en souviens très bien de Directory Opus (DOpus pour les intimes), et la lib MUI (Magic User Interface) qui était aux gadgets de base du système ce que GTK est à X11.
Ce que je regrette beaucoup, c'est BrowserII (je n'utilisais pas DOpus), qui permettait d'avoir autant de fenêtres qu'on voulait (au lieu des 2 vues de DOpus), des menus contextuels variés, des options de copie puissantes (du genre "renommer, écraser, updater ?", etc). C'était programmé par 2 français, Sylvain Rougier et Pierre Carette si ma mémoire est bonne (malheureusement l'un des 2 est décédé à l'époque dans un accident de moto). Si quelqu'un connaît un programme similaire pour X, je suis preneur !
aller zouu moi je resort les disks du workbench 3.0 et je file faire un tour sur http://ftp.uni-paderborn.de/aminet/(...)
Ca faisait depuis fin 1998 que je n'avais pas été voir (avant c'était presque tous les jours, j'avais mon 1200 (au fait je l'ai toujours mais il ne sert plus)), j'ai été scié de voir qu'il y a encore eu une cinquantaine de nouveautés dans les 7 derniers jours. Il faut croire que la communauté est bien active.
[^] # Re: Amiga est de retour !
Posté par Olivier Jeannet . En réponse à la dépêche Amiga est de retour !. Évalué à 7.
Tu peux le dire, j'étais un drogué de l'AmiNet ! Et avant AmiNet, en 1990 il y avait déjà des programmes en GPL, sur les disquettes Fred Fish. A l'époque, je connaissais la license, mais c'était avant le phénomène Linux donc je ne mesurais pas toute la potentialité de la chose. J'ai eu accès à AmiNet dès 1991 grâce à l'accès Internet de l'ENST. Je pouvais même me connecter depuis chez moi avec un modem, c'était vachement bien fichu à l'ENST.
(note: pour ceux qui ont connu, je suis un des fondateurs du club Amiga Télécom-Paris et on écrivait des articles dans AmigaNews).
[^] # Re: Amiga est de retour !
Posté par Olivier Jeannet . En réponse à la dépêche Amiga est de retour !. Évalué à 0.
En effet, j'avais fait quelques essais sur un Vic20 au lycée, et ensuite mes parents nous avaient offert un Commodore 64.
Je m'étais passionné pour la bête, j'avais même écrit un assembleur 2 passes qui surpassait largement celui disponible dans le commerce, et j'avais écrit partiellement un macro-assembleur. A l'époque, on pouvait vraiment connaître à fond sa machine. Le chipset sonore permettait de faire des choses pas si mal pour l'époque.
Et par un ami allemand j'avais accès à plein de jeux, il y en avait eu un paquet, dont certains absolument passionnant (Boulder Dash I et II, j'y ai passé des heures dessus !).
[^] # Re: Amiga est de retour !
Posté par Olivier Jeannet . En réponse à la dépêche Amiga est de retour !. Évalué à 10.
Ensuite, avec l'A1200 et le Workbench 3.0, il y a eu les datatypes et plein d'autres trucs très bien fichus. Il y avait ARexx aussi pour commander les applications depuis des scripts (on peut considérer que Perl remplit un peu ce rôle sous Linux, je m'en sers pour "scripter" GIMP).
De plus Atari a sorti un modèle comparable à l'A500 en termes de chipset graphique/sonore mais nettement après. Haaaa, Agnus, Paula, Denise, tout un monde :-)
Les vrais hommes ont connu l'Amiga. Je suis passé de l'Amiga au PC/Linux en 1998, je n'ai jamais eu Windows chez moi.
[^] # Re: Nouvelles de la Société Générale et de mozilla
Posté par Olivier Jeannet . En réponse à la dépêche Nouvelles de la Société Générale et de mozilla. Évalué à 10.
D'un autre côté, simuler Internet Explorer fait augmenter artificiellement les statistiques de ce navigateur, ce qui va à l'encontre de l'interopérabilité car s'ils voient 99% de I.E., pourquoi ils s'embêteraient à changer leur site ?
(ce que je dis n'est pas nouveau mais je le rappelle)
[^] # Re: Génération de clefs à partir du bruit électrique
Posté par Olivier Jeannet . En réponse à la dépêche Génération de clefs à partir du bruit électrique de la puce. Évalué à 1.
Pitié pour l'orthographe, comme d'habitude...
Juste par curiosité, quel est ton métier ? Je n'ai quasiment jamais vu quelqu'un écrire aussi mal, surtout pour une personne qui a des connaissances techniques non triviales. Ca ne te joue pas des tours ?
[^] # Re: Carte du monde des utilisateurs d'ordinateurs
Posté par Olivier Jeannet . En réponse à la dépêche Carte du monde des utilisateurs d'ordinateurs. Évalué à 1.
Je pense que c'est autorisé, mais si je voulais faire un nmap je le ferais en mode discret de préférence, pour moins risquer de charger la machine explorée ou le réseau.
Par contre, j'ai appris tout récemment qu'à ma boîte c'est interdit. Je l'avais fait depuis un de mes serveurs Linux sur une machine qui me semblait avoir essayé de rentrer sur la mienne. Je pense que j'ai dû scanner une machine du service interne informatique qui faisait un audit de sécurité.
# Re: Sortie de mplayer 0.90-rc3
Posté par Olivier Jeannet . En réponse à la dépêche Sortie de mplayer 0.90-rc3. Évalué à 1.
C'est la dernière version qui marche bien chez moi pour le plein écran, à savoir que quand je passe en plein écran, quand mplayer passe au fichier suivant, ça reste en plein écran. Ici, avec la rc3 (la rc2 c'était pareil, sans doute la rc1 me souviens plus), je n'arrive même plus à passer au fichier suivant, il rejoue au début le même fichier !
Je me demande ce qu'ils entendent par avoir réparé le plein écran. Quelqu'un est dans le même cas que moi ?
Ma configuration : noyau 2.4.18, XFree 4.2.0, Matrox G400 (le driver xv est très bien supporté), Duron 1 GHz, 384 Mo.
[^] # Re: Complément
Posté par Olivier Jeannet . En réponse à la dépêche Free vainqueur par KO. Évalué à 2.
Merci d'éviter le pléonasme...
Mais à la relecture avec la grille de lecture que je donne, c'est tristement limpide
Il faut vraiment arrêter de dire n'importe quoi. Tu prends tes fantasmes pour la réalité sans doute... C'est toi qui est pitoyable dans ta vision des choses.
(désolé, pour une fois que je manifeste un peu d'agacement, mais là c'est trop fort)
[^] # Re: Question stupide
Posté par Olivier Jeannet . En réponse à la dépêche MySQL 4.1 disponible!. Évalué à 1.
J'imagine que tu parles d'expérience, tu peux en dire plus sur tes besoins ? As-tu comparé MySQL et PostgreSQL pour ton utilisation ? N'hésite pas, tout retour d'information est intéressant.
[^] # Re: Question stupide
Posté par Olivier Jeannet . En réponse à la dépêche MySQL 4.1 disponible!. Évalué à 5.
On peut donc dire qu'ils vont vers le même point.
MySQL est souvent plus rapide, mais en cas de requêtes complexes, Postgresql est supérieur (il a un optimiseur complexe, et même un mode par algo génétique pour les requêtes vraiment complexes). De plus, si on ajoute tout ce que peut faire Postgres "tout seul" : triggers, procédures stockées, contrôle d'intégrité (foreign keys), il est beaucoup plus puissant.
Question stabilité, je n'ai jamais planté Postgres (ainsi qu'un ami qui en a sur ses serveurs en production); alors que MySQL a eu la réputation d'être plantable (d'où les outils de récupération de table ISAM).
Je crois qu'une grosse amélioration qui a été apportée à Postgres, c'est le "vacuum" sans verrouillage de table. Le vacuum effectue une sorte de défragmentation, et jusqu'à un version récente, il revenait à rendre la base plus ou moins inutilisable, ce qui est un problème si la base doit fonctionner 24h/24. Le vacuum ("vide" en anglais) réduit la taille des fichiers de la base (élimine les trous).
La fragmentation est dûe au modèle de MVCC = Multi-Version Concurrency Control, qui permet l'isolation des transactions, ce qui veut dire qu'on peut être plusieurs à modifier la base en même temps et chacun ne voit que ses modifs, tant que ce n'est pas "commité". La fragmentation sera d'autant plus forte qu'il y aura des mise à jour (update), bien entendu si on fait surtout des select, la fragmentation sera faible. Je ne sais pas s'il est forcément nécessaire de faire des vacuum souvent, il faudrait mesurer l'impact sur les performances.
[^] # Re: Question stupide
Posté par Olivier Jeannet . En réponse à la dépêche MySQL 4.1 disponible!. Évalué à 3.
Il y a plusieurs raisons à la popularité de MySQL :
- il a commencé comme un moteur tout simple et a été adopté très tôt par des sites Web pour rajouter du dynamique
- il y a une société derrière, qui aide à le promouvoir, ça compte (dès qu'il y a une nouvelle version, c'est repris sur pas mal de sites Web)
- dans le temps, MySQL était beaucoup plus rapide pour des requêtes simples comme celles d'un site Web. Je ne sais pas si ce surcroît de rapidité est toujours nécessaire (comme pour une carte graphique, atteindre 220 fps c'est pas vraiment utile).
J'utilise Apache/PHP/Postgres depuis 2 ans, et ça marche très bien. Je pense que si on veut une base de données pour stocker des choses vraiment importantes, Postgres est indispensable car il gère parfaitement les transactions et la cohérence (avec les clefs étrangères), ce que ne fait pas encore MySQL. Historiquement, Postgres se comporte très bien avec un grand nombre de connexions simultanées.
J'ai tout récemment voulu tester les différentes version de Postgres (par exemple la dernière 7.3 par rapport à la 7.0), j'ai utilisé pgbench qui est livré avec et qui simule plus ou moins un TCP-B (c'est ce qui est écrit). C'est un benchmark assez basique, qui ne remplace pas votre test pour votre besoin. A première vue, il n'y a pas de différence très significative, mais il faudrait que je refasse les tests plus rigoureusement (j'ai déjà utilisé une partition formatée avant chaque test). pgbench simule plusieurs clients en parallèle.
J'ai aussi voulu faire la comparaison Postgres 7.3.1 contre MySQL 3.23.54 (dernières versions), en portant pgbench sur MySQL. Effectivement, en utilisant des tables simples (MyISAM) et sans transactions (pgbench fait "begin; select; update; [...] ; end"), MySQL est 2 à 3 fois plus rapide. Par contre, dès que j'utilise des tables InnoDB, les performances baissent très nettement. En fait, je n'ai pas réussi à reproduire le test de pgbench car MySQL bloque lors de 2 updates simultanés sur la même rangée (deadlock).
J'ai aussi testé les procédures stockées de Postgres (toujours avec pgbench) et ça accélère énormément : selon les paramètres, entre 2 et 4 fois.
[^] # Re: Windows Media Data Session Toolkit
Posté par Olivier Jeannet . En réponse à la dépêche Windows Media Data Session Toolkit. Évalué à 1.
Je n'ai pas tellement compris cette histoire (j'ai écouté l'émission).
Si on peut recopier un CD protégé, où est la protection ? Est-ce que ça veut dire que le graveur produit un CD protégé ?
Le seul frein à la copie est alors le fait d'avoir un graveur de salon. Je m'étonne quand même qu'on ne puisse pas modifier le firmware d'un CD-ROM pour pouvoir lire un CD "protégé" de la même façon qu'un graveur de salon y arrive.
[^] # Re: Windows Media Data Session Toolkit
Posté par Olivier Jeannet . En réponse à la dépêche Windows Media Data Session Toolkit. Évalué à 1.
Je ne crois pas car j'ai déjà vu des CD dans le commerce qui dépassent les 74 minutes, dans un cas c'était une compilation style "Dance Hits" (77 minutes), dans l'autre la 9e symphonie de Beethoven (un Deutsche Grammophon je crois, pas une production confidentielle), 79 minutes.
[^] # Re: 10 polices de caractères pour les Logiciels Libres
Posté par Olivier Jeannet . En réponse à la dépêche 10 polices de caractères pour les Logiciels Libres. Évalué à 10.
Non, les caractères étaient en plombs, et ils étaient fondus, d'où le terme de fonte je suppose (cf d'autres commentaires).
ca me semble tres francais comme terme ...
Le terme de fonte est bien français, par contre les fontes (pluriel) désigne autre chose, à savoir les sacoches qui sont accrochées à la selle d'un cheval. On peut le lire dans la littérature des siècles précédents, où des gens voyagent à cheval ("qu'ai-je donc dans mes fontes" dans Don Juan de Molière je crois). Ca se dit aussi pour des sacoches qu'on met sur un moto, sur la selle.
[^] # Re: Windows Media Data Session Toolkit
Posté par Olivier Jeannet . En réponse à la dépêche Windows Media Data Session Toolkit. Évalué à 4.
en gros c a peu pres la meme capacité.
Je pense que tu te trompes.
A ma connaissance, un secteur de CD fait 2560 octets bruts, et selon que c'est un CD-Audio ou un CD-ROM les données de contrôle et correction d'erreur ne prennent pas autant de place :
- 256 octets pour un CD-Audio, restent 2304 octets de données musicales
- 512 octets pour un CD-ROM, restent 2048 octets de données
C'est compréhensible car il est tolérable de laisser passer des erreurs sur un CD-Audio (souvent quasi-inaudible) alors que sur un CD-ROM il ne peut y en avoir aucune (pour être plus précis, la probabilité d'erreur doit être super faible).
Les lecteurs de salon lisent bien sûr la zone de correction des CD-Audio. J'ai malheureusement un CD (un Deutsche Grammophon) qui s'est dégradé avec le temps (il a plus de 10 ans) et qui est devenu peu à peu illisible, la surface doit être trop abîmée. Mon lecteur de CD SCSI ne fait pas mieux que mon lecteur audio Philips. J'aurais dû le dupliquer avant qu'il ne s'abîme trop, mais je ne l'écoutais pas souvent. En principe il devrait être échangeable, il faudrait que je voie avec l'éditeur.
Cette différence (de place prise par les codes correcteurs) explique pourquoi un CD-ROM est donné nominalement pour 650 Mo alors que quand on extrait 74 minutes de musique d'un CD-Audio (durée max nominale) on obtient plutôt 740 Mo (650 / 2048 * 2304).
[^] # Re: Windows Media Data Session Toolkit
Posté par Olivier Jeannet . En réponse à la dépêche Windows Media Data Session Toolkit. Évalué à 3.
Sais-tu pourquoi il est sensé être illisible, c'est normal ou pas ?
Par ailleurs, comment as-tu réussi à le copier en DivX si tu n'arrivais pas à le lire ?
il y à écris a écrit DADC sur le dvd (en tout petit petit)..
Que veut dire "DADC" au juste ?
[^] # Re: Et si on changeait tout ?
Posté par Olivier Jeannet . En réponse à la dépêche à l'occasion du MIDEM, France Inter s'intéresse à la copie privée.. Évalué à 1.
Ce n'est pas comparable.
Tout d'abord la crise était sévère, mais je ne pense pas que les gens mourraient litéralement de faim.
D'une part en maintenant le cours des oranges à un certain niveau, cela permettait sans doute à pas mal d'agriculteurs de continuer à tirer un revenu de leur activité (les temps étaient durs pour tout le monde) et de vivre. D'autre part, pour que les oranges en surplus puissent nourrir les gens affamés, il aurait fallu les transporter, ce qui n'est pas gratuit. C'est comme pour les excédents agricoles qu'on a en Europe, ils pourraient servir à nourrir des gens en Afrique mais ça coûterait cher de les expédier.
# les KSE (threads mi-user, mi-noyau)
Posté par Olivier Jeannet . En réponse à la dépêche FreeBSD 5.0 est sorti !. Évalué à 10.
http://www.freebsd.org/cgi/man.cgi?query=kse&sektion=2&manp(...)
Il s'agit d'un modèle "N to M", qui ressemble à ce qui a été fait dans la NPTL (Native Posix Threads Library de Ulrich Drepper et Ingo Molnar) pour Linux. Ca permet d'avoir beaucoup de threads répartis efficacement sur plusieurs CPU, sans surcoût important.
Ca y est, voici un PDF qui décrit les KSE, il date du 7 nov 2000 (142 Ko) : http://www.asdf.dk/sjov/freebsd_kse.pdf(...)
[^] # Re: La RIAA rentre sur vos machines avec des MP3/vidéos spéciaux
Posté par Olivier Jeannet . En réponse à la dépêche La RIAA rentre sur vos machines avec des MP3/vidéos spéciaux. Évalué à 10.
Un crime, tu n'y vas pas de main morte !
Tout d'abord il faut bien définir ce qu'on entend par piratage informatique :
- copie non autorisée de fichiers (recopie de programmes ou de fichiers multimédias)
- simple intrusion dans un système
- intrusion dans un système avec vol
- ou encore, ce qui est à mon avis le plus dangereux, intrusion dans un système avec mise en danger de la vie d'autrui (par exemple un système de contrôle ou surveillance de trafic aérien).
Dans la plupart des cas, c'est un délit au même titre que le vol. Dans le dernier cas que je cite, je ne suis pas un spécialiste en droit, ça pourrait sans doute être qualifié en crime (l'homicide involontaire est-il un crime ? si quelqu'un peut nous éclairer).
[^] # Re: La RIAA rentre sur vos machines avec des MP3/vidéos spéciaux
Posté par Olivier Jeannet . En réponse à la dépêche La RIAA rentre sur vos machines avec des MP3/vidéos spéciaux. Évalué à 10.
http://www.eweek.com/print_article/0,3668,a=35755,00.asp(...)
Ma nouvelle ayant mis du temps à être modérée (j'ai l'ai soumise le 14 ou le 15), j'ai cru qu'un modérateur était tombé sur un des démentis et qu'elle ne serait pas publiée...
Même si c'est un faux, en première lecture rapide ça m'avait l'air d'être relativement plausible, ça nous apprendra au moins à être encore plus prudent et à nous méfier un peu plus de ces "majors" de la musique et du cinéma. Cela dit, je ne regarde pas d'un très bon oeil ceux qui passent leur temps à pomper des MP3 sur le Net et qui n'achètent jamais de disque.
[^] # Re: Kernel patché ?
Posté par Olivier Jeannet . En réponse à la dépêche Nouveau server SGI : Altix 3000 sous Linux. Évalué à 1.
De ce que j'ai compris, le noyau 2.2 gérait correctement 2 processeurs, mais beaucoup moins bien à partir de 4, étant donné la granularité grossière des verrous (le big kernel lock), quasiment un seul processus seulement pouvant être dans le noyau à la fois.
Avec le noyau 2.4 est arrivée une granularité beaucoup plus fine et je crois que le big kernel lock n'est presque plus utilisé. La granularité plus fine permet aussi de faciliter le développement de patch "low-latency" ou "preempt". Je ne sais pas jusqu'à combien de processeurs le noyau 2.4 est censé être performant.
Le noyau 2.5/2.6 a quant à lui été retravaillé pour une meilleure granularité pour les entrées/sorties. Ca concernera surtout les serveurs qui seront chargés en E/S, sans doute pas beaucoup nous sur nos machines de bureau.
[^] # Re: Rétrospective 2002 des logiciels Libres
Posté par Olivier Jeannet . En réponse à la dépêche Rétrospective 2002 des logiciels Libres. Évalué à 1.
Si bien sûr, il y a eu au moins la 8.0 (1er semestre) et la 8.1 (second semestre).
Je crois qu'il y a des gens qui n'aiment pas la SuSE parmi ceux qui ont rédigé la nouvelle. C'est un peu débile à mon avis, étant donné le soutien qu'apporte SuSE au logiciel libre et à Linux, avec les projets qu'elle sponsorise et les développeurs qu'elle fait directement travailler comme Andrea Archangeli (auteur de la VM du noyau, rien que ça).
[^] # Re: Jon Johansen acquitté dans le cas DeCSS
Posté par Olivier Jeannet . En réponse à la dépêche Jon Johansen acquitté dans le cas DeCSS. Évalué à 4.
Pour aller dans ton sens, je pense que ce qui pourrait être interdit dans le futur, avec de nouveaux supports, c'est de diffuser des techniques de décryptage. On risque en effet d'être dans la merde. Cependant, l'argument selon lequel DeCSS permet de pirater un DVD n'est pas valide puisqu'on peut très bien dupliquer un DVD sans le décrypter (je dis bien décrypter et non déchiffrer vu qu'on casse le truc), ce dont ne se privent pas les réseaux de DVD pirates.
A mon avis, on ne peut pas interdire l'utilisation d'un logiciel comme DeCSS pour un particulier, puisque personne n'est lésé : on voit un DVD qu'on a acheté. D'ailleurs même aux USA je pense qu'aucune "major" du cinéma ne pense à poursuivre les particuliers qui lisent des DVD avec DeCSS. Faudra juste héberger les serveurs des projets de décryptage dans des pays qui n'ont pas de législation à la DMCA ou EUCD, genre en Asie (Taiwan, Philipines, etc).