Schwarzy a écrit 333 commentaires

  • [^] # Re: Nouveaux pilotes nvidia; et ATI ?

    Posté par  . En réponse à la dépêche Nouveaux pilotes nvidia. Évalué à 1.

    Je viens de passer d'une GeForce3 64 Moà une Radeon9000Pro 128Mo.

    La raison majeur est la basse qualité d'affichage (2D) des cartes NVidia. J'en ai profité pour avoir plein de cache graphique en passant à 128 Mo. ça bouffe les icones et autres petites images en 32bits que toutes les applications utilisent de nos jours. De plus, je peux enfin pousser mon moniteur dans ses limites sans avoir une image baveuse. Bon, c'est pas tout à fait une Matrox mais avec cette ATI j'ai par contre une 3D un peu au-dessus de la GeForce 3. Voir bien au-dessus avec Unreal 2003. 3D testé uniquement sous Windows mais j'attends la même différence sous Linux. Au passage, les drivers ATI (2.4) se sont révélé plus stables sous WinXP que ceux de NVIDIA (freeze machine après une dizaine d'application/jeux 3D [certaines semblent être fatale pour les autres] - JAMAIS de freeze avec ATI après une journée entière à lui faire gobber toutes les applis/game/demo 3D qui trainaient). XP est enfin rapide au niveau de l'interface graphique mais je mets ce gain sur la taille de la mémoire vidéo (je compare avec la GF3, la vitesse est devenu acceptable, c'est juste un peu plus lent que fluxbox et du même niveau que KDE ou GNOME2 maintenant) .

    Par contre sous Linux, la Radeon9000, c'est pas encore là. La dernière version officiel de XFree86 (4.2.1 dans la Debian SID) ne supporte pas les Radeon9000Pro. Pire, mon écran devient tout noir et je dois faire un reboot en aveugle (heureusement que c'est linux -> on peut rebooter !).
    J'ai essayé la version CVS de XFree86, Cetre fois-ci la 9000Pro est supporté mais y'a des bugs (l'inscrustation vidéo ne marche pas) et de méchants plantages (un Eterm qui s'ouvre par dessus mplayer ->R.I.P.). Normal c'est du CVS. Y'a encore plus de surprise que dans la hôte du Père Noël. J'espère que XFree 4.3 qui doit sortir bientôt corrigera tout ça.

    Dès que j'ai un-RPMizé les packages de chez ATI, je fais un essai avec pour comparer (aux dernières nouvelles, l'incrustation vidéo est cassée).

    Donc comparons:
    NVIDIA - nv driver: stable supporte presque toutes les cartes (l'incrustation fonctionne je crois). Pas de 3D.
    NVIDIA - nvidia driver: bcp moins stable mais support optimal de la 2D/3D sur toutes leurs cartes. Le support est de qualité par rapport à bien d'autres "supporteurs" de Linux.
    ATI - ati xfree driver: stable (c'est que j'ai lu) pas de support pour des cartes récentes en 2D (moins de 9 mois environ), c'est pire pour la 2D [pas encore de DRI pour les 9000]. Probablement un manque de développeur (j'en ai détecté UN seul dans les ChangeLog).
    ATI - ati ATI driver: pas encore testé mais le support est pas aussi mature que chez NVIDIA (genre y'a pas de tarball). 3D présente et support du DRI. Probablement moins stable.

    Par contre, ATI semble fournir assez d'infos pour pouvoir s'amuser avec leurs cartes. Mais la partie sensible (la 3D coté GPU) est encore chasse gardée. C'est bien, ça fait longtemps que j'avais envie de voir comment programmer un chip graphique moderne. Avec NVIDIA, c'était même pas la peine d'y penser à moins de faire du reverse ingeneering sur les sources de XFree86.

    En conclusion, ATI progresse et c'est tant mieux. C'est dommage d'avoir à choisir entre la qualité graphique/support pas assez mature d'un coté (ATI) et la puissance de l'autre/meilleur support de l'autre (NVIDIA).
  • [^] # Re: Et, on peut les copier ?

    Posté par  . En réponse à la dépêche DVD autodestructeurs. Évalué à 1.

    La technologie du DVD est née du besoin de réduire les coûts. Point !

    Une entreprise ne résonne que de manière économique (il n'y a pas que les entreprise d'ailleurs). La duplication des cassettes VHS par rapport aux DVD est plus rapide et surtout bien moins couteuse. Il y a encore la quantité de plastique réduite avec les nouveaux emballages grace à la taille et à la forme du DVD donc à nouveau des coûts réduits. Je te laisse imaginer les marges obtenues avec la technologie du DVD par rapport à la VHS (+30% est un minimum). Et j'inclus les coûts d'amortissement pour l'investissement dans la technologie qui sont nuls puisqu'une taxe est imposée sur tout lecteur DVD (celui qui me dit que le CSS est une protection anti copie sera puni et devra apprendre par coeur le code de DeCSS et le réciter devant un membre de la MPAA).

    Maintenant, fallait justifier le changement de technologie auprès des consommateurs (et les inciter à acheter par la même). Le meilleur moyen est l'argument qualitatif. C'était l'argument des CD audio en leur temps. Pareil avec le DVD, une plus belle image, un meilleur son et hop roule germaine, va acheter un lecteur DVD pour lire le DVD que viens de t'offir ton petit-fils.

    Tu as déja vu une pub vantant le fait que maintenant tu n'auras qu'à acheter le film une seule fois dans ta vie ? Non ... Les majors et toute l'industrie préparent déja le moyen de vendre à nouveau les mêmes films (et les nouveaux) dans 10 ans. TCPA/ Palladium ... etc sont dans cette logique. Ca va être trés dur à éviter quand l'industrie va dire aux gouvernement d'imposer les systèmes anti-copie sinon fermeture d'usine et chômage en vue. Pour l'instant on est loin de cette situation mais pour combien de temps ? Le poid économique de l'entertainment est de plus en plus imposant dans les pays occidentaux.

    Maintenant, est-ce un mal que s'impose une obsolescence artificielle pour des raisons économiques ? Non si les marges étaient en conséquence, c'est-à-dire que les règles naturelles de la concurrence sont dans le jeu. Mais, il n'y a pas de concurrence réelle. Les entreprises du média gagnent de plus en plus d'argent sur ton dos parce que les marges explosent et ensuite viennent se plaindre ... En conséquence, le retour de baton ne se fait pas attendre (piratage à la hausse). Pour l'instant, elles ont des mégas bénéfices mais elles creusent dans le même temps leurs tombes quand plusieurs générations de consommateurs auront assimilés et compris ce comportement gloutonnié. Ils se tourneront alors vers des marchés parralèles (=>les réseaux pirates aujourd'hui par exemple).

    Je pense que les majors en viendront aux DVD périssables par logique économique dès que le coût de fabrication sera le même que les DVD non-périssables.

    Putain j'avais beaucoup à dire ce soir ! y'a des jours comme ça ...
  • # Et, on peut les copier ?

    Posté par  . En réponse à la dépêche DVD autodestructeurs. Évalué à 2.

    Parce que si c'est copiable, hop sur le disque dur.

    Ensuite, on peut toujours en faire un XVid.
    En plus, le prix des graveur de DVD baissent régulièrement. Donc, ces derniers seront probablement aussi disponibles en masse avec le déploiement des DVD périssables.

    Bref, un coup d'épée dans l'eau.

    Par contre, si aujourd'hui on peu faire des DVD périssables en 1 à 2 mois, qu'est-ce qui va empécher les majors de faire des DVD qui ne sont plus lisibles au bout de 2 à 3 ans ? Ils auraient enfin le retour de la dégration comme avec les VHS actuelles. Les commerciaux doivent jubiler d'avance et avoir les yeux qui brillent avec un reflet de billets de banque.

    <parano>
    D'ailleurs, c'est peut-être déja le cas des DVD acheté aujourd'hui ? Ah les salauds, ils ont surement piégés les DVD de Chihiro et Metropolis !
    Quand je m'acheterai un graveur de DVD dans un an, hop archivage de mes DVDS ! On sait jamais.
    </parano>
  • [^] # Re: Comparaison avec DemoLinux ?

    Posté par  . En réponse à la dépêche Site Knoppix francophone. Évalué à 10.

    Je confirme sur le coté puissance 10. J'ai essayé sur des laptops et plusieurs PC. Knoppix réussi à chaque fois à démarrer et à lancer X (il passe par du VESA pour l'affichage). Les applications étant compressés, les temps de chargement sont rapides. C'est trés sensible sur l'application OpenOffice.org. La reconnaissance de toutes les partitions présentes sur le(s) disque(s) dur(s) offre la possibilité d'ouvrir jusqu'à des fichiers Word, PowerPoint ou Excel qui y sont présents. Je peux vous dire que cela impressionne le décideur préssé (vécu !). En entreprise, les PC sont souvent gérés par du DHCP sur la partie réseau. Si la carte réseau PCI ou PCMCIA est reconnue, le réseau est lancé et on a la possibilité d'aller sur l'Internet. La reconnaissance de la carte son offre la possibilité d'écouter avec XMMS les trois musiques disponibles sur le CD au format OGG. En plus, on peut écouter la collection complète de MP3 qui pourrait être présente sur le DD de la machine. La petit touche finale qui consiste dans l'éjection du CD avant d'éteindre ou redémarrer la machine (il suffit de presser la touche entrée une fois le CD récupéré) donne le sentiment d'une démonstration aboutie.
  • [^] # Re: Sun et IBM ???

    Posté par  . En réponse à la dépêche Résumé GNOME 10-30 novembre 2002. Évalué à 1.

    Tant que cette influence se limite à l'accessibilité ça me ne gêne pas. Au contraire, faire de bonnes interfaces graphiques n'est pas à la portée du premier venu ni souvent de programmeurs confirmés. Si SUN ou IBM ont des équipes dédiées qui participent à GNOME, tant mieux pour le libre.

    Je ne penses pas être subjectif en disant que bien des softs ont des problèmes d'interface. Avoir un bon guide pour les interfaces et faire tout pour que le moindre développement s'y conforme n'est pas négatif quelque que soit le niveau d'expérience de l'utilisateur final.
  • [^] # Re: Xvid ou ffmpeg?

    Posté par  . En réponse à la dépêche La première version officielle d'XviD est sortie.. Évalué à 6.

    Petite expérience perso:

    Lors de l'encodage d'un DVD, j'avais commencé avec DivX5 (oui je sais, c'est idiot !). La scene d'intro du film avait un fond vraiment dégueulasse. Normal, c'est du DivX 5 d'après ce que j'en comprends aujourd'hui.
    J'ai alors cherché à encoder avec libavcodec (ffmpeg) et Xvid. Xvid a été bien meilleur pour le fond d'écran de la scène d'intro.

    Maintenant, est-ce que Xvid est meilleur ? pas sûr.

    En ce moment, c'est un anime que j'essaie d'encoder (première fois pour moi) et la qualité de Xvid semble un peu juste à ma grande surprise. Pourtant j'ai déja vu des animes encodés en DivX qui sont magnifiques. Peut-être que ffmpeg est meilleur dans ce cas.

    Bref, je crois que c'est du cas par cas pour l'instant.

    J'espère que quelqu'un fera un comparatif un de ces jours suivant la nature des images (RealLife, synthèse, anime/DA ).
  • # Fiabilité de ce rapport ?

    Posté par  . En réponse à la dépêche Linux moins fiable que Windows ?. Évalué à 0.

    Je n'arrive pas à retrouver l'info en Gogglant (!) mais j'aimerais savoir si c'est ce même type de rapport qui avait déja été trés critiqué ?
    Il cumulait plusieurs fois la même faille de sécurité en l'attribuant à chaque distribution. En conséquence Linux (au sens large du terme) se retrouvait avec des chiffres énormes concernant les failles de sécurité.
    De plus, je crois que le rapport ne tient pas compte du temps de correction des failles et que bien des failles ne le sont que sur des versions de développement qui ont des diffusions trés limité par rapport au version stable (à toujours utiliser en production !).
  • # Re: Benchmark J2EE vs dotNET

    Posté par  . En réponse à la dépêche Benchmark J2EE vs dotNET. Évalué à 1.

    Sur /., il y avait aussi une critique de ce benchmark(eting):

    http://dreambean.com/petstore.html(...)

    A l'origine, cette application en java a été pensée pour montrer un design trés propre, pas pour montrer une implementation performante. M$, enfin, ceux qui sont payé par M$, la MiddleWare Compagny, on surement choisi cette application car ils étaient sûr d'être largement supérieurs en terme de performance. Surtout que la version .NET n'est pas un copié conforme en terme de design.
    Cette comparatison semble mettre façe à façe des pommes et des oranges. Bref, c'est du marketing pur et dur et non de l'évaluation technique avec un minimum d'honneté.
    Attention aux trolls !
  • [^] # Re: T-Shirt

    Posté par  . En réponse à la dépêche Linuxfr 2ème site le plus populaire après Slashdot. Évalué à 1.

    ben pour avoir été le premier à dire ce que beaucoup de monde pense, peut-être peut-il avoir un T-shirt :)

    -1 ... quand ça sera dispo.
  • [^] # Re: XFree86 est-il assez rapide ?

    Posté par  . En réponse à la dépêche XFree86 est-il assez rapide ?. Évalué à 1.

    Je crois que tu soulève bien le problème de la participation.

    <mavie>
    J'ai entre 0 à 10 heures de temps consacré au "soft" par semaine. Je passe le plus claire de mon temps à lire du code source pour comprendre comment fonctionne telle ou telle programme. Bref, je fait de la culture générale de "codeur".

    Un jour, sur un coup de tête, je me suis acheté une Matrox G450 pour remplacer ma NVidia. Je me suis dit pourquoi ne pas essayé de voir comment fonctionne la Matrox et essayer de m'amuser avec en la programmant directement (et la faire tourner sur L4 mais ça c'est une autre histoire).
    Récupération (partielle) des specifications. Aïe ! c'est vraiment pas évident. Pourtant le hardware je suis en général à l'aise (comme tu le dis .. un Chipset ou un CPU, c'est super simple à coté !). Je compte sur XFree pour m'aider un peu et ... je suis de suite effrayé par la monstruosité du "bidule" ! La doc est quasi inexistante par rapport à la taille du projet ... et le code peu (voir non) documenté.
    </mavie>

    Bref, XFree manque de développeur, c'est pas nouveau. Mais n'est-ce pas finalement un choix volontaire de quelques programmeurs plutôt que le manque de volonté de programmeurs extérieurs au projet.
    Avec le recul, j'ai l'impression que XFree est (était?) le "privilège" de quelques programmeurs et qu'ils n'ont jamais voulu laisser leur "bébé" dans des mains étrangères. En limitant la documentation au minimum je pense qu'ils se sont assurés que personne d'autres ne prendrait contrôle du projet XFree. Je ne penses pas que cela soit un comportement généralisé mais le fait de quelques programmeurs seulement. Il est même possible que le fait soit ancien et que la taille actuelle du projet ne permette plus de le documenter en un temps résonnable.

    ps: merci pour tes commentaires. ça fait du bien d'en voir d'aussi beau !
  • [^] # Re: et kde alors ??

    Posté par  . En réponse à la dépêche Gnome2 into Sid. Évalué à 1.

    Les mainteneurs sont trés compétents ... et prudent. Ils ont attendus que l'ABI C++ de gcc soit stabilisé et fiable avant de faire la moindre intégration dans SID. Mais ils ne se sont pas tournés les pouces pour autant, on trouve les packages KDE 'expérimentaux' dans leurs repositiry personnels (cf au-dessus).

    Le bon coté de cette attente, c'est que bon nombres d'applications KDE 2 ont migré vers KDE3 pendant ce temps donc l'intégration applicative est trés bonne. On ne se retrouve pas avec un bureau mixte dans le look and feel comme c'est encore le cas avec Gnome2 aujourd'hui.

    S'il y a une chose que j'apprécie par dessus tout avec Debian c'est que ça sort quand c'est VRAIMENT prêt. C'est-à-dire que le nombre de bug est trés réduit. Pour avoir jouer (!) avec une RH 8 et une MDK 9 ben la stabilité n'était pas au rendez-vous :( l'intégration s'est faîtes bien trop tôt (surtout la RH 8).

    La patience est une vertue que la communauté Debian sait exploiter. :)
  • # Blender a été libre ?

    Posté par  . En réponse à la dépêche Blender bientôt libre !. Évalué à 10.

    Blender de nouveau libre, ...

    Euh, à ma connaissance, Blender n'a jamais été un logiciel libre. Il a été gratuit suivant les versions. Par contre, c'est grace à la volonté de l'auteur de ce logiciel et la communauté qu'il va peut-être devenir libre.
  • # Ce n'est qu'un au revoir ...

    Posté par  . En réponse à la dépêche Un petit tour et puis s'en va. Évalué à 10.

    Comme beaucoup ici, j'ai appris à programmer en autodidacte à mon adolescence (enfin pré-adolescence) puis les études me poursuivant j'ai fini par mettre des noms et de la théorie sur mes connaissances en plus de les accroître. Dijkstra fait parti de ces noms, de ces inconnus illustres que tant de programmeurs ignorent (surtout grace aux sociétés et compagnies qui prétentent avoir créer l'informatique).

    Au départ d'un homme de cette valeur, je ne dirais qu'une seule chose, en m'excusant de ne pas l'avoir dite de son vivant:

    Merci d'avoir contribuer à ce que je suis.
  • [^] # Re: L'ABI Change encore ???

    Posté par  . En réponse à la dépêche GCC 3.1.1. Évalué à 10.

    Premièrement c'est seulement l'ABI pour le C++ qui a changé avec la version 3.1
    Le posteur de la news est une taupe seulement le haut du changelog est pour gcc 3.1.1, le reste est pour 3.1. L'ABI C++ est resté (quasi) stable entre la version 3.1 et la révision 3.1.1 . Les seuls changement concernent des détails de l'ABI (ajustement sur les templates) mais les projets majeurs comme KDE ne sont pas concernés.

    Les modifs pour la 3.1.1:

    Additional changes in GCC 3.1.1

    * A bug related to how structures and unions are returned has been fixed for powerpc-*-netbsd*.
    * An important bug in the implementation of -fprefetch-loop-arrays has been fixed. Previously the optimization prefetched random blocks of memory for most targets except for i386.
    * The Java compiler now compiles Java programs much faster and also works with parallel make.
    * Nested functions have been fixed for mips*-*-netbsd*.
    * Some missing floating point support routines have beed added for mips*-*-netbsd*.
    * This message gives additional information about the bugs fixed in this release.

    Le message avec les détails des changements pour la 3.1.1:

    http://gcc.gnu.org/ml/gcc/2002-07/msg01208.html(...)

    dont la partie qui concerne les ajustements dans l'ABI C++ est décrite par les "(c++) ICE".

    Jolie tentative de troll mais on ne m'y prendra pas :)
  • [^] # Re: Pas ambigu, faux

    Posté par  . En réponse à la dépêche Linux dans '20 minutes'. Évalué à 10.

    Ce sont des dépêches AFP qui sont mises en vrac (et en page). Et dans les dépêches AFP y'a de tout, du bon comme la pire des merdes. En plus, ce ne sont pas forcemment des journalistes qui les rédigent.
    C'est de l'info brute de coffrage sans aucune vérification.
  • [^] # Re: Correction ...

    Posté par  . En réponse à la dépêche Feature freeze du noyau 2.5/2.6 prévu pour Halloween. Évalué à 2.

    merci d'avoir corrigé dans la news.
  • # Correction ...

    Posté par  . En réponse à la dépêche Feature freeze du noyau 2.5/2.6 prévu pour Halloween. Évalué à 10.

    Y'a une erreur pour le mail sur les fonctionalités. Le mail dans la news est celui qui a servi pour une discussion puis Guillaume Boissiere a proposé la version finale qui est à l'adresse:

    http://www.uwsg.iu.edu/hypermail/linux/kernel/0207.2/0870.html(...)

    tous les détails à kerneltrap.org :

    http://kerneltrap.org/node.php?id=348(...)
  • [^] # Re: Attention, attention

    Posté par  . En réponse à la dépêche Sortie de la Debian GNU/Linux 3.0 « Woody ». Évalué à 10.

    Ok, je vois mieux de quoi tu veux parler.

    D'abord, je vais vérifier que l'on se comprend bien en parlant un peu de toutes ces histoires de rpm, dpkg, urpm et apt-get.

    rpm et dpkg sont tous les deux des garants que les dépendances des programmes installés sont correctes. On peut forcer le non respect de la dépendance mais "C'est Mal" (TM). C'est des coups à finir avec un linux brisé.
    apt-get et urpm sont quand à eux une surcouche qui va satisfaire les requêtes de dépendance lors d'un mise d'un ou plusieurs paquetages. En gros, lors d'une demande d'un paquetage, les paquetages indispensable à la cohérence de l'ensemble sont aussi installé (via récupération par téléchargement sur le net, mise à jour sur un réseau local ou à partir d cd-rom).

    rpm et dpkg ont deux approches différentes pour garder la cohérence d'une distribution.

    • rpm: il se base sur les révisions des libraries, la présence de commande [dépendance physique] et partiellement sur une dépendance vis-à-vis d'autre paquetages [dépendance logique].

    • dpkg: il se base uniquement sur la dépendance entre paquetages [dépendance logique]. Il se révèle un plus puissant dans le sens que des opérations booléennes peuvent être réalisées sur les dépendances et que des dépendances optionnelles peuvent être ajoutées ainsi que des suggestions.


    La mise en oeuvre de ces outils varient aussi.

    • rpm: historiquement, les mainteneurs se basent énormément sur la dépendance physique. Ce qui entrainent des gros problèmes si une mise à jour mineur d'un outil ou d'une librarie se révèle fatale pour un autre paquetage. Je crois que les distributions commencent à se déplacer vers plus de dépendances logiques acr les faiblesses du rpm sont maintenant bien connues.

    • dpkg: comme il ne connait que les dépendances logiques, les mainteneurs utilisent des rêgles de nommage (comme, par exemple pour les paquetages de librairies, l'ajout du numéro de révision principal de la librairie au nom du paquetage et l'obligation de commencer le nom du paquetage par "lib"). De plus comme il n'y a que Debian comme exploitant et que les distibutions commerciales se sont toujours tenues à l'organisation logique de la Debian, ils n'ont jamais connu les maux du rpm sur les dépendances.



    En conséquence des dépendances physiques, urpm doit garder une liste de tous les fichiers possible qui compose l'ensemble de la distribution. C'est donc pour ça que l'on peut chercher un nom de fichier précis avec urpmf. La liste complète des fichiers est sur ton disque dur.
    Comme apt-get n'a besoin que des dépendances logiques il ne garde que les noms des paquetages mais pas les noms de fichiers. Un moyen (le seul ?) de chercher le nom de fichier est de passer le site web de Debian (Section recherche: http://www.debian.org/distrib/packages#search_contents(...) ).

    Voilà !
  • [^] # Re: Attention, attention

    Posté par  . En réponse à la dépêche Sortie de la Debian GNU/Linux 3.0 « Woody ». Évalué à -2.

    Le résolveur de dépendance de apt-get n'est-il pas sensé éviter ce genre de problème ? Si ...

    Ou alors c'est lorsque tu prend un programme externe ? Mais alors c'est au gars de RTFM pour trouver les dépendances (enfin si le README à été fait sérieusement). Non ?

    En tout cas, c'est pas la faute à la distrib mais à celui qui est devant le clavier.

    my 0.02 €
  • [^] # Re: la question qui fache ...

    Posté par  . En réponse à la dépêche Ogg Vorbis 1.0 est disponible. Évalué à 10.

    Ma Grand-Mère (c'est pour illustrer) a soit des WMA sur son disque parce que c'est windows qui lui fait ça tout bien. Ou des MP3s que lui ont filé ses petits-enfants (ou qu'elle va chercher sur le net -- elle est bien ma grand-mère :) ).

    Quand elle va acheter un baladeur à la mode (pour ses petits-enfants) ben elle va demander pour du MP3. C'est le format MP3 qui a lancé le balladeur numérique et pas l'inverse.

    Donc le MP3 est un argument commercial. De même pour le WMA dans une moindre mesure mais parce que Microsoft se démène (sans trop de difficulté bien sur) pour pousser le WMA.
  • # la question qui fache ...

    Posté par  . En réponse à la dépêche Ogg Vorbis 1.0 est disponible. Évalué à 10.

    Ogg Vorbis est dispo, c'est cool et je/on peut être rassurer sur l'avenir de ces morceaux musicaux encodés dans ce format. Dans 20 ans je devrait pouvoir toujours les écouter. Mais est-ce si sur ?

    Si le PC n'est pas un problème, le monde de l'embarqué fait pour l'instant la forte tête puisque le mot MP3 à une signification commerciale et que OGG n'existe pas pour eux. Je penses surtout à ces balladeurs MP3 comme l'IPOD.

    Bref, la technologie est là, maintenant j'espère qu'elle va enfin suplanter le MP3. La sortie de Ogg Vorbis c'est le début d'une nouvelle histoire mais aussi d'une grande inquiétude. Si Ogg décolle commerciallement, c'est la voix ouverte pour d'autre Codec libre et peut-être même (enfin !) l'ouverture de Codec propriétaire si les compagnies qui les possèdent se sentent menacés.

    Mais on peut refaire le monde avec des "Si" ... l'espoir fait vivre. Et je gardes espoir.
  • [^] # Re: Attention à la législation française

    Posté par  . En réponse à la dépêche compte-rendu d'un pot de miel avec OpenBSD 3.0. Évalué à 10.

    C'est un peu bizarre ton affirmation. Cela voudrait dire que je n'ai pas le droit de laisser un trou de sécurité volontairement pour détecter un éventuel badaud malveillant et ensuite surveiller son activité. Hors à ma connaissance, c'est une pratique courant parmis les bons admins (même en france).

    Je crois que la loi française empêche de lancer des poursuites judiciaires suite à l'usage d'un pot de miel. Elle n'interdit pas le pot de miel en lui-même, seulement l'utilisation en tant que preuve d'une intention malhonnete.
    Ce qui est tout différent.

    Un avocat dans le coin ?
  • # et pour ceux qui sont pas en vacances ...

    Posté par  . En réponse à la dépêche Libre Software Meeting, etc.. Évalué à 3.

    (et|ou) qui peuvent pas descendre sur Bordeaux comme moi, ben, on penses tous trés trés trés fort à nous ...

    Schwarzy.
    ps: en plus je suis en formation donc même pas le temps de vivre sur le web en direct live les LSM :(

    Bon courage pour résoudre les problèmes de serveur.
  • # Les particuliers: lésés ?

    Posté par  . En réponse à la dépêche Microsoft forever. Évalué à 10.

    Quand je vois les quelques commentaires pour râler, je me demande si c'est pas de l'hypocrisie.
    Connaissez-vous des particuliers qui possèdent (i.e. ont vraiment une license) des logiciels Microsoft et même la license des logiciels qui tournent sous W$ ?
    Personnellement, moi c'est trés peu et ceux qui achètent ne font jamais de mise à jour, combien de Office 95 ou 97 sont installé sur les bureaux à la maison ? beaucoup ! parce que ça coûte la peau des fesses et que souvent ils sont trés content avec 95 ou 97. L'arrêt des mises à jours va simplement amplifier le phénomène du piratage chez le particulier (déja trés trés élevé !!).

    Les seules vraiment lésées dans cette histoire sont les entreprises qui elles paient les logiciels qu'elles utilisent. De plus, tout le monde sait que l'abonnement est un moyen de vérouiller le client. M$ prépare le passage à .(pas)NET en vérouillant ses clients grace à l'abonnement et dans deux ans, hop, le parc informatique industrielle passera à .NET. M$ vient juste de s'assurer que .($)NET sera un succès quoi qu'il arrive.

    M$, ils sont trop fort, vous vouliez pas vous faire baiser à la maison ? Ils vous offrent une invitation aux putes ! Le dernier recours ? essayer l'abstinence (Linux, BSD, HURD, AtheOS, les clones de BeOS, ...) .
  • [^] # Re: Quel avenir radieux

    Posté par  . En réponse à la dépêche Palladium : la sécurité selon Microsoft. Évalué à 10.

    J'espère que dans quelques années, on n'aura pas le choix entre: faire tourner linux sur une machine craquée ou le faire tourner sur une vieille machine.

    Je crois que la X$Box est un avant gout de ces machines sécurisées.

    J'ai toujours au l'habitude de pester contre cette technologie de merde qu'est le x86 et j'espère toujours qu'elle va disparaitre rapidement. Maintenant, quand je vois le potentiel du remplacement de cette vieille technologie où je n'aurais même plus le choix de mon OS .... ben Vive le x86 !! Avec le parc existant, aucun fondeur ne vas aller diminuer ses marges ou augmenter le prix de ces chips pour implémenter du DRM.
    Et finalement est-ce que les fondeur font faire des chips plus cher juste pour faire plaisir aux groupes médias ? j'en doute, ou alors les fondeurs vont envoyer une partie de la facture à ces mêmes consortiums.