beagf a écrit 763 commentaires

  • [^] # Re: chrome effect

    Posté par  (site web personnel) . En réponse à la dépêche Firefox 5 est sorti. Évalué à 10.

    À mon sens, le problème avec ce principe d'augmenter régulièrement le numéro majeur est que rapidement les utilisateurs ne sauront plus qu'elle version ils utilisent et si elle est à jour.
    Si au moment de la sortie de la version 1 ils avaient fait ce choix : une version avec un nouveau numéro majeur tous les 3 mois, on aurais aujourd'hui un Firefox 25 environ.

    Tant que le numéro reste petit, il y a une vraie différence entre N et N+1, mais à mesure que N deviens grand, la différence s'estompe et l'on ne perçoit plus l'écart entre les deux.

    Actuellement, pour savoir si je dois mettre à jour un Firefox sur un ordinateur, je regarde juste le numéro majeur pour voir si ça vaut le coup. D'ici quelques versions avec le nouveau système, je serais bien incapable de dire qu'elles sont les différence entre deux version majeur successives.

  • [^] # Re: oh putain le coup d'vieux !

    Posté par  (site web personnel) . En réponse au message Infos sur Dp Tool club. Évalué à 2.

    C'est clair que je viens de me prendre un grosse claque en repensant à DPtools...

    Je crois que j'avais encore mon amstrad PC-1512 quand j'ai eu leur premier catalogue. Et c'est chez eux que j'ai acheté mon premier lecteur CD pour mon regretté 386. Que de souvenirs.

    Je suis sûr qu'en cherchant bien je pourrais retrouver un ou deux catalogues dans mes vielles boites. Ils ont vraiment fais un boulot extraordinaire à cet époque. Si je me souviens bien ils ont arrêté car d'autre personnes ce contentais de reprendre leur compilation et de la revendre moins cher sans aucune valeur ajoutée.

  • [^] # Re: Taux d'inflation/déflation?

    Posté par  (site web personnel) . En réponse au journal Le bitcoin perd la moitié de sa valeur. Évalué à 3.

    Rendre intraçable et difficilement blocable un échange d'argent. Je veux donner des sous à Wikileaks, j'achète des btc, je donne mes btc à Wikileaks, Wikileaks les échange contre des sous.

    Sauf que bitcoin n'est pas du tout anonyme et intraçable, c'est juste un peu plus dur qu'avec d'autres monnaies. Vu que l'historique des transactions est préservé car il sert au contrôle, avec de la motivation tu peux construire un graphe des transactions.
    Avec de bonnes techniques de datamining et en corrélant le tout avec d'autres informations tu peux retrouver énormément de choses.

    Ce n'est certe pas simple mais c'est tout-à-fait faisable et je n'ai aucun doute que si bitcoin commence à être sérieusement utilisé pour donner de l'argent à wikileaks ou d'autres organisation du même type, il y aura au moins quelques gouvernement qui vont s'y attaquer.

  • [^] # Re: quand même

    Posté par  (site web personnel) . En réponse au journal Joli bug. Évalué à 4.

    J'avoue avoir simplifié un peu par flemme et pour rendre le contraste un peu plus fort pour bien faire comprendre l'idée.

    Le système que j'avais en tête date à peu près de ton époque si je ne me trompe pas: fin 70 ou début 80. Je ne l'ai pas utilisé moi même car à cette époque mes doigts étais trop petits pour le clavier ;-) mais j'en ai beaucoup discuter avec un de ces grincheux qui regrettais la belle époque...

    Les calculateurs n'était pas très riches en disque-durs et donc seul la base du système étais installée en permanence. Une fois que la base avait bootée elle chargeait depuis des bandes magnétique le reste du système sur un autre disque qui était ensuite monté sur /usr.
    Quand une équipe avait finis ses calculs, on pouvait mettre les bandes de l'équipe suivante qui venais remplacer l'autre sur le disque.

    J'ai pas garder le souvenir exact de tous les détails, ce qui m'a le plus amuser c'est toutes les anecdote sur comment s'arranger pour que les changement soient retarder le plus possible pour profiter du maximum de temps de calcul avant de ce faire virer par « ces emmerdeurs de physiciens qui font des trucs inutiles à côté des magnifiques calculs de mathématiques fondamentales... ».
    Une autre époque où l'on s'amusait différemment... mais quand je vois comment ça ce passe dans mon labo, je me dit qu'au final le résultat est toujours le même, quelle que soit la puissance de calcul disponible, on se bat toujours pour l'utiliser...

  • [^] # Re: quand même

    Posté par  (site web personnel) . En réponse au journal Joli bug. Évalué à 10.

    Ce n'est pas des incohérence, c'est de l'histoire et de la logique.

    À une époque l'espace coûtait cher et les données étaient stockées sur différent type de supports. Sur un disque local et relativement rapide d'accès (pour l'époque) mais tout petit car cher, on stockait le minimum pour faire démarrer le système et faire un peu de maintenance.
    Donc sur cet espace il fallait les binaires et librairie de base et le home de root pour qu'il puisse ce loger pour la maintenance en cas de problèmes.

    Une fois que ce système minimum était chargé, on pouvait monter dans /usr le reste du système stocké en local aussi mais un support moins cher, plus lent mais avec plus d'espace comme un lecteur de bandes magnétiques.
    C'est dommage que ce soit plus lent mais c'était le prix à payer pour avoir l'espace pour stocker un système complet.

    Les utilisateurs on aussi leur données de stockées sur un support différents: sur un serveur de données qui est connecté à tous les autres et qui permet à chaque utilisateurs d'avoir ces données n'importe où. (les début du cloud en fait... mais sur bandes magnétiques...)
    Donc on monte ça sur /home et le root n'est pas dedans car lorsqu'on ce connecte en root ce serveur n'est pas forcément déjà accessible.

    Et dernière question : pourquoi ne pas monter /home dans /usr/home ? Tout simplement parce que sur un même serveur tu peux vouloir démonter le /usr pour en monter un autre. Les bandes magnétiques sont pas forcément suffisament grosses pour stocker tous les programmes nécessaire aux différents utilisateurs, et plus une bande est longue plus le temps d'accès moyen est long.
    Tu peux avoir un /usr pour les mathématiciens et un pour les physiciens et une fois de temps en temps tu changes. Si le /home est monté ailleurs c'est plus simple.

    Donc, d'un point de vue historique c'est parfaitement logique.

  • [^] # Re: $500k

    Posté par  (site web personnel) . En réponse au journal Holp up sur bitcoincoin. Évalué à 9.

    Bof, que ce soit 500 ou 500k, vu que la seule chose que l'on peut faire avec un bitcoin c'est un don sur le blog de Ploum, ça change pas grand chose.

    ~~~~~~~>[] (vous pouvez me moinzer sans problèmes : même si ce commentaire est humoristique, il est surtout moqueur...)

  • [^] # Re: "Dirndl"

    Posté par  (site web personnel) . En réponse au journal Les compilateurs PathScale C/C++ et Fortran vont être libéré. Évalué à 5.

    Rien empêche de "refactorer" le code en conséquence.

    Sauf que c'est beaucoup, beaucoup, beaucoup plus que du refactoring qu'il faut.

    Il faut complètement réécrire le code dans la très grande majorité des cas car les représentation intermédiaires sont différentes et que même si globalement dans les deux cas tu as du SSA, il y a tellement de différences entre les deux que tu n'arrives même pas au niveau des différences subtiles qui sont dure à trouver...

    Où bien tu fais une glue qui convertis entre le représentation intermédiaires avec tous les autres problèmes que cela soulève.

  • [^] # Re: de mal en pire...

    Posté par  (site web personnel) . En réponse au journal [Nous allons tous y passer] Adoptez un Japonais. . Évalué à 1.

    Mea culpa, l'erreur est de ma part... Le pire c'est qu'aussi bien en écrivant le message qu'en le relisant j'étais persuadé d'avoir écris l'inverse, comme quoi le cerveau lit ce qu'il a envie de lire.

  • [^] # Re: de mal en pire...

    Posté par  (site web personnel) . En réponse au journal [Nous allons tous y passer] Adoptez un Japonais. . Évalué à 4.

    Je pense que ce qu'il veut dire c'est que « si l'on ajoute des récupérateurs de corium c'est que l'on accepte le fait que cela peut servir » et vu ce qu'il ce passe à Fukushima personne ne le niera.
    Dans ce cas, est-ce que le risque vaut le coup ?

    Dire que la probabilité est infinitésimale est une connerie monumentale. Il y a un risque et il est bien là et je peut même te prédire que l'on aura un autre gros accident dans le genre des 3 gros que l'on à déjà eu (Tchernobyl, 3miles, Fukushima) dans les 50ans à venir.
    Et je n'ait que peu de risques de perdre mon pari...

    Après Tchernobyl, les pro-nucléaire ont dit que pour nos centrales il n'y avait pas de risques, tous pensaient (enfin disaient) que 3miles était sûre (sauf ceux que l'on écoute pas...) et pourtant il y a eu un gros soucis là-bas.
    Après 3miles, les pro-nucléaire ont dis que pour nos centrales il n'y avait pas de risques, tous pensaient (enfin disaient) que Fukushima était sûre (sauf ceux que l'on écoute pas...) et pourtant il y a eu un gros accident là-bas.
    Après Fukushima...

    Il y a un risque et il n'est pas infinitésimal. Vu l'historique que l'on a pour l'instant, il y a grossièrement un accident majeur tous les 30ans et il y aura d'autres accidents. Tout le monde le sais, que ce soit les concepteurs de centrales, les exploitants ou n'importe qui impliqué dans le nucléaire.

    Le récupérateur de corium est d'ailleurs là pour cela : on accepte qu'il y aura d'autres accidents donc autant s'arranger pour pouvoir les gérer le mieux possible quand ils vont arriver et réduire leur coût (pas que financier mais tout ce que coûte un tel accident en vies, en terres irradiées...) au strict minimum.

    Et donc toute la question est là : « est-ce que les avantages du nucléaire sont suffisant pour compenser cette perte qui va forcément arriver ? » Et tout le monde n'est pas d'accord sur la réponse.

  • [^] # Re: PDF ?

    Posté par  (site web personnel) . En réponse à la dépêche Richard Stallman donne son avis sur les e‐books. Évalué à 9.

    Sauf que ton vieux livre de 1800 il en reste que 3 exemplaires dans le monde et la probabilité que tu le trouves dans une vielle malle est bien plus faible que celle qu'il reste dans la vielle malle.

    Ton fichier ASCII sur support illisible, il y a de fortes chance qu'il ait été dupliqué un peu partout et que pendant 500 ans il ait survécu au copie successives et qu'avec un coup de Google-2500 tu le retrouves quelque part dans un format bien plus moderne que l'ASCII et sur un support parfaitement lisible.

    Faut arrêter les conneries sur la conservation des livres: un livre ce conserve très mal et la meilleur preuve c'est la proportion de livres qui ont étés définitivement perdus au fil des siècles. Combien reste-t-il de bible de Gutenberg aujourd'hui ? C'est un livre qui est mythique et que leur possesseurs ont du choyer, conserver dans les meilleurs conditions possibles à chaque époque, et pourtant les 3/4 on disparus. Donc pour un livre classique...

    Énormément de livre publiés il y a plusieurs siècles ont tout simplement disparus alors que je suis persuadé qu'un livre publié aujourd'hui uniquement sous forme électronique sera encore trouvable dans 1000 ans.

    De même pour les DRM, il ne sont que très peu un frein à la conservation des données tout simplement parce que les DRM ne font chier que les acheteurs, tous les système de DRM utilisable que les eBook que je connais sont très facilement crackable et il y a donc déjà des copies qui circulent sur le net sans DRM.
    Cet argument peut éventuellement être utiliser face à un politicien mais pas sur LinuxFR.

  • [^] # Re: Sinon y'a iFolder

    Posté par  (site web personnel) . En réponse à la dépêche Syncany, une alternative libre à Dropbox avec bien plus de fonctionnalités. Évalué à 3.

    les staging area dont on se sert une fois tous les 15 ans

    Personnellement ça doit me servir à peu près tous les jours...

    add --all alors qu'on veut toujours tout ajouter par défaut

    C'est pour moi une des choses les plus agréable avec GIT combiné avec le mode interactif. Au minimum une fois par jour je me retrouve à faire un patch que j'aurais comité d'un seul coup sous SVN alors que maintenant je le découpe en deux ou trois commit propres.

    L'exemple typique c'est la correction d'un bug qui demande une petite modification d'API interne pour que la solution soit propre. Tu fais tout le boulot normalement avec les tests pour être sûr que ça marche et au moment de commiter, tu découpes en un premier commit qui fais le changement d'API et un deuxième qui corrige le bug.

    Je ne répond pas au reste du troll... mais je me suis apperçu que la majorité des reproches que les gens font à GIT concerne généralement le fait que GIT est conçu pour avoir un dépôt propre avec des commits les plus atomiques possible et un historique bien organisé.
    C'est sûr que pour un petit projet perso ça peu sembler contraignant, mais dès que le projet deviens un peu plus gros ça change la vie.

  • [^] # Re: Enfumage

    Posté par  (site web personnel) . En réponse au journal SL2011 : Entretien avec Alfonso, Directeur de la Stratégie Interopérabilité chez Microsoft. Évalué à 2.

    Ben c'est simple, est-ce que la contribution de Google est infime ? On fait des comparaisons, donc prenons des references.

    Dans la discution présente, je me tape de la contribution de Google et je me contrefou de la quantité de code open-source que fais microsoft.
    Je ne faisait que regarder la liste que tu donnais et la commenter. Je n'ai fais aucune comparaison : je disait juste que pour le driver hyper-v ils y mettaient beaucoup de mauvaise volonté. Google n'a rien à foutre la dedans.

    C'est absolument evident, aucun team a l'interieur de MS n'aurait base ses packages sur un truc fait par un gars dans son coin sans support de MS.

    C'est absolument évident, aucun team a l'extérieur ne ferait ses meeting en dehors des heures de boulot si le projet était supporté par MS.

    Sans plaisanter, rien n'empêche le mec d'avoir commencer le projet dans son coin, avoir été rejoint par des collègue, et quand MS à vu qu'ils faisait un bon produit, de leur avoir proposer de bosser dessus pendant leurs heures de boulot et d'en faire un produit officiel.
    Je n'en sais rien mais je n'ai aucune raison de te faire plus confiance qu'au blog de l'auteur, donc tant que tu ne m'apportes pas plus d'informations, je reste sur le fait que ça ressemble à truc développé à l'extérieur puis intégré à Microsoft.

    En quoi ? Un soft qui tourne sur 95% des desktops de la planete serait moins important que tous ces softs qui tourne sous Linux+BSD et qui representent entre eux une infime minorite du marche ?

    Oui ça tourne sur 95% des desktop mais on s'en tape un peu de ça. Ça tourne sur quelle proportion des plateforme pour faire du cloud ? La plateforme de cloud de Microsoft est loin de dominer le marché, et donc ce qui est intéressant c'est de regarder quelle portion du toolkit est suffisamment générique pour être réutilisée sur d'autre plateforme.

    Oui, et ? Si c'est pas une critique, quel etait des lors l'interet de ce commentaire dans ton post ? Tu voulais bien dire quelque chose avec ca non ?

    Relis bien mon commentaire et tu verras que depuis le début je dis bien que ceci est une remarque et pas une critique.
    Je constatais que pour les projets que tu citais, la majorité des utilisateur qui vont passer sur le site web ne vont même pas voir que c'est fais par Microsoft.

    Je me demande donc juste pourquoi ? Ça ne me parait pas aberrant de ce poser ce genre de questions. Indépendamment du coté open source, pourquoi Microsoft affiche en gros « c'est nous qui l'avons fais » pour certains produits et pas pour d'autres ? Quel est le critère utiliser, et pourquoi ces projets là qui sont quand même des produits intéressant ne sont pas vraiment étiqueté Microsoft ?

    Il y a vraiment besoin qu'un commentaire critique Microsoft pour être intéressant ? Dans ce cas là pourquoi tu fais des commentaire ? Il ne doivent jamais avoir d'intérêt.

  • [^] # Re: Enfumage

    Posté par  (site web personnel) . En réponse au journal SL2011 : Entretien avec Alfonso, Directeur de la Stratégie Interopérabilité chez Microsoft. Évalué à 2.

    Et non, je n'ai pas fait la même erreur que toi : j'ai effectivement réagit sur ta "petite conclusion", et c'est bien là dessus que je voulais réagir.

    Si tu voulais réagir uniquement sur ma conclusion, cette réflexion est hors sujet : « La liste est suffisament longue pour ne pas qualifier leur participation d'infime » et c'est elle qui m'a fait réagir.
    Mais je considère le sujet comme clos.

    J'ai tronqué quoi ? ton "en dehors de Silverlight" ? Tu as cité toi même l'exemple qui te contredis : le DLR, il est utilisable en dehors de Silverlight, à commencer sur le framework .NET "standard" et bien sûr sur Mono.

    Que veux-tu que je te dises, j'assumes totalement tout ce que j'ai dis, je n'ai pas l'impression d'avoir déformé quoique ce soit.

    On reprend :

    les toolkits silverlight : en cherchant bien il y a là encore que des tout petits trucs inutilisable

    Ton niveau de discours pu : ces toolkits sont tellement inutilisables qu'ils sont utilisés par les 3/4 des applications dans les dites technos.

    Le sens de ma phrase que tu cite change complètement en oubliant le « en dehors de silverlight » et ta réponse n'a aucun sens si on le remet. Je place bien ma remarque dans un contexte précis et ta réponse le traite dans le cas général.
    Alors, oui je me suis trompé pour le DLR qui maintenant est utilisable sous mono en dehors de Silverlight (moi au moins je reconnais mes erreurs) mais ça ne change absolument rien au fait que tu déformes mes propos et que tu répond à coté de la plaque.
    Ça ne change rien au fait que les autres citations ne sont pas mieux et que tu m'insulte, que tu dénigre mes compétences sans même les connaître, bref des attaques purement gratuites qui décrédibilisent tout ce que tu peux dire.

    Mais bon, si assume parfaitement les conneries que tu dis (les insultes aussi ?) la discussion s'arrête là pour moi. Je laisse les autres juger tes propos.

  • [^] # Re: Enfumage

    Posté par  (site web personnel) . En réponse au journal SL2011 : Entretien avec Alfonso, Directeur de la Stratégie Interopérabilité chez Microsoft. Évalué à 2.

    Reprenons depuis le début :

    En effet reprenons depuis le début

    Ta théorie : Microsoft n'assume pas ses projets Open-Source et ils semblent faits de manière externe sans ref à Microsoft.
    Ensuite je te liste des projets qui te montre le contraire.

    Ce n'est pas ma théorie ou quoi que ce soit. Si on reprend mon premier commentaire : http://linuxfr.org/nodes/86073/comments/1234390 je réagissait juste à la liste de pbpg pour montrer que la liste de projets qu'il donnait n'était pas aussi rose qui le sous entendais.

    Je termine sur une petite conclusion ou je dis que pour ces projets là ça ne semble pas assumé dans le sens ou l'on voit à peine sur le site que c'est fait par Microsoft. Je trouve juste ça étonnant.

    Et là, paf... je fais la petite d'erreur de mal interpréter ta réponse. Tu t'es focalisé sur ma conclusion qui n'était qu'une remarque sur les programmes de la liste, et je viens maintenant de comprendre que tu ne parlais que de ça. À ma décharge, j'ai fais la même erreur que toi puisque je me suis concentré sur la deuxième partie de ton commentaire :

    La liste est suffisament longue pour ne pas qualifier leur participation d'infime :

    Sauf que moi je suis resté correct, la ou dans ton message suivant tu deviens vraiment insultant : http://linuxfr.org/nodes/86073/comments/1234633
    Et plus qu'insultant tu déformes volontairement mes propos en tronquant de manière flagrante les citations juste au point qui t'arrange pour me faire dire l'opposé de ce que j'ai dit.

    Je pense qu'on est au moins en partie d'accord sur le sujet mais on ne parlais pas de la même chose. Oui, Microsoft à des projets assumés, je suis d'accord, pas ceux de la première liste mais oui F# par exemple est assumé. Je ne dis pas le contraire, ce que je disais par contre c'est que pour l'instant c'est pas brillant et que l'avenir s'annonce pas forcement plus rose pour le projet.

    Je reviens pas sur le reste des projets, mais par contre je note quand même que tu ne répond toujours pas sur le fait que tu ais déformé volontairement mes propos. Est-ce que tu n'assumes pas ?

  • [^] # Re: Enfumage

    Posté par  (site web personnel) . En réponse au journal SL2011 : Entretien avec Alfonso, Directeur de la Stratégie Interopérabilité chez Microsoft. Évalué à 4.

    Ce que je trouve marrant c'est que quand on te met le nez dans tes erreurs, qu'on montre à tout le monde par A+B que tu avais tord, tu réponds à tous le reste en oubliant bien gentiment les passage qui te dérangent...

    C'est pas compliqué un petit «excuse moi, je le refais plus promis, juré, craché». Voir même un ironique «je n'ai pas fais exprès de couper ta phrase, je n'ai lu que le début et j'ai pas vu la fin qui était caché par un défaut de css dans mon grille pain».

    Non non et non : ASP.NET MVC court-circuite une grande partie de l'environnement ASP.NET. Ce n'est pas une surcouche de l'ancien ASP.NET : tout le moteur de rendu des pages est mis totalement de côté ainsi que tous les contrôles qui vont avec : clairement ne reste que le pipeline HTTP.

    Si, si et si : il reste encore suffisamment pour que ce soit inutilisable en dehors de ASP.NET.

    Là n'est pas la question : VS2010 n'est sorti il n'y a qu'un an. Le fait est que Microsoft croit en F#, et le fait qu'ils l'ait mis open-source contredit l'affirmation selon laquelle les logiciels "open-sources" de Microsoft sont justes des trucs annexes développés par un employé seul dans son coin.

    D'une, VS2010 n'est sorti qu'il y a un an mais F# existe depuis 9 ans, et pour l'instant il reste complètement obscure. J'espère qu'il va décoller car c'est globalement un bon langage mais il n'y a actuellement aucune tendance vers l'adoption de ce langage.

    De deux tu recommence à déformer mes propos : je n'ai jamais dis que les logiciels open-source de Microsoft sont juste des trucs annexes développés par un employé seul dans son coin et je te met au défi de trouver un endroit où j'ai pus le dire. Tu commences à m'énerver à déformer volontairement tout ce que je dis.

    Première page de résultat Google me donne http://www.mono-project.com/Release_Notes_Mono_2.8
    Le DLR est utilisable et distribué avec Mono : le DLR est utilisé par IronPython et IronRuby.

    Mea culpa pour celui là, je n'avais pas vu passer l'annonce quand ils ont réussi à l'intégrer, va falloir que je retourne jeter un coup d'oeil.

    Ben si, ils sont directement utilisables et utilisées par Mono, autre projet open-source.

    En même temps mono est une implémentation de dot.net, donc en effet c'est utilisable dessus mais tu sais pertinemment ce que je voulais dire.

  • [^] # Re: Enfumage

    Posté par  (site web personnel) . En réponse au journal SL2011 : Entretien avec Alfonso, Directeur de la Stratégie Interopérabilité chez Microsoft. Évalué à 1.

    IronPython : Et ? L'employe ne sentait pas que c'etait une boite vivant pour l'open-source, on le sait tous ca, rien de nouveau. Ca n'a pas empeche IronPython d'exister au final et d'etre finance par MS

    Microsoft une boite vivant pour l'open source..?

    drivers hyper-v : Oui, mais ils sont toujours maintenus par MS, qui clairement fait mieux que Google et son code Android hein...

    Je ne suis pas sûr que ça soit vraiment mieux mais dans tous les cas on s'en fou de ce que fais Google. Sinon on peut dire que ce que fais Google est bien puisqu'il font mieux que Tartenpion qui lui ne contribue pas du tout.

    WiX : C'est un "side-project" de l'employe, ca a ete fait sur le temps de travail dans un temps ou il peut faire ce qu'il veut(comme les 20% a Google). C'est absolument pas fait en dehors des heures de bureau

    En lisant le post de l'auteur sur son blog http://robmensching.com/blog/posts/2004/4 c'est loin d'être évident. Il parle de «free time» qui peut faire référence aux deux et dis bien que ce n'était pas dans son contrat. Les post suivants confirment bien que les meetings étaient en dehors des heures de boulot.

    Azure toolkit: Qu'est ce ca importe que ca soit reutilisable ailleurs ? C'est une regle maintenant que le code doive etre reutilisable sur d'autres plateformes tel quel ?

    Ce n'est pas une obligation et beaucoup d'autres projets open source ne sont pas réutilisable, mais ça limite quand même l'impact de la contribution.

    xUnit.net: Si tu lisais qui est responsable du code, tu trouverais que c'est le manager du groupe open-source a MS, c'est au contraire un projet bien ancre chez MS

    Ça ne change pas le fait que la communication sur le fait que c'est un produit Microsoft est réduite au strict minimum. Ce n'est pas une critique mais une constatation.

  • [^] # Re: Enfumage

    Posté par  (site web personnel) . En réponse au journal SL2011 : Entretien avec Alfonso, Directeur de la Stratégie Interopérabilité chez Microsoft. Évalué à 4.

    Kedal, quand tu fais un site en ASP.NET MVC, tu mets de côté la plus grosse partie d'ASP.NET pour ne garder que le pipeline HTTP, bref, tout l'inverse de ce que tu racontes.

    Première déformation de mes propos : Tu ne met pas ASP.NET de côté, tu utilises MVC qui s'en charge pour toi, donc non ASP.NET n'est pas mis de côté c'est juste que toi tu t'en sers beaucoup moins puisqu'il est caché par MVC.

    En gros t'as pas d'argument. F# est inclu, en standard, dans Visual Studio. Même IronPython et IronRuby n'ont pas eu ce plaisir "de la dernière chance" d'être intégré dans un produit avec une roadmap de maintenance supérieur à une Ubuntu LTS.

    Le fait d'être intégré en standard n'en fais pas un produit utilisé, des produits majeurs en F# j'en connais pas beaucoup. Est-ce que tu peux m'en citer ?
    (et c'est bien dommage qu'il ne soit pas plus utiliser car c'est globalement un bon langage)

    les toolkits silverlight : en cherchant bien il y a là encore que des tout petits trucs inutilisable

    Ton niveau de discours pu : ces toolkits sont tellement inutilisables qu'ils sont utilisés par les 3/4 des applications dans les dites technos.

    Deuxième déformation de mes propos et là c'est du lourd. Ci on ajoute la fin de ma phrase que tu as gentiment coupé : « [inutilisable] dans un autre cadre » on voit que ta réponse n'a plus aucun sens et ne cherche qu'a décrédibiliser mon propos.
    Je maintient que ces toolkit sont inutilisables en dehors de silverlight.

    Je passe sur l'insulte gratuite.

    qui non donc aucune utilité.
    Tu sais pas de quoi tu parles, tu n'a jamais développé dans ces environnements. Sinon tu saurais que les toolkits dont je parles sont très très largement utilisés.

    Là encore tu cite en coupant le contexte qui est le même que celui de la phrase précédente. Il n'ont aucune utilité en dehors de silverlight.
    Donc la encore ta réponse n'a donc aucun rapport avec ce que je dis.

    Le DLR se base sur... le CLR, qui est un standard. C'est tellement impossible d'utiliser une autre implémentation que Mono y arrive : t'as fini de raconter des conneries ou t'en a toute une valise ?

    Tu peux me donner un pointeur qui appuie le fait que le DLR soit utilisable avec mono ? La dernière fois que j'ai regarder c'était justement impossible...
    Je ne demande pas mieux que de changer d'avis sur ce point qui m'intéresse.

    Tu juges à l'emporte pièce, sans connaître ce dont tu parles, avec comme seul objectif que d'appuyer ton discours. Tu affirmes, dénigres, sans une once d'argumentation ettayée d'expérience ou de référence, là où une simple recherche google te montre que ce qui te semble impossible ou inutilisable s'avère totalement contredit par les faits.

    Bien au contraire, ce sont des technos que je connais, j'affirme uniquement sur les parties que je connais et je ne cherche pas à déformer tes propos. Toi par contre tu viens de nous donner des exemples flagrants ou tu coupes les citations volontairement pour déformer mes propos et pouvoir dénigrer ce que je dis.
    Si tu veux répondre à nouveau à mes messages, je te prierais de ne pas couper les citations n'importe comment uniquement pour me faire dire ce que je n'ai pas dit.

    Je n'ai jamais dit que les toolkits open source de Microsoft étais inutilisables, j'ai dit qu'ils étaient inutilisables en dehors de Silverlight ou ASP.NET c'est-à-dire qu'ils n'ont pas d'utilités pour d'autre projets open source et c'est complètement différent.

    Donc donne moi un exemple de recherche sur Google qui contredise réellement ce que je dis.

    Le problème avec vous c'est que vous êtes tellement persuadé que tout le monde est contre Microsoft que vous cherchez à tout pris à les défendre même quand ont ne les attaques pas. Je suis très content que Microsoft fasse de l'open source et même qu'ils en fasse de plus en plus, mais il faut aussi être réaliste et regarder ce qui est vraiment open source et dans quel context ça peut-être utiliser.
    Dans le cas de Microsoft et notamment pour Silverlight, ce qui est open source ce sont des toolkit de haut niveau très liés à la plateforme et qui donc ne peuvent être utilisé que dans le cadre de cette plateforme qui elle est propriétaire.
    C'est un fait, pas une critique.

  • [^] # Re: Vraiment ?

    Posté par  (site web personnel) . En réponse à la dépêche La spécification d’ODF 1.2 est terminée. Évalué à 3.

    Juste pour préciser car c'est généralement assez peu connus mais il n'y a pas qu'un seul processeur TeX. Il existe au moins une autre implémentation de TeX que celle de Knuth qui passe le trip test :
    http://nts.tug.org/

    Le projet à été abandonné depuis mais il est parfaitement capable de générer des DVI depuis des fichiers TeX et passe le trip test sans aucun soucis.

  • [^] # Re: Non, mais oui

    Posté par  (site web personnel) . En réponse au journal De mon objectivité et mon sens critique en lisant un lien de Tristan Nitot. Évalué à 1.

    tu n'aident que ce qui ont eu les moyens de ceux la payer.

    Pas du tout, c'est une grosse déformation de l'idée : « tu aide ceux qui acceptent les règles, les autres ce débrouillent ». Donc, soit tu accepte les règles de sécurité et en échange si tu as un problème on paye pour toi, soit tu ne les accepte pas, et dans ce cas là tu te débrouille tout seul.

    Et en fait c'est déjà plus ou moins comme cela que ça marche : quand un accident de voiture ce produit, c'est le conducteur en tord qui doit payer. C'est même pour cela qu'il est obligatoire d'être assuré au moins au tiers pour être sûr que les dégâts que tu va causer aux autres seront payés.

    Le trucs c'est que grâce aux assurances, beaucoup de gens ne ce préoccupe pas trop des dégâts matériel qui peuvent survenir, ils sont couverts. C'est peut-être ça qu'il faudrait changer : rendre les gens vraiment responsables quand ils ont fais une connerie.

  • [^] # Re: Enfumage

    Posté par  (site web personnel) . En réponse au journal SL2011 : Entretien avec Alfonso, Directeur de la Stratégie Interopérabilité chez Microsoft. Évalué à 9.

    Cool, une liste de plus à étudier :

    • ASP.NET MVC : c'est un tout petit morceau de l'ensemble ASP.NET, il y a quelques briques qui sont disponible mais absolument inutilisable sans le reste qui est proprio de chez prorio.
    • F# : Devenu libre il y a 6 mois seulement après 8 ans d'existence sans avoir vraiment décollé, c'est ça dernière chance...
    • les toolkits silverlight : en cherchant bien il y a là encore que des tout petits trucs inutilisable dans un autre cadre, le seul truc intéressant et pas trivial est le DLR sauf qu'il est à peu près impossible de le sortir de silverlight pour l'utiliser de manière indépendante sur une autre implémentation du CLR.
    • Quant à WPF et ASP.NET il sont tout sauf open source.

    La liste est bien jolie mais quand on creuse un peu il y a beaucoup de projet qui ne sont à peu près que du vent : des toolkit qui en fait ne sont que des coquilles autour des bibliothèques propriétaire de Microsoft et qui non donc aucune utilité.

    Oui Microsoft fais du libre, mais faut pas exagérer non plus. Pour l'instant je n'ait jamais vu sortir quelque chose d'extraordinaire de chez eux en libre. Ce n'est pas une critique, c'est pas leur business et je ne leur demande pas de libérer leur code, je m'en passe très bien, et ils ne prétendent pas le contraire. Par contre, à vous aussi d'être raisonnable dans vos propos.

  • [^] # Re: Enfumage

    Posté par  (site web personnel) . En réponse au journal SL2011 : Entretien avec Alfonso, Directeur de la Stratégie Interopérabilité chez Microsoft. Évalué à 10.

    Oui, Microsoft fais de l'OpenSource mais si l'on regarde bien ta liste :

    • IronPython : Tout n'a quand même pas l'air très rose d'après son créateur
    • drivers hyper-v : Il ne faut pas oublier qu'ils ont été libérés suite à un rappel à l'ordre et depuis qu'ils ont été intégrés ils ont par deux fois au moins été à deux doigts d'être virés car les développeurs avait abandonné leur code. 1 2
    • sponsor Apache : c'est une très bonne chose de leur part mais ce n'est pas eu qui produisent le code ici
    • WiX : selon la page wikipedia c'est à la base un projet d'un employé sur son temps libre, il l'a été mis en open source dans le but montrer les avantages à sa direction, deux ans plus tard les meeting ce font encore en dehors des heures de bureau. j'espère que maintenant que Microsoft l'utilise ils bossent dessus pendant leur temps à Microsoft ?
    • Azure toolkit pour WP7, xUnit : je ne connais pas donc je n'en parle pas mais je note quand même qu'en cherchant sur le net, impossible de trouver ce qui est réellement open source dans Azure toolkit et réutilisable ailleurs.

    Ce qui est marrant aussi c'est de voir que pour IronPython, IronRuby, WiX, xUnit.net, ... dans tous les cas on ce demande vraiment si c'est du Microsoft. En dehors des mention de copyright en tout petit en bas, on a aucune information sur la page d'accueil des projets sur le fait que c'est développé par Microsoft.
    Dans le cas de xUnit.net, hébergé sur Codeplex, on peut même voir que le support semble effectué par d'autres boites que Microsoft.

    Ce n'est pas une critique, c'est très bien que Microsoft fasse de l'open source, mais ça ne semble pas être assumé. Tous les trucs open source un peu intéressant de Microsoft donne l'impression d'être fais de manière externe avec le moins de référence possible à Microsoft.

  • [^] # Re: Vraiment ?

    Posté par  (site web personnel) . En réponse à la dépêche La spécification d’ODF 1.2 est terminée. Évalué à 2.

    Tout dépend de ce que tu entend par redévelope LaTeX from scratch. Dans ton message du dessus tu parle du compilateur, donc je suppose que tu parles du moteur TeX et si c'est bien le cas, tu obtiendras le même résultat avec une probabilité très élevée.

    Pour qu'une implémentation de TeX puisse être appelée TeX, elle doit passer le « torture test » écris par Knuth, et vu la quantité de tests qu'il y a même pour les trucs les plus tordus, la probabilité que le document soit différent est relativement faible.

    J'ai recompilé quelques document TeX du début des années 80 sans aucun problème avec les dernières version de pdfTeX. (écris en TeX82 mais sans utiliser les trucs vraiment tordus qui ont changer un petit peu dans la version 3.0)

    Par contre si tu redévelopes les macros LaTeX from scratch tu vas sûrement avoir de gros problèmes vu le bordel que c'est...

  • [^] # Re: 2001 ou 2011 ?

    Posté par  (site web personnel) . En réponse à la dépêche 8 juin 2011 : Le projet OpenGPU, un an plus tard.. Évalué à 2.

    Il dit qu'il a plus de genou.

  • # Dommage

    Posté par  (site web personnel) . En réponse à la dépêche Levée de fonds pour la production d'un processeur libre. Évalué à 10.

    Le liens "L'architecture OpenRISC" pointe vers un PDF inaccessible, il faut être logger sur le site pour pouvoir le récupérer, c'est vraiment dommage.

    Pour la dépêche, il faudrai changer le liens pour : http://opencores.org/openrisc,architecture
    Et pour le projet ce serait bien de mettre le PDF ailleurs que sur le SVN et de le rendre accessible à tout le monde.

    Personnellement j'ai aucune envie de m faire chier à créer un compte juste pour voir à quoi ressemble ce processeur, donc je passe mon chemin.

  • [^] # Re: Panda Ranking

    Posté par  (site web personnel) . En réponse au journal Google : Panda, nouvel algorithme d’indexation. Évalué à 10.

    Sauf qu'ici il n'y a que tu complétement admissible...

    Il n'y a aucun privilège accordé à Google Shopping de la part du système d'indexation et de ranking, c'est un truc auquel Google fais extrêmement attention : il ne peuvent pas biaiser les résultats vers un site en particulier et ils font gaffe justement à ne pas ajouter de moyen pour faire cela.
    Quand ils on voulu prouver que Bing pompait leurs résultats, ils on du ajouter un hack temporaire pour le faire qu'ils ce sont empresser de virer après.

    Par contre, il est parfaitement normal que Google Shopping soit bien classé pour une raison toute simple et qui fais que l'excitation autour de panda fais beaucoup de bruit pour rien : les mec de Google Shopping connaisse la nouvelle méthode d'indexation mieux et depuis plus longtemps que les autres, ils s'y sont donc déjà adaptés.
    Le fais de connaître les détails permet d'adapter le site de manière bien plus propre que ce que font tous les SEO, et surtout de manière bien plus rapide. Le problème c'est que cela prouve que d'ici peu on va voir refleurir les mêmes merde qu'avant dans les résultats.