Damien Thébault a écrit 337 commentaires

  • [^] # Re: 5Mo

    Posté par  . En réponse au journal Bouygues Télécom interdit l'accès aux fichiers volumineux sur son réseau mobile. Évalué à 5.

    Ils ont du mettre à jour leur proxy en bloquant tout simplement l'accès à des fichiers trop gros.

    Ils se sont sans doute aperçus que leur proxy téléchargeait des quantités astronomiques de données (forcément, télécharger 200Mo même si il en envoit seulement 5Mo au client, ça devient vite vorace).
    La solution n'a pas été de corriger leur proxy moisi, mais simplement de bloquer tous les fichiers trop gros.

    En même temps ils ont pas tort, quel intérêt d'envoyer seulement le début du fichier, souvent le début ne suffit pas pour pouvoir l'ouvrir correctement de toute façon.
  • [^] # Re: 5Mo

    Posté par  . En réponse au journal Bouygues Télécom interdit l'accès aux fichiers volumineux sur son réseau mobile. Évalué à 2.

    Juste pour compléter, pour transférer 5Mo, une fois que le proxy voulait bien lacher le fichier, ça allait vite, (dans les 160Ko/s vers 1H du matin par exemple).

    Mais la vitesse moyenne réelle n'était pas du tout de ce niveau, puisque le proxy bloquait pendant tout le temps de téléchargement du fichier, envoyait 5Mo, retéléchargeait tout le fichier, etc. Le transfert des 5Mo était la partie la plus rapide de l'opération en fait.
  • [^] # Re: 5Mo

    Posté par  . En réponse au journal Bouygues Télécom interdit l'accès aux fichiers volumineux sur son réseau mobile. Évalué à 9.

    Effectivement, 5Mo chez bouygues pour moi.

    Je pouvais télécharger des fichiers plus grand en faisant du tethering avec mon PC et en utilisant wget:
    - wget pour télécharger 5Mo
    - wget -c qui essayait de télécharger la suite, le serveur proxy qui laisse ça passer, mais supprime Content-Length dans la réponse
    - le serveur proxy envoit les 5Mo suivants, et coupe brutalement la connection
    - wget voit que la connection a été coupée et se reconnecte pour télécharger la suite

    À chaque requète, le serveur proxy retélécharge le fichier en entier! wget bloque et ne reçoit rien pendant un certain temps qui varie en fonction notamment de la taille du fichier téléchargé. Et le pire c'est que le serveur proxy retélécharge le fichier pour chaque bout de 5Mo!
    Ça veut aussi dire que quand quelqu'un télécharge un pdf de 2Mo, il faut attendre que le proxy finisse de le télécharger avant qu'il ne veuille bien l'envoyer, du coup ça ralentit pas mal les transferts. C'est le cas aussi pour les pages web bien sûr.

    Perso j'avais un réseau privé (172.x.x.x peut-être bien), le seul moyen d'accéder à internet c'était de passer par le proxy http (aucun autre port ouvert donc, sauf peut-être imap peut-être, je sais plus trop).

    À rajouter à ça une connection lente en EDGE et 3G/HSDPA, qui échouait parfois. Et le proxy http en question qui renvoyait des erreurs 403 de manière aléatoire sur certaines pages.

    Du coup je suis juste parti chez SFR. J'utilise un smartphone pour accéder à internet, donc si l'accès à internet est aussi mauvais ben ça ne m'intéresse pas.
  • [^] # Re: Hmmmf

    Posté par  . En réponse au journal Symbian, Moblin/Meego et Android sont dans bateau nommé Nokia. Évalué à 3.

    C'est clair. Ça me fait toujours marrer les boîtes qui essayent de se différentier par leur logiciel alors que c'est le matériel qui est leur force.

    Si Nokia sort pas un bon truc rapidement ils vont avoir du mal, ça tout le monde est d'accord.

    Ils espèrent sans doute sortir des smartphones avec leur meego et espèrent avoir plein de gentils développeurs qui développent dessus des super killer apps? C'est le rêve de tous les constructeurs qui font des OS tiers, mais à mon avis ça arrivera pas.

    Les gens développent sur une plate-forme non pas parce que c'est "cool" ou quoi, mais parce que y'a de l'argent à se faire. Le développement de jeux sur téléphones portable c'est pas super cher, mais ça reste pas donné non plus, et y'a des vraies boîtes qui se font de l'argent avec.
    Google l'a bien compris et a fait un OS attirant à la fois les fabricants de téléphones (OS gratuit et pas mal) et les opérateurs (possibilité de bidouiller leur merde dessus) ainsi que les utilisateurs (intégration des services google déjà, bon navigateur web, etc.).
    Du coup le parc de terminaux s'est agrandi considérablement, ce qui a attiré les développeur, et ensuite ça fait boule de neige.

    Donc pour que Nokia arrive à faire pareil il faut qu'ils aient un Market dispo sur l'ensemble de leur parc de téléphones. Vu les téléphones qu'ils sortent en masse actuellement (des téléphones basiques principalement), c'est pas gagné pour avoir un Market correct digne de ce nom.

    Et tout ça pour quoi? Imaginons que ça marche et qu'on se retrouve avec 3 markets principaux (iPhone, Android et Nokia). Est-ce que le Market Nokia sera un argument commercial plus important que si ça avait été un Market Android? Franchement je suis pas sûr.

    Apple avait fait le coup (d'après ce que je vois c'était l'iPhone 3G "y'a une application pour tout"), mais c'est un peu fini non? C'est plus quelque chose de neuf, d'avoir plein d'applications dispo. Les pubs iPhone 4 c'est facetime non (même si j'ai jamais vu quelqu'un l'utiliser, l'argument des possesseurs d'iPhone 4 c'est plutôt l'écran "rétina").

    Et sinon, juste comme ça, pour avoir accès au Market Android il suffit pas d'avoir Dalvik, il faut que Google autorise le téléphone, avec une liste de critères spécifiques. Genre il faut un écran tactile, un accéléromètre, etc. Donc ça m'étonnerais beaucoup qu'ils laissent un téléphone non-Android se connecter. Oui c'est moche mais bon c'est comme ça, donc y'a certaines rumeurs qui ne tiennent pas.
  • [^] # Re: Et la décentralisation?

    Posté par  . En réponse au journal WikiLeaks - Mass Mirroring Project - On a besoin de vous !. Évalué à 3.

    Les serveurs pourraient utiliser des torrents pour mettre à jour les données, et ensuite c'est exposé en http pour les utilisateurs.

    Il me semble que le souci des torrents c'est que ça ne peut pas se mettre à jour, il faudrait un système distribué p2p de duplication. Une sorte de fusion entre rsync et bit torrent.
  • [^] # Re: remarque

    Posté par  . En réponse au journal WikiLeaks - Mass Mirroring Project - On a besoin de vous !. Évalué à 4.

    J'imagine que la technique classique pose le problème qu'il suffit de saisir ou DDoS le serveur principal pour que les miroirs soient inutiles.
    Alors que là, la mise à jour peut se faire depuis n'importe où.

    Perso j'ai un serveur perso en grsec+hardened où je peux faire du chroot avec moins de risques, et avec du sftp uniquement ça diminue les risques, mais c'est quand même moins pratique que si c'était dans l'autre sens effectivement.

    Y 'a une explication de ce choix technique quelque part?
  • [^] # Re: Je compatis

    Posté par  . En réponse au journal Les joies d'une distribution en Rolling Release.. Évalué à 4.

    Marrant, moi sur ma gentoo j'ai la 2.6.36 depuis plusieurs semaines et je n'ai aucun souci.

    Et vu que le kernel est mis à jour à la main, on garde celui d'avant et on peut toujours rebooter sur celui d'avant sans aucun problème.
  • [^] # Re: intel Vpro

    Posté par  . En réponse au journal Un serveur VNC dans certains processeurs Intel. Évalué à 2.

    Java ou ILO? Parce que moi openjdk sur x86_64 ça marche.
  • [^] # Re: Reiserfs

    Posté par  . En réponse à la dépêche Première bêta du Debian-Installer de la prochaine version stable de Debian. Évalué à 5.

    Moi je l'utilise sur mon serveur pour ses capacités de redimensionnement à chaud sur lvm, et ça c'est cool.
  • [^] # Re: Grave !

    Posté par  . En réponse au journal Enfin un journal qui parle de Linux. Évalué à 1.

    Perso je préfère le cyclimse parce que c'est quand même va
  • [^] # Re: Grave !

    Posté par  . En réponse au journal Enfin un journal qui parle de Linux. Évalué à 2.

    C'est dingue! Ça me fait pareil sur m
  • [^] # Re: Clavier

    Posté par  . En réponse au journal Timeface , la terreur des firewall. Évalué à 1.

    Il suffirait d'avoir accès aux différentes versions comme sur un wiki, comme ça, ça se voit si quelqu'un essaye de modifier le fond.
  • # Remplacement de port

    Posté par  . En réponse à la dépêche Sortie de force_bind version 0.4. Évalué à 5.

    Pour le port, ce qui serait cool plutôt ça serait de faire un remplacement, par exemple remplacer le port "80" par "8080" et "443" par "8443".
    Des conditions ça serait cool aussi, et des opérations +/- par rapport au port original:
    !(port > 1024): port+8000

    Pour l'adresse il faudrait:
    - pouvoir mapper (y compris INADDR_ANY) dans une autre IP (ou INADDR_ANY pourquoi pas)(à voir pour l'IPv6 quand même).
    - pouvoir ignorer certaines

    Mettre tout ça dans un fichier de conf qu'on choisit dans une variable d'environnement.

    (Bon après il faut voir l'utilité d'avoir un truc compliqué aussi, la quantité de programmes qui ont besoin de ça est du genre faible, mais ça peut être un outil utile quand même)
  • [^] # Re: dns en ipv6

    Posté par  . En réponse à la dépêche IPv4 est mort, vive IPv6 !. Évalué à 8.

    En même temps je ne suis pas convaincu du besoin du DHCPv6.

    Les gens veulent juste faire un copier/coller de ce qui se fait en IPv4 sans se poser de question, mais il n'y a justement plus besoin de s'embêter avec le DHCP avec ce qui est dispo en IPv6.

    Le seul argument en faveur de DHCPv6 que j'ai vu pour l'instant c'était "Ça permet aux admins d'avoir la liste des machines." (ce qui est une raison un peu pourrie quand même, si ton seul moyen c'est d'utiliser DHCPv6 t'es pas dans la merde)
  • [^] # Re: Ça va être un beau bordel

    Posté par  . En réponse à la dépêche IPv4 est mort, vive IPv6 !. Évalué à 1.

    En même temps "que" /64 ça fait quand même 18 446 744 073 709 551 616 addresses IP disponibles.
    Le seul problème du /64 que je vois, c'est que en théorie on y met un seul LAN derrière (interdit de sous-classer en deux /65 ou plein de /96).
    Mais bon, un /64 moi ça me va très bien, c'est 2^64 fois mieux qu'en ipv4 en fait.
  • [^] # Re: Et j'ai oublié

    Posté par  . En réponse au journal Firefox me gave!. Évalué à 2.

    En fait ça permet de faire de l'introspection en javascript.

    Par exemple je voulais faire un arbre d'objets qui appellent une fonction avec le chemin:
    a.b.c.d() appelle f("a.b.c.d"), et ça pour n'importe quel objet. Ça pourrait aussi être utilisé pour faire des bindings à différents languages, etc. (moi c'était plutôt pour une sorte de bindings Web Services).

    De base, dans javascript (1.5 à priori, mais ça n'a pas l'air très standardisé) il y a un handler générique de méthodes qui s'appelle __noSuchMethod__: https://developer.mozilla.org/en/JavaScript/Reference/Global(...)

    Ça marche pour les appels de méthodes, mais il n'y a pas de __noSuchAttribute__, donc pour mon cas ça ne marche pas.

    Pour résoudre ce genre de problèmes, les "harmony proxies" ont été créés qui gèrent ce genre de cas de manière homogène pour toutes les actions possibles en javascript (appels de fonctions, accès aux attributs, créations d'attributs, etc.).

    Du coup j'ai pu faire des harmony proxies récursifs qui me font ce que je veux automatiquement :). C'est un peu prise de tête mais c'est possible, alors que sans c'est pas faisable.
  • [^] # Re: Et j'ai oublié

    Posté par  . En réponse au journal Firefox me gave!. Évalué à 1.

    J'ai testé les "Harmony Proxies" de Fx4 et c'est cool. Je n'ai pas trouvé ça sur les autres navigateurs, donc je me dis qu'il y a quand même des bons côtés.
  • # Par rapport à 0.5, et le futur

    Posté par  . En réponse à la dépêche Performous sort en version 0.6.0. Évalué à 3.

    Par rapport à la 0.5, mes remarques sont toujours à peu près les mêmes, ça s'est un peu amélioré au niveau ergonomie quand même.

    Ce qui serait cool au niveau des contrôleurs, ça serait de supporter les guitares wii automatiquement, moi j'utilise wminput/cwiid pour faire des appuis touches (ça vaut aussi pour FoFiX d'ailleurs) mais c'est chiant de faire le mapping à la main.

    Perso j'ai testé la partie "DDR" et la partie "Guitare", et ça pèche quand même vraiment beaucoup par rapport à (respectivement) Stepmania et FoFiX. Mais bon c'est sûr que c'est un peu plus light quand même, je comprends que le but ne soit pas d'avoir un logiciel expert dans tous les domaines (déjà que Stepmania et FoFiX galèrent chacun à sortir une nouvelle version...).

    Par rapport à la 0.5 ça se passe quand même un peu mieux au niveau du timing, les notes disparaissent quand elles sont validées alors qu'il me semble que c'était pas le cas avant.

    Mais ce qui est triste finalement c'est les effets graphiques. Peut-être un modificateur de High-Speed éventuellement, et puis j'ai un peu du mal à piger l'interface pour choisir l'instrument qu'on veut jouer quand on démarre un morceau (ni à quoi sert la caméra :p).

    Donc effectivement je confirme, des graphistes ça serait cool ^^.
  • # Bravo!

    Posté par  . En réponse au journal Sortie de Bredele 2.0. Évalué à 3.

    J'ai regardé l'exemple, et franchement c'est bien fait. Ça m'aurait fait gagner du temps pour mon rapport de master recherche.

    Mon maître de stage (et tous les maîtres de stages en fait) était très tatillon sur la présentation, et au final j'avais à peu près la même chose (sauf que c'était fait à la main, ça a pris un peu de temps).

    Donc je confirme, en informatique la présentation c'est à peu près ça aussi (enfin un thésard en info pourra sans doute confirmer).
  • # Web 1.0

    Posté par  . En réponse au journal Et les liens hypertextes !. Évalué à 5.

    Il y a quelques années, à l'époque du web 1.0, à la radio, à la télé et dans les journaux, tout le monde donnait les adresses précises des sites.
    Par exemple à la radio, "double-vé double-vé double-vé point linux èffe ère point org slash forums slash 35 slash index point hache thé aime elle".
    C'était branché de dire les URL complètes comme ça.

    Au bout d'un moment, ils ont dû se rendre compte que c'était totalement inutile et que personne ne se rappelait. Et aussi que les moteurs de recherche pouvaient donner la même info de manière plus sûre. Mais surtout que ça faisait genre "je viens de découvrir internet, je connais ce que c'est une URL", donc pas cool.

    En général, les sites spécialisés donnent quand même les URLs quand c'est utile (ils savent faire la différence entre l'utile et le pas utile). Les publicitaires savent créer des noms de domaines qui vont bien et les utilisent dans les pubs.

    Il reste juste à la presse généraliste à savoir quand une URL est utile ou pas.
  • [^] # Re: Theora et sous-titres français

    Posté par  . En réponse au journal Sintel est sorti!. Évalué à -3.

    Ça fonctionne bien sur le mp4 pourtant.
  • [^] # Re: Taille du théora ?

    Posté par  . En réponse au journal Sintel est sorti!. Évalué à 1.

    Il faudra que tu montres, chez moi le mp4/h264 n'a aucun artefact au niveau du texte (version 2k).
  • [^] # Re: Taille du théora ?

    Posté par  . En réponse au journal Sintel est sorti!. Évalué à 1.

    Ils se trompent sur la taille du MP4 full sur le site, dans le torrent ça fait 442Mo.
    Pareil, c'est parti en torrent pour moi.
  • # Intégration à des outils de gestion de photos?

    Posté par  . En réponse au journal Des nouvelles de booh, un générateur de web-album pour le web 1.0. Évalué à 2.

    J'avoue que c'est une solution intéressante.

    Picasa permet de stocker des photos et de les partager, mais la limite de 1Go est finalement vite atteinte. Il est possible de payer pour avoir de l'espace en plus, mais le prix est finalement un peu cher par rapport à un stockage en local.
    J'ai un serveur connecté à internet avec un serveur web, et permettre à mes amis de voir certains albums et/ou de les télécharger en un clic ça serait cool.

    Personnellement j'utilise f-spot pour trier mes photos (shotwell ou digikam marchent aussi), ça me dérange un peu de devoir faire le travail de tri plusieurs fois.
    Ce qui serait top c'est de pouvoir faire ça automatiquement depuis le logiciel que j'utilise, ou mieux, depuis la base de données (ça ne me dérange pas de tagger les photos d'une certaine façon, par exemple de créer un Meta-tag "Albums" avec mes albums dedans, puisque je peux déjà sélectionner mes photos par rapport à leurs tags et leur note).

    (f-spot a un système très basique de génération d'albums html, ce qui reste insuffisant)
  • # dbus, intelligence

    Posté par  . En réponse au journal gcp: un outil de copie à la cp. Évalué à 1.

    Si tu intègres un service dbus, tu pourras faire toutes les interfaces graphiques que tu veux, et puis avoir des notifications et tout!

    À mon avis, et comme il a déjà été dit, avoir un gestionnaire qui gère de manière intelligente les disques est presque indispensable.
    À savoir, que tu peux potentiellement avoir en parallèle 2 copies si 4 disques sont utilisés (potentiellement des disques réseau montés avec gvfs).
    Il y a aussi les disques SSD, qui ne se préoccupent pas du mode aléatoire.