C'était effectivement le cas il y a quelques années, mais depuis les sites web ont évolués. Globalement, ils font appel à de plus en plus de ressources séparées (feuilles de styles, beaucoup de javascript, images, polices, etc.), or multiplier les requêtes HTTP ralentit le temps de chargement des pages.
Pire, l'augmentation de la bande passante a un effet quasi négligeable sur le temps de chargement (pour les gens qui ont au moins une connexion ADSL). En gros, passer de 10 Mbits à 20 Mbits ne va pas aider à afficher plus rapidement les pages web car le problème est principalement une question de latence (résolution DNS, ouverture de sessions TCP, éventuellement SSL, attendre d'avoir parsé le HTML pour savoir quelles ressources télécharger, etc.). Au final, malgré les progrès techniques, les pages web s'affichent moins rapidement aujourd'hui qu'il y a 2 ou 3 ans en moyenne.
Et cela ne devrait pas aller en s'améliorant. Les sites web utilisent de plus en plus de ressources externes (trucs de facebook, google analytics, embed youtube, boutons "share this", commentaires gérés par des services externes comme disqus, etc.), ce qui multiplie les risques qu'une page se charge lentement.
D'un autre coté, le temps de chargement des pages est de plus en plus mis en avant : Amazon a publié des études qui montrent qu'un temps de chargement un peu plus long (genre 100ms de plus) provoquent des chutes vertigineuses dans les ventes (10 à 30%), Google tient compte du temps de chargement des pages pour son indexation.
On voit donc se généraliser des techniques pour optimiser le temps de chargement des pages : minification des CSS et JS, regrouper plusieurs fichiers dans un seul, le retour des sprites CSS, le préchargement de ressources, etc. La promesse du mod apache de Google est de faire ça automagiquement , à grande échelle, sur des sites existants pour lesquels ces opérations ne seraient pas faites autrement.
Ça ne me semble pas une bonne idée du tout que de vouloir mettre cet identifiant de session dans une URL. L'URL est quand même une donnée destinée à être publique.
Par exemple, l'utilisateur ne doit pas oublié d'enlever cet identifiant quand il partage une URL avec d'autres utilisateurs. Utiliser HTTPS n'aide en rien dans ce cas.
Plus vicieux, l'URL peut se retrouver dans les fichiers de logs, que ce soient ceux de proxys ou d'autres serveurs via le mécanisme du Referer. Et là, HTTPS a une légère influence (la RFC dit : « Clients SHOULD NOT include a Referer header field in a (non-secure) HTTP request if the referring page was transferred with a secure protocol »).
Je n'ai pas la même interprétation que toi. De ce que j'en ai compris, une application qui demande 20Mo de mémoire mais qui n'en utilise que 2 sur une machine qui a 2Go de mémoire + swap aura un score de 1 (2 divisé par 2000). Avant le 2.6.36, cette même application aurait eu beaucoup plus de chances se faire tuer car son score aurait été fonction des 20Mo demandés et non pas des 2Mo réellement utilisés.
Donc, on est bien d'accord que la définition est biaisée, car l'adresse IP ne permet pas d'identifier de manière unique un ordinateur (Mac, PC, Nintendo DS) dans le sens auquel l'entend le grand public.
Je ne suis pas d'accord. Pour le grand public, un ordinateur, c'est une tour ou un ordinateur portable, mais sûrement pas une box. Et on ne peut absolument pas identifier l'ordinateur, ie le poste, à partir d'une adresse IP mais seulement la box.
Dans le cadre d'Hadopi, cela a toute son importance, ça va dire que s'il quelqu'un a réussi à utiliser ton réseau wifi pour télécharger illégalement, l'adresse IP sera la tienne et pas celle de la personne qui a vraiment fait le téléchargement.
À la limite, je veux bien accepter cette définition pour le grand public si on remplace ordinateur par équipement réseau.
> C'est moi ou "." ça n'a rien à voir avec "^$" ? Je dirais même que c'est l'inverse en quoi l'un devrait être plus rapide que l'autre ?
Oui, "." est précisément l'inverse de "^$", d'où la comparaison entre grep . et grep -v "^$" (le -v sert justement à inverser la sélection) qui font du coup la même chose : récupérer les lignes non vides.
> Ça veut dire qu'il vaut mieux utiliser grep -v '.' que grep '^$' ?
Le premier est probablement plus rapide que le deuxième, mais j'imagine que la différence dans la pratique va être négligeable à moins d'avoir un fichier dont on veut récupérer beaucoup de lignes vides, ce qui ne doit pas arriver souvent.
L'audit n'est pas si simple à passer. Une entrée dans le bugtracker de mozilla avait été ouverte pour l'inclusion de CaCert, puis refermée à la demande de l'auditeur de CaCert : https://bugzilla.mozilla.org/show_bug.cgi?id=215243#c158
En gros, CaCert ne se considérait pas prête pour l'inclusion et voulait faire une grosse liste de tâches avant de redemander son inclusion. Je sais que depuis il s'est passé pas mal de temps et que la liste de tâches a avancé, mais je ne saurais pas dire quel est son degré d'avancement.
Le certificat de LinuxFr.org n'est pas auto-signé, il est signé par CaCert.org. Les raisons de ce choix ont déjà été expliquées plusieurs fois, par exemple sur http://linuxfr.org/comments/1044250,1.html
Le pub/sub de redis est pratique quand on utilise déjà redis pour d'autres choses, mais je ne suis pas sûr qu'il convienne bien dans ton cas. Je te conseille de regarder plutôt du coté de 0mq [http://www.zeromq.com/] ou de RabbitMQ [http://www.rabbitmq.com/].
Le compte que tu avais trouvé sur twitter n'était pas un compte officiel. On s'est rendu compte justement lors de la panne qu'on devait avoir une présence officielle sur twitter et identi.ca. Les deux comptes sont donc récents et ont été créés en même temps.
> Toolinux vient de subir un lifting complet pour être plus aux normes avec l'existant.
Heu, on ne doit pas avoir les mêmes normes. On ne peut toujours pas laisser de commentaires, même avec un service comme disqus. On en peut pas, non plus, proposer d'évolutions (que ce soit un suivi comme sur LinuxFr.org ou un outil en ligne à la uservoice).
Par contre, ils utilisent google analytics et google ad words, mais est-ce vraiment une avancée ?
> Toolinux est le site d'information francophone leader sur les technologies libres.
Non, faut pas abuser, ça c'est LinuxFr.org. D'après Alexa.com, on fait 5 à 10 fois plus de trafic que toolinux. Et nous, nos articles sont spécialement écrits pour LinuxFr.org, ce ne sont pas des repompes d'ailleurs.
> Linuxfr va t-elle réagir à cette offensive de charme de Toolinux ?
On se demandait si nous allions pas mettre des goatse.cx dans les flux RSS (juste pour Toolinux), vu qu'ils semblent sans servir sans avoir eu la courtoisie de nous l'indiquer (et encore moins de nous demander la permission).
> Est-ce que Twitter, Facebook et autres outils sociaux vont être intégrés pleinement dans l'interface ?
Pour facebook, la réponse est clairement non. Pour twitter, identi.ca ou des réseaux sociaux libres, c'est à voir (il n'y a pas vraiment de décision dans un sens ou l'autre).
> Pour aller plus loin, est-ce qu'il existe une base no-sql qui garantie l'atomicité des mises à jour ?
Quasiment toutes les bases de données NoSQL garantissent l'atomicité, mais j'ai l'impression que ce tu recherches est la durabilité (en gros, la capacité de résister aux coupures de courant). Et là, les bases de données NoSQL ont des approches très différentes. Certaines garantissent la durabilité et d'autres non.
Un cas intéressant est celui de MongoDB. Par défaut, il ne garantit pas la durabilité. En pratique, c'est rarement un problème. Si tu as un seul serveur, ton plus gros risque n'est pas les pannes de courant mais les disques durs qui lâchent. Et là, durabilité ou pas, ta seule protection est d'avoir des sauvegardes régulières. Et si perdre des données n'est pas acceptable, alors il faut passer avoir plusieurs serveurs, et autant que possible dans plusieurs datacenters.
[^] # Re: il fait des petites optimisations
Posté par Bruno Michel (site web personnel) . En réponse au journal Un module apache pour accélérer le net par google (inc). Évalué à 6.
Pire, l'augmentation de la bande passante a un effet quasi négligeable sur le temps de chargement (pour les gens qui ont au moins une connexion ADSL). En gros, passer de 10 Mbits à 20 Mbits ne va pas aider à afficher plus rapidement les pages web car le problème est principalement une question de latence (résolution DNS, ouverture de sessions TCP, éventuellement SSL, attendre d'avoir parsé le HTML pour savoir quelles ressources télécharger, etc.). Au final, malgré les progrès techniques, les pages web s'affichent moins rapidement aujourd'hui qu'il y a 2 ou 3 ans en moyenne.
Et cela ne devrait pas aller en s'améliorant. Les sites web utilisent de plus en plus de ressources externes (trucs de facebook, google analytics, embed youtube, boutons "share this", commentaires gérés par des services externes comme disqus, etc.), ce qui multiplie les risques qu'une page se charge lentement.
D'un autre coté, le temps de chargement des pages est de plus en plus mis en avant : Amazon a publié des études qui montrent qu'un temps de chargement un peu plus long (genre 100ms de plus) provoquent des chutes vertigineuses dans les ventes (10 à 30%), Google tient compte du temps de chargement des pages pour son indexation.
On voit donc se généraliser des techniques pour optimiser le temps de chargement des pages : minification des CSS et JS, regrouper plusieurs fichiers dans un seul, le retour des sprites CSS, le préchargement de ressources, etc. La promesse du mod apache de Google est de faire ça automagiquement , à grande échelle, sur des sites existants pour lesquels ces opérations ne seraient pas faites autrement.
[^] # Re: ...
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche Firesheep. Évalué à 3.
Par exemple, l'utilisateur ne doit pas oublié d'enlever cet identifiant quand il partage une URL avec d'autres utilisateurs. Utiliser HTTPS n'aide en rien dans ce cas.
Plus vicieux, l'URL peut se retrouver dans les fichiers de logs, que ce soient ceux de proxys ou d'autres serveurs via le mécanisme du Referer. Et là, HTTPS a une légère influence (la RFC dit : « Clients SHOULD NOT include a Referer header field in a (non-secure) HTTP request if the referring page was transferred with a secure protocol »).
[^] # Re: Ce qui m'impressionne le plus...
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche Firesheep. Évalué à 2.
[^] # Re: OOM Killer
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche Le noyau Linux 2.6.36 est disponible. Évalué à 4.
[^] # Re: Adresse d'exemple
Posté par Bruno Michel (site web personnel) . En réponse au journal Définition d'une adresse IP par l'hadopi. Évalué à 5.
[^] # Re: ce site pue l'arnaque
Posté par Bruno Michel (site web personnel) . En réponse au journal Définition d'une adresse IP par l'hadopi. Évalué à 2.
[^] # Re: ce site pue l'arnaque
Posté par Bruno Michel (site web personnel) . En réponse au journal Définition d'une adresse IP par l'hadopi. Évalué à 10.
Pour moi, quand un ordinateur peut échanger des informations avec un autre ordinateur qui est connecté au net, alors il est aussi connecté à Internet.
[^] # Re: ce site pue l'arnaque
Posté par Bruno Michel (site web personnel) . En réponse au journal Définition d'une adresse IP par l'hadopi. Évalué à 4.
Dans le cadre d'Hadopi, cela a toute son importance, ça va dire que s'il quelqu'un a réussi à utiliser ton réseau wifi pour télécharger illégalement, l'adresse IP sera la tienne et pas celle de la personne qui a vraiment fait le téléchargement.
À la limite, je veux bien accepter cette définition pour le grand public si on remplace ordinateur par équipement réseau.
[^] # Re: ce site pue l'arnaque
Posté par Bruno Michel (site web personnel) . En réponse au journal Définition d'une adresse IP par l'hadopi. Évalué à 6.
Oui, ça se fait bien (redirection de port ou routage par défaut). Il y a quelque chose de particulier à remarquer ?
[^] # Re: Chapi-Chapo
Posté par Bruno Michel (site web personnel) . En réponse au journal Définition d'une adresse IP par l'hadopi. Évalué à 1.
[^] # Re: adopté
Posté par Bruno Michel (site web personnel) . En réponse au journal Un nouveau design pour LinuxFr, « zenburn ». Évalué à 2.
Rah, c'est moi qui me suis raté. Je corrige.
[^] # Re: Hiut jours
Posté par Bruno Michel (site web personnel) . En réponse au journal Ben quoi ? Toujours pas de journal sur hadopi ?. Évalué à 4.
L'adresse mail fournie par le FAI.
[^] # Re: Équivalence
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche Sortie de GNU grep 2.7. Évalué à 6.
Oui, "." est précisément l'inverse de "^$", d'où la comparaison entre grep . et grep -v "^$" (le -v sert justement à inverser la sélection) qui font du coup la même chose : récupérer les lignes non vides.
> Ça veut dire qu'il vaut mieux utiliser grep -v '.' que grep '^$' ?
Le premier est probablement plus rapide que le deuxième, mais j'imagine que la différence dans la pratique va être négligeable à moins d'avoir un fichier dont on veut récupérer beaucoup de lignes vides, ce qui ne doit pas arriver souvent.
[^] # Re: Certificat auto-signé
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche HSTS arrive dans Firefox 4. Évalué à 3.
En gros, CaCert ne se considérait pas prête pour l'inclusion et voulait faire une grosse liste de tâches avant de redemander son inclusion. Je sais que depuis il s'est passé pas mal de temps et que la liste de tâches a avancé, mais je ne saurais pas dire quel est son degré d'avancement.
[^] # Re: Certificat auto-signé
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche HSTS arrive dans Firefox 4. Évalué à 4.
[^] # Re: A quand ?
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche HSTS arrive dans Firefox 4. Évalué à 4.
[^] # Re: You need to sign in or sign up before continuing.
Posté par Bruno Michel (site web personnel) . En réponse au journal Diaspora is real. Évalué à 2.
[^] # Re: RoR ?
Posté par Bruno Michel (site web personnel) . En réponse au journal Inversion de tendance. Évalué à 6.
Non, le commit en question date d'avant le journal.
> c'est des commits de quelques lignes à chaque fois. Alors c'est déjà fini, et c'est du fine-tuning là ?
C'est surtout que j'étais en vacances une partie du mois d'août, et à mon retour, j'ai eu du mal à m'y remettre. Mais ça va repartir :-p
[^] # Re: Publish/Subscribe
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche Sortie de Redis 2.0.0. Évalué à 2.
[^] # Re: Identi.ca
Posté par Bruno Michel (site web personnel) . En réponse au journal Toolinux fait peau neuve. Évalué à 2.
# Réponse
Posté par Bruno Michel (site web personnel) . En réponse au journal Toolinux fait peau neuve. Évalué à 8.
Il est possible de suivre LinuxFr.org sur twitter [https://twitter.com/linuxfrorg] et identi.ca [http://identi.ca/linuxfrorg]. Pour facebook, nous refusons par principe.
> Toolinux vient de subir un lifting complet pour être plus aux normes avec l'existant.
Heu, on ne doit pas avoir les mêmes normes. On ne peut toujours pas laisser de commentaires, même avec un service comme disqus. On en peut pas, non plus, proposer d'évolutions (que ce soit un suivi comme sur LinuxFr.org ou un outil en ligne à la uservoice).
Par contre, ils utilisent google analytics et google ad words, mais est-ce vraiment une avancée ?
> Toolinux est le site d'information francophone leader sur les technologies libres.
Non, faut pas abuser, ça c'est LinuxFr.org. D'après Alexa.com, on fait 5 à 10 fois plus de trafic que toolinux. Et nous, nos articles sont spécialement écrits pour LinuxFr.org, ce ne sont pas des repompes d'ailleurs.
> Linuxfr va t-elle réagir à cette offensive de charme de Toolinux ?
On se demandait si nous allions pas mettre des goatse.cx dans les flux RSS (juste pour Toolinux), vu qu'ils semblent sans servir sans avoir eu la courtoisie de nous l'indiquer (et encore moins de nous demander la permission).
> Est-ce que Twitter, Facebook et autres outils sociaux vont être intégrés pleinement dans l'interface ?
Pour facebook, la réponse est clairement non. Pour twitter, identi.ca ou des réseaux sociaux libres, c'est à voir (il n'y a pas vraiment de décision dans un sens ou l'autre).
[^] # Re: Ce qu'il est important de noter ...
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche Les paquets rétroportés (backports) deviennent officiels chez Debian. Évalué à 5.
Aptitude propose également une option -t pour ça. Par exemple :
aptitude -t lenny-backports install nginx
[^] # Re: "base de données" ?
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche Sortie de Redis 2.0.0. Évalué à 2.
[^] # Re: "base de données" ?
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche Sortie de Redis 2.0.0. Évalué à 2.
Surtout parce que Redis est encore un produit assez jeune et que la réplication vient juste d'apparaître dans la version 2.0.
[^] # Re: "base de données" ?
Posté par Bruno Michel (site web personnel) . En réponse à la dépêche Sortie de Redis 2.0.0. Évalué à 2.
Quasiment toutes les bases de données NoSQL garantissent l'atomicité, mais j'ai l'impression que ce tu recherches est la durabilité (en gros, la capacité de résister aux coupures de courant). Et là, les bases de données NoSQL ont des approches très différentes. Certaines garantissent la durabilité et d'autres non.
Un cas intéressant est celui de MongoDB. Par défaut, il ne garantit pas la durabilité. En pratique, c'est rarement un problème. Si tu as un seul serveur, ton plus gros risque n'est pas les pannes de courant mais les disques durs qui lâchent. Et là, durabilité ou pas, ta seule protection est d'avoir des sauvegardes régulières. Et si perdre des données n'est pas acceptable, alors il faut passer avoir plusieurs serveurs, et autant que possible dans plusieurs datacenters.