Cher journal, je te soumet une de mes petites idées, en attendant tes remarques.
Pour soulager un peu les serveurs web, ne pourrait-on pas mixer les avantages des protocoles HTTP (ou FTP) et bittorrent (ou ed2k ou freenet ou autre protocole peer-to-peer) ?
MandrakeLinux utilise bittorrent pour distribuer rapidement ses distributions. Pourquoi ne pas utiliiser le même principe automatiquement pour n'importe quelle page html (enfin, statique, pour commencer) ?
Supposons qu'une page soit beaucoup demandée (par exemple, elle est linuxfrisée). Bon. On est pléthore à l'avoir sur notre disque dur (en cache). Plutôt que de continuer à mettre à genoux le serveur, le serveur pourrait renvoyer un hash correspondant à cette page et la suite ne serait plus qu'une gestion peer-to-peer avec les autres moules pour récupérer la page.
Je ne sais pas si je me suis bien fait comprendre...
Pour ceux qui suivent, qu'est-ce que vous en pensez ?
# heuuu
Posté par boris . Évalué à 1.
[^] # Re: heuuu
Posté par boris . Évalué à 5.
Dans ce que tu proposes, le client devrait lancer des requêtes à un tracker ou autre, suivant le protocole p2p, recevoir une liste d'hotes, lancer des requetes sur les hotes...
Résultat, pour une petite page de quelques Ko, on utiliserait 100x plus rien que pour demander:
- héhooo c'est qui qui peut me filer SHA1:E95BF5E301AC81MACHINTRUC ?
- c'est kiki !
- pfff, nan serieux les mecs
- Y'a truc mais il est plus connecté
- Y'a moi mais t'est pas le premier
- ...
Au final, c'est vrai qu'une fois le réseau à genoux, je ne me fais plus de soucis pour les serveurs ;)
[^] # Re: heuuu
Posté par aedrin . Évalué à 2.
Mais peut-être que l'idée reste applicable dans des conditions particulières...
Sur un serveur peu sollicité, pas besoin d'artillerie lourde => on fait comme d'hab...
Sur un serveur très demandé et pour les pages assez lourdes => on lance le biniou...
C'est sûr que je vois un peu le truc de manière optimiste et naïve... l'idée étant de mutualiser les ressources de chacun (bande passante et cache/espace disque) pour soulager les serveurs. (un peu à la manière de folding@home, par ex.)
[^] # Re: heuuu
Posté par boris . Évalué à 2.
Tu parlais d'utiliser les réseaux P2P pour le FTP, par exemple. Pourquoi tout simplement ne pas le remplacer par un système P2P ? C'est ce que fait redhat pour diffuser les ISOs de Fedora. Les diffuseurs sont intéressés par le système pour les mises à jour de jeux vidéo, les démos, ... 3dgamers.com propose d'ailleurs le P2P pour ces téléchargements, et ca remplace avantageusement les serveurs gamespy (hum).
Par contre, pour des fichiers un peu anciens (kernel-2.0.20.tar.gz ?) qui ont peu de chances de se retrouver sur un réseau p2p, le ftp classique reste indispensable. Et on peu penser qu'un serveur d'archives de ce genre ne soit que rarement surchargé.
Le problème est donc plutot de proposer le téléchargement via un réseau p2p, plutot que d'intégrer ça dans les protocoles actuels. Mais ça commence doucement :)
Pour le HTTP, en revanche, le problème est complètement différent. Une page web c'est souvent au moins une dizaine de fichiers (images, css, javascript), et des requêtes sur un réseau p2p pour afficher la page d'accueil du monde.fr te fera aimer le temps des modems 14400 !!!
# Dans le meme style !
Posté par skeespin (site web personnel) . Évalué à 3.
[^] # Re: Dans le meme style !
Posté par Ph Husson (site web personnel) . Évalué à 1.
Sans trop de succes :D
Enfin j'avais trouvé un btget mais il me manque le daemon qui tourne en tache de son pour servir les fichiers........
# freenet
Posté par Gavroche LeGnou . Évalué à 2.
Entre autres fonctionnalités, mais il permet de naivguer sur les pages "Freenet" de manière décentralisée
(enfin il me semble , j'avais testé ya longtemps)
# Bande passante
Posté par sherlokk . Évalué à 1.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.