Le mass storage ne gère pas du tout la concurrence, ce qui veut dire que les applications du téléphone ne peuvent pas accéder à ces données quand on branche le téléphone à l'ordinateur, ce qui est perturbant pour l'utilisateur voire très génant (s'il utilise son PC pour le recharger).
Mon Nexus S, lorsque je le connecte à un PC, il me demande si je veux le faire passer en mode mass storage. Aucun désagrément.
Certes, mon PC fixe perso accuse 12 ans (P4 à 2.4GHz), mais je peux encore faire tourner des applis et des jeux 3D bien plus gourmands que ça. Là, ma pauvre machine peine à afficher 64 carrés de couleur. Sous Firefox, le CPU est utilisé à 30% quand il ne se passe rien, 100% quand ça bouge. Sous Chrome, 100% en permanence. Même comportement sur un laptop de 2008 (bon, pas tout jeune quand même). Il faut que je sorte mon quad core du boulot pour espérer voir les animations s'animer (ça consomme tout de même un core à 80%).
À quoi cela est-ce dû ? Qt via emscripten, c'est pas encore ça ?
C'est dommage, car j'apprécie ce genre de casse-tête. En tout cas, félicitation pour avoir un même code C++ qui fonctionne à la fois en natif et dans un navigateur, ça m'impressionne.
Je viens de tester Proxmox. Super simple à installer, il m'a fallu moins d'une heure pour avoir un cluster de 3 nœuds qui fonctionne.
Ma migration à chaud fonctionne parfaitement avec un hôte Linux, pas vraiment avec un hôte Windows (l'hôte ne répond que pendant les 20 secondes qui suivent la fin de la migration).
Par contre, pas de possibilité d'équilibrage de charge/migrations automatiques, ce qui réduit pas mal les possibilités de laisser les utilisateurs créer leurs VM.
Mais ça reste une solution sympa (déjà, elle fonctionne, elle).
Quand tu dis qu'un nœud OAR peut être une machine de bureau, ça veux dire que les nœuds peuvent être assez hétérogènes (distri, bibliothèques…). Du coup, comment ça se passe pour la gestion de l'environnement lié à un job, ça se spécifie lors de sa soumission ?
Cependant, je pense qu'OAR ne répond pas à certains de nos besoins : certains collègues développent en C# sous Visual Studio, c'est pas OAR qui va leur permettre d'accéder à une machine disposant de plein de cœurs et/ou de mémoire pour faire tourner leur appli. Ou alors, je n'ai toujours pas compris.
Le problème d'ordonnancement sur un tel système est a priori le même que celui du placement de VM dans un cloud. À la différence qu'OAR peut délayer un job.
Je n'ai jamais dis que nous avions besoin d'une solution de calcul distribué, ce qu'il nous faut, c'est en effet de la mutualisation/partage de ressources.
Après, c'est pas tant un problème de quota, mais plus un problème de répartition de charge/optimisation de l'utilisation des ressources. Mais bien sûr, c'est une contrainte que l'on garde à l'esprit.
Distcc, je connais. Marche plutôt bien, si ce n'est que le serveur python à tendance à utiliser bien trop de mémoire lors de la compilation de gros projets (bug rapporté il y a presque un an, mais rien n'a bougé depuis).
Parallel, je ne connais pas, je vais jeter un œil. Merci.
Par contre, ça reste des outils assez spécifiques : c'est pas avec ça que je vais pouvoir accélérer des tâches qui ne sont pas des batch. Nous avons au final des besoins assez différents. Permettre à chacun de pouvoir lancer des machines virtuelles facilement nous semble actuellement être la solution qui permet de satisfaire tout le monde (même si, je le reconnais, il y a probablement des solutions plus adaptées à certains besoins).
Sauf que nous avons aussi (surtout ?) des gens qui ne travaillent pas sous Linux…
Nous avons nous aussi la possibilité d'accéder à un cluster de calcul, sauf qu'il faut des applis développées pour (qui causent via MPI ou autre). Et moi le premier, j'ai pas toujours envie de passer par là. Surtout que la majorité d'entre nous n'a pas besoin d'une parallélisation aussi poussée.
Il y a aussi que nous avons des tâches qui ne sont pas du calcul scientifique à proprement parler, mais qui requièrent de la mémoire et du CPU. Moi par exemple, je bosse avec des bibliothèques qui prennent une bonne heure à compiler sur mon laptop (ou 4h lorsque je compile les tests qui vont avec), et j'apprécie assez de pouvoir simplement faire un ssh maVM; git clone malib; make -j 24 et avoir juste à patienter 5 min. Et les fournisseurs de temps de calcul, lorsqu'ils peuvent faire tourner ce genre de tâches, vu que ce n'est pas du calcul à proprement parler, ils n'apprécient pas trop.
Ou encore, nous avons des personnes qui ont vraiment besoin de machines virtuelles : certains bossent par exemple sur la répartition des tâches dans un cluster Hadoop, il leur faut donc 8 machines pour avoir quelque-chose qui ressemble à un cluster.
Nous sommes un institut de recherche, les VMs que nous allons faire tourner sont destinées à faire du calcul scientifique : besoin de beaucoup de CPU et/ou de RAM pendant quelques jours/semaines, l'objectif étant de permettre à chacun d'exécuter le plus rapidement possible des tâches gourmandes en CPU, tout en palliant le manque de mémoire de nos machines personnelles. Les CPU seront donc utilisés à 100% en permanence (en tout cas, c'est comme ça depuis plusieurs mois sur notre machine actuelle). Quand à la mémoire, nous avons déjà quelque machines qui en réclament 32Go, donc il n'y aura pas 40 VMs par serveur (10 me parait être un chiffre plus raisonnable).
100 VMs sur 10 serveur, compte tenu du nombre que nous sommes, c'est d'après moi une borne max, et j'imagine assez mal qu'elle puisse être atteinte avant 5 ans. Sur un horizon de 2 ans, j'envisage plus ça comme du 20 VM/3 serveurs. La sauvegarde n'est pas à l'ordre du jour (du moins, pas pour l'instant) : ces machines sont destinées à être utilisée pour du one-shot. Tout ça pour dire que cela ne justifie pas l'embauche de quelqu'un (pour tout plein d'autres raisons, certaines indépendantes de notre volonté, même si cela résoudrait pas mal de problèmes).
Je ne mets pas de coté la solution VSphere (je suis moi même entièrement satisfait de Workstation que j'utilise au quotidien), c'est juste que j'aimerai que l'on évalue les autres solutions avant de choisir celle-là. Surtout que c'est pas la première fois que nos techniciens nous font le coup de « on prend la solution qui nous convient à nous » et que ça se transforme en « comment ça elle ne répond pas à vos besoins ? ».
Virt-Manager de répond pas à plusieurs contraintes :
- Pas utilisable depuis Windows (enfin si, mais j'ai pas envie d'expliquer à certains utilisateurs comment installer un serveur X et lancer Virt-Manager en SSH).
- Il faudrait un peu de gestion de droits, au minimum pour que chacun ne puisse toucher/accéder qu'à ses machines.
Je suis assez d'accord avec toi : les éventuelles lacunes des ramasse miettes n'ont pas forcément d'importance.
Si tu écrits une petite application qui manipule quelques méga de mémoire pendant quelques minutes/heures, le ramasse miettes sera amplement suffisant.
Par contre, si ton application stocke quelques giga de données en mémoire, ou encore qu'elle tourne pendant des semaines, là c'est un peu plus risqué de se reposer sur une gestion automatique de la mémoire (ou en tout cas, cela demande plus de réflexion).
Et pour avoir été confronté à quelques reprises à des problèmes de ramasse miettes feignant en Java, je trouve bien plus simple de gérer la mémoire à la main et d'intégrer Valgrind à mes tests que de chercher pourquoi le ramasse miette n'a pas libéré de la mémoire qui aurait pu l'être.
Bien sûr que si, mais ce n'est pas là ou je voulais en venir.
Même si, je le reconnais volontiers, c'est un peu pénible de gérer manuellement la mémoire, je préfère de loin ça au fait de compter sur un ramasse miette dont - loi de Murphy oblige - on découvrira les lacunes le mauvais jour.
Certes, « forensique » est un néologisme/angliscisme poussé par de lointains voisins canadiens [1] ainsi que nos amis suisses [2], mais en attendant, c'est pas le première fois que j'entends ce terme dans des médias ou de la littérature francophone.
Posté par cfx .
En réponse au message Dual boot.
Évalué à 0.
Avec une machine physique relativement récente (avec suffisamment de mémoire vive et un processeur qui possède des instructions de virtualisation), je trouve les machines virtuelles plus confortables que du dual-boot : aucun risque de casser le bootloader, hibernation qui fonctionne toute seule…
J'ai eu l'occasion de bosser avec des D-Link DKVM-4U.
Utilisés sous Debian, XP et W7, rien à leur reprocher, pas de phénomène de déconnexion/reconnexion de clavier/souris.
Essaie de créer un partage à partir du disque système de ton serveur, histoire de voir si le problème ne vient pas du fait que ton disque soit connecté en USB.
Essaie aussi sans le Wifi (en cablé). J'ai moi aussi des débits un peu miteux en Wifi avec ma box SFR.
[^] # Re: Aie, désolé
Posté par cfx . En réponse au message Monter un Galaxy S3. Évalué à 4.
Mon Nexus S, lorsque je le connecte à un PC, il me demande si je veux le faire passer en mode mass storage. Aucun désagrément.
[^] # Re: Presque parfait ?
Posté par cfx . En réponse à la dépêche JellyReader, un lecteur RSS presque parfait . Évalué à 10.
Surtout que l'un des reproches que l'on fait à Feedly, c'est justement l'authentification depuis un compte Google.
# Pourquoi c'est si lourd dans un navigateur ?
Posté par cfx . En réponse au journal Squarez, le retour. Évalué à 7.
Certes, mon PC fixe perso accuse 12 ans (P4 à 2.4GHz), mais je peux encore faire tourner des applis et des jeux 3D bien plus gourmands que ça. Là, ma pauvre machine peine à afficher 64 carrés de couleur. Sous Firefox, le CPU est utilisé à 30% quand il ne se passe rien, 100% quand ça bouge. Sous Chrome, 100% en permanence. Même comportement sur un laptop de 2008 (bon, pas tout jeune quand même). Il faut que je sorte mon quad core du boulot pour espérer voir les animations s'animer (ça consomme tout de même un core à 80%).
À quoi cela est-ce dû ? Qt via emscripten, c'est pas encore ça ?
C'est dommage, car j'apprécie ce genre de casse-tête. En tout cas, félicitation pour avoir un même code C++ qui fonctionne à la fois en natif et dans un navigateur, ça m'impressionne.
# DVD ?
Posté par cfx . En réponse au message Quelle distribution choisir < 650 MO pour un Acer Aspire 1640Z de 2006 ?. Évalué à 2.
T'est sûr qu'il n'y a pas un lecteur de DVD sur ta machine ?
En 2006, avoir juste un lecteur de CD, ça m'étonne (d'autant plus que j'ai quasiment le même Acer que le tien, et il lit les DVD).
[^] # Re: Connexion internet par cable ethernet ?
Posté par cfx . En réponse au message Quelle distribution choisir < 650 MO pour un Acer Aspire 1640Z de 2006 ?. Évalué à 1.
Faut pas exagérer, pour peu qu'il ait au moins 1Go de mémoire vive sur sa machine, une Ubuntu tourne sans trop de soucis.
[^] # Re: ici proxmoxv3
Posté par cfx . En réponse au message Virtualisation sur un parc de serveurs de calcul. Évalué à 1.
Je viens de tester Proxmox. Super simple à installer, il m'a fallu moins d'une heure pour avoir un cluster de 3 nœuds qui fonctionne.
Ma migration à chaud fonctionne parfaitement avec un hôte Linux, pas vraiment avec un hôte Windows (l'hôte ne répond que pendant les 20 secondes qui suivent la fin de la migration).
Par contre, pas de possibilité d'équilibrage de charge/migrations automatiques, ce qui réduit pas mal les possibilités de laisser les utilisateurs créer leurs VM.
Mais ça reste une solution sympa (déjà, elle fonctionne, elle).
[^] # Re: Plus d'infos
Posté par cfx . En réponse au message Virtualisation sur un parc de serveurs de calcul. Évalué à 1.
Ok, j'avais pas bien compris le principe d'OAR.
Quand tu dis qu'un nœud OAR peut être une machine de bureau, ça veux dire que les nœuds peuvent être assez hétérogènes (distri, bibliothèques…). Du coup, comment ça se passe pour la gestion de l'environnement lié à un job, ça se spécifie lors de sa soumission ?
Cependant, je pense qu'OAR ne répond pas à certains de nos besoins : certains collègues développent en C# sous Visual Studio, c'est pas OAR qui va leur permettre d'accéder à une machine disposant de plein de cœurs et/ou de mémoire pour faire tourner leur appli. Ou alors, je n'ai toujours pas compris.
Le problème d'ordonnancement sur un tel système est a priori le même que celui du placement de VM dans un cloud. À la différence qu'OAR peut délayer un job.
[^] # Re: Plus d'infos
Posté par cfx . En réponse au message Virtualisation sur un parc de serveurs de calcul. Évalué à 1.
Je n'ai jamais dis que nous avions besoin d'une solution de calcul distribué, ce qu'il nous faut, c'est en effet de la mutualisation/partage de ressources.
Après, c'est pas tant un problème de quota, mais plus un problème de répartition de charge/optimisation de l'utilisation des ressources. Mais bien sûr, c'est une contrainte que l'on garde à l'esprit.
[^] # Re: Plus d'infos
Posté par cfx . En réponse au message Virtualisation sur un parc de serveurs de calcul. Évalué à 1.
Distcc, je connais. Marche plutôt bien, si ce n'est que le serveur python à tendance à utiliser bien trop de mémoire lors de la compilation de gros projets (bug rapporté il y a presque un an, mais rien n'a bougé depuis).
Parallel, je ne connais pas, je vais jeter un œil. Merci.
Par contre, ça reste des outils assez spécifiques : c'est pas avec ça que je vais pouvoir accélérer des tâches qui ne sont pas des batch. Nous avons au final des besoins assez différents. Permettre à chacun de pouvoir lancer des machines virtuelles facilement nous semble actuellement être la solution qui permet de satisfaire tout le monde (même si, je le reconnais, il y a probablement des solutions plus adaptées à certains besoins).
[^] # Re: Plus d'infos
Posté par cfx . En réponse au message Virtualisation sur un parc de serveurs de calcul. Évalué à 1.
Sauf que nous avons aussi (surtout ?) des gens qui ne travaillent pas sous Linux…
Nous avons nous aussi la possibilité d'accéder à un cluster de calcul, sauf qu'il faut des applis développées pour (qui causent via MPI ou autre). Et moi le premier, j'ai pas toujours envie de passer par là. Surtout que la majorité d'entre nous n'a pas besoin d'une parallélisation aussi poussée.
Il y a aussi que nous avons des tâches qui ne sont pas du calcul scientifique à proprement parler, mais qui requièrent de la mémoire et du CPU. Moi par exemple, je bosse avec des bibliothèques qui prennent une bonne heure à compiler sur mon laptop (ou 4h lorsque je compile les tests qui vont avec), et j'apprécie assez de pouvoir simplement faire un ssh maVM; git clone malib; make -j 24 et avoir juste à patienter 5 min. Et les fournisseurs de temps de calcul, lorsqu'ils peuvent faire tourner ce genre de tâches, vu que ce n'est pas du calcul à proprement parler, ils n'apprécient pas trop.
Ou encore, nous avons des personnes qui ont vraiment besoin de machines virtuelles : certains bossent par exemple sur la répartition des tâches dans un cluster Hadoop, il leur faut donc 8 machines pour avoir quelque-chose qui ressemble à un cluster.
# Suggestion de provider OpenId alternatif et non social ?
Posté par cfx . En réponse au journal Fin de myopenid.com le 1er février. Évalué à 2. Dernière modification le 31 janvier 2014 à 11:15.
Quelqu'un connaitrait un autre provider OpenId qui ne soit pas une saloperie sociale ?
Et accessoirement, ça leur aurait fait mal chez MyOpenId de prévenir les gens qui ont un chez eux ?
# Plus d'infos
Posté par cfx . En réponse au message Virtualisation sur un parc de serveurs de calcul. Évalué à 2.
Histoire d'apporter un peu plus d'infos :
Nous sommes un institut de recherche, les VMs que nous allons faire tourner sont destinées à faire du calcul scientifique : besoin de beaucoup de CPU et/ou de RAM pendant quelques jours/semaines, l'objectif étant de permettre à chacun d'exécuter le plus rapidement possible des tâches gourmandes en CPU, tout en palliant le manque de mémoire de nos machines personnelles. Les CPU seront donc utilisés à 100% en permanence (en tout cas, c'est comme ça depuis plusieurs mois sur notre machine actuelle). Quand à la mémoire, nous avons déjà quelque machines qui en réclament 32Go, donc il n'y aura pas 40 VMs par serveur (10 me parait être un chiffre plus raisonnable).
100 VMs sur 10 serveur, compte tenu du nombre que nous sommes, c'est d'après moi une borne max, et j'imagine assez mal qu'elle puisse être atteinte avant 5 ans. Sur un horizon de 2 ans, j'envisage plus ça comme du 20 VM/3 serveurs. La sauvegarde n'est pas à l'ordre du jour (du moins, pas pour l'instant) : ces machines sont destinées à être utilisée pour du one-shot. Tout ça pour dire que cela ne justifie pas l'embauche de quelqu'un (pour tout plein d'autres raisons, certaines indépendantes de notre volonté, même si cela résoudrait pas mal de problèmes).
Je ne mets pas de coté la solution VSphere (je suis moi même entièrement satisfait de Workstation que j'utilise au quotidien), c'est juste que j'aimerai que l'on évalue les autres solutions avant de choisir celle-là. Surtout que c'est pas la première fois que nos techniciens nous font le coup de « on prend la solution qui nous convient à nous » et que ça se transforme en « comment ça elle ne répond pas à vos besoins ? ».
[^] # Re: Serveur de calcul?
Posté par cfx . En réponse au message Virtualisation sur un parc de serveurs de calcul. Évalué à 1.
Virt-Manager de répond pas à plusieurs contraintes :
- Pas utilisable depuis Windows (enfin si, mais j'ai pas envie d'expliquer à certains utilisateurs comment installer un serveur X et lancer Virt-Manager en SSH).
- Il faudrait un peu de gestion de droits, au minimum pour que chacun ne puisse toucher/accéder qu'à ses machines.
# \newcommand
Posté par cfx . En réponse au message [LaTeX] Créer un style pour des images. Évalué à 2.
J'utilise assez peu
\def
, donc je ne peux pas te dire ce qui ne va pas avec ton code.En revanche, en utilisant
\newcommand
à la place de\def
, il n'y a aucune raison que cela ne fonctionne pas. Quelque-chose du genre :http://en.wikibooks.org/wiki/LaTeX/Macros
[^] # Re: Troll spotted
Posté par cfx . En réponse au journal Quelques langages de programmation pour GNOME. Évalué à 1.
Je suis assez d'accord avec toi : les éventuelles lacunes des ramasse miettes n'ont pas forcément d'importance.
Si tu écrits une petite application qui manipule quelques méga de mémoire pendant quelques minutes/heures, le ramasse miettes sera amplement suffisant.
Par contre, si ton application stocke quelques giga de données en mémoire, ou encore qu'elle tourne pendant des semaines, là c'est un peu plus risqué de se reposer sur une gestion automatique de la mémoire (ou en tout cas, cela demande plus de réflexion).
[^] # Re: Troll spotted
Posté par cfx . En réponse au journal Quelques langages de programmation pour GNOME. Évalué à 2.
En un mot : Valgrind.
Et pour avoir été confronté à quelques reprises à des problèmes de ramasse miettes feignant en Java, je trouve bien plus simple de gérer la mémoire à la main et d'intégrer Valgrind à mes tests que de chercher pourquoi le ramasse miette n'a pas libéré de la mémoire qui aurait pu l'être.
[^] # Re: Troll spotted
Posté par cfx . En réponse au journal Quelques langages de programmation pour GNOME. Évalué à -8.
Bien sûr que si, mais ce n'est pas là ou je voulais en venir.
Même si, je le reconnais volontiers, c'est un peu pénible de gérer manuellement la mémoire, je préfère de loin ça au fait de compter sur un ramasse miette dont - loi de Murphy oblige - on découvrira les lacunes le mauvais jour.
# Troll spotted
Posté par cfx . En réponse au journal Quelques langages de programmation pour GNOME. Évalué à -8.
Lire ça en (presque) 2014, ça me fait un peu de peine…
[^] # Re: Peux tu revoir le wording s'il te plait
Posté par cfx . En réponse au message Analyse forensique de la mémoire. Évalué à 1.
Certes, « forensique » est un néologisme/angliscisme poussé par de lointains voisins canadiens [1] ainsi que nos amis suisses [2], mais en attendant, c'est pas le première fois que j'entends ce terme dans des médias ou de la littérature francophone.
[1] http://www.btb.termiumplus.gc.ca/tpv2guides/guides/juridi/index-fra.html?lang=fra&lettr=indx_catlog_f&page=9cltO5nOCfTI.html
[2] http://www.criminologie.com/article/science-forensique
PS: ce message n'est pas agressif, contrairement à ce qu'il pourrait laisser croire.
# J'préfère les machines virtuelles
Posté par cfx . En réponse au message Dual boot. Évalué à 0.
Avec une machine physique relativement récente (avec suffisamment de mémoire vive et un processeur qui possède des instructions de virtualisation), je trouve les machines virtuelles plus confortables que du dual-boot : aucun risque de casser le bootloader, hibernation qui fonctionne toute seule…
[^] # Re: D-Link DKVM-4U
Posté par cfx . En réponse au message Commutateurs KVM (Keybord-Video-Mouse). Évalué à 2.
Le modèle -4U possède 4 ports (d'ou le 4).
Par contre, fais attention, il n'est livré qu'avec 2 jeux de câbles.
# D-Link DKVM-4U
Posté par cfx . En réponse au message Commutateurs KVM (Keybord-Video-Mouse). Évalué à 2.
J'ai eu l'occasion de bosser avec des D-Link DKVM-4U.
Utilisés sous Debian, XP et W7, rien à leur reprocher, pas de phénomène de déconnexion/reconnexion de clavier/souris.
http://www.ldlc.com/fiche/PB00032218.html
[^] # Re: debian forever
Posté par cfx . En réponse au message problemes de demarage. Évalué à 1.
Oui, tu peux par exemple utiliser Unetbootin pour pouvoir créer une clé usb bootable.
Ou sinon, il te reste toujours la possibilité d'investir dans un cd/dvd-rw (d'autant plus qu'Unetbootin m'a déjà flingué quelques clés usb).
http://unetbootin.sourceforge.net/
# Quelle formation ?
Posté par cfx . En réponse au message Explication d'un Script Shell. Évalué à 2.
Juste par curiosité, dans quelle formation et en quelle année on te demande ce genre d'exercices ?
# USB ? Wifi ?
Posté par cfx . En réponse au message Performance NFS. Évalué à 1.
Essaie de créer un partage à partir du disque système de ton serveur, histoire de voir si le problème ne vient pas du fait que ton disque soit connecté en USB.
Essaie aussi sans le Wifi (en cablé). J'ai moi aussi des débits un peu miteux en Wifi avec ma box SFR.