Pour le "disque" de 8 Go, je trouve ca plutôt un atout. Pour rien au monde, je voudrais remplacer mon SSD de 4 Go de mon EeePc contre un disque dur de 80 ou 160Go. L'intérêt d'un Netbook est d'être silencieux, peu énergivore et léger, sinon, autant prendre un portable pas cher... et je suppose que l'on trouvera bientôt des microSD de 80 Go (si vraiment toute cette place est nécessaire, mais j'en suis pas convaincu...). Je connais plein de possesseurs de netbook qui l'utilise professionnellement (internet, mail, qques tableaux excel pour les comptes de la journée) et dont les 4 Go sont largement suffisant.
Il faut de tout pour faire un monde, ne prends pas ton exemple pour une généralité. Mon netbook a un disque dur de 120Gb et je ne le remplacerai jamais pas un SSD de 8Gb. Rien que pour me permettre le luxe d'avoir toute ma musicothèque à porté de main ainsi que quelques films vu que je prends souvent le train.
Mon netbook est d'ailleurs devenu mon pc principal (j'ai mis en vente mon laptop 15").
enlève tes oeillères, le monde ne s'arrête pas aux frontières de la France. Il y'a plein de ce genre des "bêtes" qui ne sont disponibles que dans un nombre limité de pays (le japon a plein de mini pc / tablet qui ne sont commercialisés que là-bas).
Et ô miracle, dans ce monde de "mondialisation" dans lequel on vit, tu peux très bien importer ce que tu veux moyennant frais de douane et TVA à payer à l'arrivée.
Nous avons eu de la chance de pouvoir faire une sauvegarde avant le crash total du disque...mais tout le monde n'a pas cette chance
ça n'a rien à voir avec de la chance. On fait des sauvegardes si on tient à ses données, on n'en fait pas si on n'en a rien à faire.
Les gens qui se plaignent d'avoir perdu des données sont parfaitement au courant de ce qu'ils peuvent perdre, c'est la flemme qui les perds, pas le manque de chance.
Je suppose que le bon admin , il faut lui envoyer sa clef publique, et c'est lui qui va la mettre ou il faut pour qu'on puisse s'identifier (comme le font KDE ou FreeBSD par exemple). Ca ne change rien au probleme si tu n'as aucun moyen de verifier que la clef fait partie de l'ensemble corrompu.
Bien sur qu'il faut les vérifier. Mais il n'y a aucune raison que l'outil pour le faire soit fourni et/ou publié par openssh. La faille implique tous les projets utilisant openssl.
Il existe moultes outils de vérification de ces clefs, à l'admin de prendre l'outil qui lui convient (debian fournit des outils, metasploit a des jeux de clefs, etc...). Tout bon admin doit en avoir un dans sa trousse à outil.
ça n'est un problème que si tu es un mauvais admin qui laisse les utilisateurs poser eux-même leurs clefs.
dans ton sshd_config, tu as une option AuthorizedKeysFile qui te permet de définir où sont les clefs des utilisateurs. Tu n'as qu'à la paramétrer pour empêcher un user de mettre sa clef dans son home.
Je crois que le plus simple c'est de ne pas avoir à installer le pilote ext2 pour windows (même si c'est anodin), mais plutôt d'utiliser un protocole comme le MTP.
Je me connectes au ilom via une workstation sous freebsd (et des collègues le font aussi sous linux ou windows).
Par contre en effet nous n'avons probablement pas les mêmes besoin car nous n'avons jamais utilisé la redirection de la console via l'interface web (nous l'utilisons peu en fait). On utilise bêtement la console en ligne de commande via ssh pour cela, c'est bien plus pratique je la démarre dans screen et je peux enregistrer l'historique en cas de besoin.
Quel est l'intérêt d'utiliser cette console depuis l'interface web ?
Notez que cette plaie d'Avocent fournis aussi les chipset des serveurs Sun (ALOM), des HP (pour les iLO), de IBM (pour les RSA-II), etc., qui ont donc eux aussi le même problème. Faudrait que les utilisateurs de firefox ralent un peu pour que les constructeurs exigent un meilleur firmware de ce fournisseur, qui semble s'imaginer que les admins bossent tous avec un java 32 bits sous ie7.
Les ALOM sun n'ont pas de serveur web et sont donc accessible uniquement via telnet et/ou ssh, par contre les ELOM et ILOM ont une interface web qui fonctionne parfaitement avec firefox. Révise tes classiques.
non tu mélanges tout. Un utilisateur fait toujours ce qu'il veut avec sa machine, même si ce n'est pas recommandé. Rien dans les principes de base d'unix n'interdit qu'un utilisateur héberge certaines applis dans son homedir, sinon tous les unix monteraient la partition home en noexec.
Du reste, un spyware ça ne s'installe pas tout seul, et s'il est executé sur ta machine, il pourra de toute façon faire plein de choses sans avoir à modifier ton navigateur. ça n'a juste aucun rapport.
Safari 4, disponible en beta pour Windows et Mac OS X sur le site d'Apple, présente une nouvelle interface : plus de barre de titre, les onglets occupent cet espace. Pas de barre de status par défaut, et l'activer ne vous mangera pas 8 pixel de haut. les boutons sont peu nombreux mais explicite : http://bayimg.com/LAnDeaAbm (capture d'écran).
C'est quoi l'intérêt par rapport à un epiphany ou firefox (ou tout autre navigateur) en full screen ?
cela-dit, je n'ai jamais vu l'intérêt de Vector linux par rapport à une vraie slackware. A l'époque la seule valeur ajoutée qui était communiquée, c'était que les paquets étaient compilés en i686 contre les i486 de la slackware. Etant donné que l'impact est proche de zero en terme de performances sur un pc de bureau, ça ne nous avance pas loin...
Une grande partie des personnes utilise vlc ou mpc. Et les deux peuvent décoder du H264.
Un grand nombre d'entreprise interdisent l'installation de soft tiers sur les bécanes. Et quand je parle de VLC, c'est un plugin intégré au navigateur, beaucoup installe VLC sans cocher l'option d'intégration.
Sans parler du fait que beaucoup ont une version obsolète de VLC, autant dire qu'avant la version 0.9 le support H264 était loin d'être terrible.
Mais cela dis je penses que ca serait une étude intéressante à faire : connaître le nombre de machines capable de lire nativement du H264.
Je veux pas dire si ces entreprises interdisent l'installation de soft tiers, la même chose limite l'usage du flash. Si tu prends un xp fraichement installé et que tu vas sur un site proposant des vidéos via flash, il te demande d'upgrader.
ça revient donc au même (et oui je connais des entreprises qui ne se font pas chier à mettre à jour flash à chaque release).
sauf que l'exemple précedemment cité (vieille machine), n'est pas forcément un windows. On vous donne un exemple général et vous nous sortez l'histoire d'un vieux xp d'un chapeau.
ça peut être une vieille appli sur un vieil unix, sur un os/2, que jais-je.
Je vais faire encore l'avocat du diable (je ne suis pas contre la virtualisation cela-dit, juste le côté miraculeuxçarépondàtousvosbesoins qui est véhiculé) :
- d'effectuer des maintenances matérielles (ajout de RAM, CPU, ...) ou logicielles (upgrade) sur les serveurs de virtualisation de manière transparente: tu évacues les VMs sur les serveurs qui restent pendant que tu effectues la manip sur le serveur physique.
En général tu prévoies de la redondance (ben oui en cas de panne) et tu dois pouvoir être capable d'arrêter une machine sans que ça se voit. Si ce n'est pas le cas, ce n'est pas normal, c'est tout ^_^
- de migrer de manière transparente tes machines d'un datacenter à l'autre si pour une raison X ou Y tu as un problème sur ton site principal
idem, normalement, ton appli, elle est déjà sur le second datacenter, juste au cas où. Et tu as une procédure de basculement. Virtuel ou physique, ça ne change rien.
- d'avoir une consommation électrique réduite, au lieu d'avoir 42000 serveurs qui ne font quasi rien, tu en achètes quelques gros. Cela économise aussi de la place, du câblage, ...
tu peux faire tourner plusieurs applis sur 1 seul serveur et tu n'es pas obligé d'acheter que des bêtes de courses.
- de load-balancer tes VMs sur les différents serveurs.
peut souvent se faire en général aussi au niveau applicatif.
- de déployer extrêmement rapidement un nouveau serveur (surtout quand tu as la possibilité de cloner des VMs ou de faire des templates).
avec des procédures de déploiements correcte, la différence est minime. La où je bosse, ce qui prend du temps ce n'est pas l'installation physique (rackage + cablage) ni celle de l'OS, c'est la configuration (même chose qu'avec des VMs). Le clonage ça marche aussi avec des machines physiques très rapidement.
L'accès à distance est également facilité: tu as tes media d'install sur une baie de disques, que tu montes virtuellement. Tu as accès à la console à distance, pas besoin d'aller en salle serveurs (pratique quand tu merdes et que la dite salle serveurs est à des km).
La virtualisation n'a rien à voir la dedans, les serveurs ont tous une console d'administration à distance.
En général, puisque des serveurs web ont été pris en exemple plus haut, si tes serveurs sont utilisés en temps normal à 52%, c'est qu'en cas de gros traffic, ça peut encore monter encore très rapidement. C'est une marge que tu te donnes et tu ne vas pas t'amuser à l'utiliser avec des serveurs virtuels parce qu'en général, la charge ne prévient pas avant de monter (panique boursière, buzz sur un site comme digg, articles de journeaux à propos de ta société, etc).
Si ton serveur est utilisé à 1%, c'est surtout que tu l'as mal choisis ton hardware.
L'intérêt de la virtualisation, c'est vraiment pour des mini-applis qui sont tellement peu utilisées ou occasionnent tellement peu de charge qu'on pourrait en mettre 100 par machines. Mais la encore la virtualisation n'est pas forcément utile, nos os sont multitâches/multiutilisateurs et savent de mieux en mieux gérer et réserver leurs ressources.
Le seul avantage est effectivement de pouvoir migrer une machine virtuelle d'un hardware physique à un autre. Mais bon la même chose peut toujours se faire au niveau applicatif (tar/untar d'une machine à une autre et zou).
oui et je te dis que le jour où tel éditeur de l'appli proprio x bidule décidera de ne plus utiliser usb mais telle ou telle norme qui sera apparue entre temps, tes directeurs n'auront pas envie de dépenser les dollars en pagaille juste pour que ton serveur de vm soit upgradé sur du nouveau hardware supportant celle-ci.
De plus un connection borker ça marche bien dans des cas très généraux, mais dès que quelqu'un fait un truc de bas très standard mais qui marche en local parce qu'il y'a le driver qui va bien pour brancher tel hardware, ton connection broker sera à la rue.
- chaque utilisateur a sa propre machine, fut-elle virtuelle. Donc, potentiellement, l'OS de son choix.
- il pourra installer, si l'administrateur l'autorise, ce qu'il veut sur son poste.
- sans risquer de mettre ses collègues dans l'embarras (pas plus qu'avec des postes physiques séparés, en tous cas).
En général, les sociétés qui passent par des systèmes de terminal serveurs du genre citrix, c'est parce qu'ils en ont marre des utilisateurs qui cassent tout sur leur poste.
Donc au final on perd cet avantage. La seule chose qui reste c'est la possibilité de revenir à un état initial plus rapidement via un snapshot, mais bon, ça n'empêche pas que si l'utilisateur est un neuneu, ça fera toujours des coups de fils en plus pour rien.
En général (en tout cas ça a été le cas de toutes les entreprises ou je suis allé), les gens qui veulent une machine séparée avec des droits admins, c'est soit :
-des chieurs ou des patrons : dans ce cas la de toute manière la virtualisation ne leur plaira pas plus car ils veulent un truc palpable qui est "à eux seuls".
-des nomades : dans ce cas la ils ont un laptop.
-quelqu'un qui a une appli métier spécifiques demandant beaucoup de ressources : dans ce cas la on leur donne une workstation bien boostée. Le graphiste dont tu parles plus haut ne se satisfiera pas d'une interface avec un potentiel lag par rapport à son input sur la carte graphique et il lui faudra de toute façon un écran 30" qui ne sera pas géré par un thin client.
-quelqu'un qui a une appli proprio chiante dont la protection de la copie se fait via un dongle. Dans ce cas la, même avec la meilleure interface du monde qui gère le usb, c'est une plaie à gérer avec une solution de virtualisation (j'imagine le hub géant avec 15 dongles). Le jour où tu mets en place ton serveur, t'es content ça marche, puis 2-3 ans après vient une norme différente de usb ou autre et un éditeur se met dans la tête que sont dongle utilisera cette norme. Bam ! nouveau cas spécifique et tu ne vas pas changer ton serveur de VM pour 1 utilisateur. Tu lui fournira de toute façon un pc.
En dehors de ça, il ne reste plus beaucoup de cas pratique pour lesquels la virtualisation peut répondre.
Tu peux généraliser et dire que la virtualisation pour les serveurs ne sert aussi à rien.
Beaucoup le disent. On ne les entend pas forcément dans les médias parce que le buzz actuel est de dire que c'est bien.
Personnellement je trouve que la virtualisation c'est bien dans des cas très précis :
-pour des labs de tests
-pour pouvoir se débarasser d'une vieille machine avec un vieil os qui ne serait plus supporté par du hardware moderne parce qu'un besoin légal nous demande de garder telle application et telles données pendant x années et qu'elle nous coûte cher en énergie et qu'elle ne serait plus maintenue en cas de panne hardware
Par contre pour de la prod, bof. A côté de certaines solutions commes les chroot, Jails ou les zones, non j'en vois peu l'intérêt (mais celles-ci sont souvent englobées dans le terme vague de virtualization).
[^] # Re: "tueur de netbook ?"
Posté par Psychofox (Mastodon) . En réponse à la dépêche Touch Book : le tueur de netbook ?. Évalué à 2.
Il faut de tout pour faire un monde, ne prends pas ton exemple pour une généralité. Mon netbook a un disque dur de 120Gb et je ne le remplacerai jamais pas un SSD de 8Gb. Rien que pour me permettre le luxe d'avoir toute ma musicothèque à porté de main ainsi que quelques films vu que je prends souvent le train.
Mon netbook est d'ailleurs devenu mon pc principal (j'ai mis en vente mon laptop 15").
[^] # Re: Concurrent du GDIUM, plutôt
Posté par Psychofox (Mastodon) . En réponse à la dépêche Touch Book : le tueur de netbook ?. Évalué à 0.
Et ô miracle, dans ce monde de "mondialisation" dans lequel on vit, tu peux très bien importer ce que tu veux moyennant frais de douane et TVA à payer à l'arrivée.
[^] # Re: "Tout feedback/idée etc est le bienvenue"
Posté par Psychofox (Mastodon) . En réponse au journal LinuxFr sur iPhone. Évalué à 9.
# sauvegardes
Posté par Psychofox (Mastodon) . En réponse au journal c'est l'histoire d'un mac et CRAC le disque. Évalué à 9.
ça n'a rien à voir avec de la chance. On fait des sauvegardes si on tient à ses données, on n'en fait pas si on n'en a rien à faire.
Les gens qui se plaignent d'avoir perdu des données sont parfaitement au courant de ce qu'ils peuvent perdre, c'est la flemme qui les perds, pas le manque de chance.
[^] # Re: Les entreprises payent ?
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 2.
Bien sur qu'il faut les vérifier. Mais il n'y a aucune raison que l'outil pour le faire soit fourni et/ou publié par openssh. La faille implique tous les projets utilisant openssl.
Il existe moultes outils de vérification de ces clefs, à l'admin de prendre l'outil qui lui convient (debian fournit des outils, metasploit a des jeux de clefs, etc...). Tout bon admin doit en avoir un dans sa trousse à outil.
[^] # Re: Les entreprises payent ?
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 2.
dans ton sshd_config, tu as une option AuthorizedKeysFile qui te permet de définir où sont les clefs des utilisateurs. Tu n'as qu'à la paramétrer pour empêcher un user de mettre sa clef dans son home.
[^] # Re: Temps de démarrage ?
Posté par Psychofox (Mastodon) . En réponse au journal Le meilleur os pour votre eeepc (901/1000). Évalué à 2.
[^] # Re: Les brevets
Posté par Psychofox (Mastodon) . En réponse au journal MS attaque TomTom et Linux (putain de brevets). Évalué à 4.
[^] # Re: Le meilleur os pour votre eeepc
Posté par Psychofox (Mastodon) . En réponse au journal Le meilleur os pour votre eeepc (901/1000). Évalué à 1.
[^] # Re: Atheros ou Ralink ?
Posté par Psychofox (Mastodon) . En réponse au journal Le meilleur os pour votre eeepc (901/1000). Évalué à 2.
http://www.openbsd.org/cgi-bin/man.cgi?query=ral&sektion(...)
[^] # Re: Pourquoi du Dell
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 3.
Je testerais voir cette console graphique juste pour voir comment ça marche avec firefox sur ma machine.
[^] # Re: Pourquoi du Dell
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 2.
Par contre en effet nous n'avons probablement pas les mêmes besoin car nous n'avons jamais utilisé la redirection de la console via l'interface web (nous l'utilisons peu en fait). On utilise bêtement la console en ligne de commande via ssh pour cela, c'est bien plus pratique je la démarre dans screen et je peux enregistrer l'historique en cas de besoin.
Quel est l'intérêt d'utiliser cette console depuis l'interface web ?
[^] # Re: Pourquoi du Dell
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 3.
Les ALOM sun n'ont pas de serveur web et sont donc accessible uniquement via telnet et/ou ssh, par contre les ELOM et ILOM ont une interface web qui fonctionne parfaitement avec firefox. Révise tes classiques.
[^] # Re: Plus impressionnant que Firefox 3.1 aussi
Posté par Psychofox (Mastodon) . En réponse au journal [HS] Safari 4 : plus impressionnant que Google Chrome. Évalué à 1.
Du reste, un spyware ça ne s'installe pas tout seul, et s'il est executé sur ta machine, il pourra de toute façon faire plein de choses sans avoir à modifier ton navigateur. ça n'a juste aucun rapport.
[^] # Re: Plus impressionnant que Firefox 3.1 aussi
Posté par Psychofox (Mastodon) . En réponse au journal [HS] Safari 4 : plus impressionnant que Google Chrome. Évalué à 1.
Le chemin en lui-même n'a aucun intérêt dans la discussion, et l'utilisateur fait ce qu'il veut de sa machine...
# fullscreen
Posté par Psychofox (Mastodon) . En réponse au journal [HS] Safari 4 : plus impressionnant que Google Chrome. Évalué à 1.
C'est quoi l'intérêt par rapport à un epiphany ou firefox (ou tout autre navigateur) en full screen ?
[^] # Re: Vector Linux
Posté par Psychofox (Mastodon) . En réponse au journal VectorLinux 6.0. Évalué à 3.
[^] # Re: Vector Linux
Posté par Psychofox (Mastodon) . En réponse au journal VectorLinux 6.0. Évalué à 0.
[^] # Re: troll
Posté par Psychofox (Mastodon) . En réponse au journal France Télévision : Service Publique privateur de liberté. Évalué à 3.
Un grand nombre d'entreprise interdisent l'installation de soft tiers sur les bécanes. Et quand je parle de VLC, c'est un plugin intégré au navigateur, beaucoup installe VLC sans cocher l'option d'intégration.
Sans parler du fait que beaucoup ont une version obsolète de VLC, autant dire qu'avant la version 0.9 le support H264 était loin d'être terrible.
Mais cela dis je penses que ca serait une étude intéressante à faire : connaître le nombre de machines capable de lire nativement du H264.
Je veux pas dire si ces entreprises interdisent l'installation de soft tiers, la même chose limite l'usage du flash. Si tu prends un xp fraichement installé et que tu vas sur un site proposant des vidéos via flash, il te demande d'upgrader.
ça revient donc au même (et oui je connais des entreprises qui ne se font pas chier à mettre à jour flash à chaque release).
C'est une fausse raison et un faux problème.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 2.
ça peut être une vieille appli sur un vieil unix, sur un os/2, que jais-je.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 1.
- d'effectuer des maintenances matérielles (ajout de RAM, CPU, ...) ou logicielles (upgrade) sur les serveurs de virtualisation de manière transparente: tu évacues les VMs sur les serveurs qui restent pendant que tu effectues la manip sur le serveur physique.
En général tu prévoies de la redondance (ben oui en cas de panne) et tu dois pouvoir être capable d'arrêter une machine sans que ça se voit. Si ce n'est pas le cas, ce n'est pas normal, c'est tout ^_^
- de migrer de manière transparente tes machines d'un datacenter à l'autre si pour une raison X ou Y tu as un problème sur ton site principal
idem, normalement, ton appli, elle est déjà sur le second datacenter, juste au cas où. Et tu as une procédure de basculement. Virtuel ou physique, ça ne change rien.
- d'avoir une consommation électrique réduite, au lieu d'avoir 42000 serveurs qui ne font quasi rien, tu en achètes quelques gros. Cela économise aussi de la place, du câblage, ...
tu peux faire tourner plusieurs applis sur 1 seul serveur et tu n'es pas obligé d'acheter que des bêtes de courses.
- de load-balancer tes VMs sur les différents serveurs.
peut souvent se faire en général aussi au niveau applicatif.
- de déployer extrêmement rapidement un nouveau serveur (surtout quand tu as la possibilité de cloner des VMs ou de faire des templates).
avec des procédures de déploiements correcte, la différence est minime. La où je bosse, ce qui prend du temps ce n'est pas l'installation physique (rackage + cablage) ni celle de l'OS, c'est la configuration (même chose qu'avec des VMs). Le clonage ça marche aussi avec des machines physiques très rapidement.
L'accès à distance est également facilité: tu as tes media d'install sur une baie de disques, que tu montes virtuellement. Tu as accès à la console à distance, pas besoin d'aller en salle serveurs (pratique quand tu merdes et que la dite salle serveurs est à des km).
La virtualisation n'a rien à voir la dedans, les serveurs ont tous une console d'administration à distance.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 0.
Si ton serveur est utilisé à 1%, c'est surtout que tu l'as mal choisis ton hardware.
L'intérêt de la virtualisation, c'est vraiment pour des mini-applis qui sont tellement peu utilisées ou occasionnent tellement peu de charge qu'on pourrait en mettre 100 par machines. Mais la encore la virtualisation n'est pas forcément utile, nos os sont multitâches/multiutilisateurs et savent de mieux en mieux gérer et réserver leurs ressources.
Le seul avantage est effectivement de pouvoir migrer une machine virtuelle d'un hardware physique à un autre. Mais bon la même chose peut toujours se faire au niveau applicatif (tar/untar d'une machine à une autre et zou).
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 0.
De plus un connection borker ça marche bien dans des cas très généraux, mais dès que quelqu'un fait un truc de bas très standard mais qui marche en local parce qu'il y'a le driver qui va bien pour brancher tel hardware, ton connection broker sera à la rue.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 3.
- il pourra installer, si l'administrateur l'autorise, ce qu'il veut sur son poste.
- sans risquer de mettre ses collègues dans l'embarras (pas plus qu'avec des postes physiques séparés, en tous cas).
En général, les sociétés qui passent par des systèmes de terminal serveurs du genre citrix, c'est parce qu'ils en ont marre des utilisateurs qui cassent tout sur leur poste.
Donc au final on perd cet avantage. La seule chose qui reste c'est la possibilité de revenir à un état initial plus rapidement via un snapshot, mais bon, ça n'empêche pas que si l'utilisateur est un neuneu, ça fera toujours des coups de fils en plus pour rien.
En général (en tout cas ça a été le cas de toutes les entreprises ou je suis allé), les gens qui veulent une machine séparée avec des droits admins, c'est soit :
-des chieurs ou des patrons : dans ce cas la de toute manière la virtualisation ne leur plaira pas plus car ils veulent un truc palpable qui est "à eux seuls".
-des nomades : dans ce cas la ils ont un laptop.
-quelqu'un qui a une appli métier spécifiques demandant beaucoup de ressources : dans ce cas la on leur donne une workstation bien boostée. Le graphiste dont tu parles plus haut ne se satisfiera pas d'une interface avec un potentiel lag par rapport à son input sur la carte graphique et il lui faudra de toute façon un écran 30" qui ne sera pas géré par un thin client.
-quelqu'un qui a une appli proprio chiante dont la protection de la copie se fait via un dongle. Dans ce cas la, même avec la meilleure interface du monde qui gère le usb, c'est une plaie à gérer avec une solution de virtualisation (j'imagine le hub géant avec 15 dongles). Le jour où tu mets en place ton serveur, t'es content ça marche, puis 2-3 ans après vient une norme différente de usb ou autre et un éditeur se met dans la tête que sont dongle utilisera cette norme. Bam ! nouveau cas spécifique et tu ne vas pas changer ton serveur de VM pour 1 utilisateur. Tu lui fournira de toute façon un pc.
En dehors de ça, il ne reste plus beaucoup de cas pratique pour lesquels la virtualisation peut répondre.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 4.
Beaucoup le disent. On ne les entend pas forcément dans les médias parce que le buzz actuel est de dire que c'est bien.
Personnellement je trouve que la virtualisation c'est bien dans des cas très précis :
-pour des labs de tests
-pour pouvoir se débarasser d'une vieille machine avec un vieil os qui ne serait plus supporté par du hardware moderne parce qu'un besoin légal nous demande de garder telle application et telles données pendant x années et qu'elle nous coûte cher en énergie et qu'elle ne serait plus maintenue en cas de panne hardware
Par contre pour de la prod, bof. A côté de certaines solutions commes les chroot, Jails ou les zones, non j'en vois peu l'intérêt (mais celles-ci sont souvent englobées dans le terme vague de virtualization).