Merci pour le point sur prévisibilité et rationalité. Je vais te laisser arbitre, j'avoue ne pas avoir assez de background sur l'étymologie pour aller trop loin sur ces pistes.
Ceci dit, comme Lé l'évoque dans ses vidéos sur le machine learning, même dans les systèmes physiques composés de molécules, même si on élimine l'incertitude fondamentale dû à la mécanique quantique, à un moment donné, tu ne peux plus te baser sur la prévisibilité des composants du système car ils sont trop nombreux et les différentes interactions possibles encore plus nombreuses. L'énergie de l'univers ne te permet plus alors de calculer "par simulation" les issues possible. Tu es alors obligé de passer à un niveau d'échelle supérieur où tu te bases sur les comportements émergents pour calculer, comportements qui ne sont alors pas toujours prévisible (cas du comportement chaotique, par exemple).
j'imagine mal un robot s'emporter au poker et faire tapis parce qu'il a perdu le pli d'avant sur un coup de malchance
En fait c'est un point intéressant. Moi je pense qu'une IA pourrait le faire. Peut-être pas dans ce sens avec les modèles actuels, mais des choses irrationnelles peuvent très bien arriver quand on est loin des repères du système (les limites connues dans les systèmes d'apprentissage). Il y a plein de comportements intéressants dans le monde du reinforcement learning (qui par nature explore beaucoup de situation, éventuellement incongrues) comme le demi puma qui marche sur la tête cité dans Deep Reinforcement learning doesn't work yet. Mais des modèles qui incluraient du stress (qui porte à une recherche de solution nouvelles) pourrait bien impliquer des “coup de sang”.
Un point intéressant ceci dit est éventuellement on ne voudra pas de telles IA qui ont des comportements trop irrationnels, voir trop intelligent, car ils ne nous seraient simplement pas utiles. Voir par exemple cet article où l'auteur pense qu'on ne veut pas d'une IA avec qui pourrait avoir des opinions différente des nôtres.
C'est clairement un des paradoxes actuels du deep-learning : les modèles ont parfois plus d'hyper-paramètres que le nombre d'exemples fournis et pourtant ils semblent bien généraliser (mais ont du coup aussi des grosses faiblesses comme l'on montré les attaques adverses récentes, exemple Fooling Image Recognition with Adversarial Examples (youtube)).
Il y a donc pas mal de boulot théorique si on veut bien comprendre et maîtriser le phénomène. Ceci dit on peut penser que les contraintes mises sur le réseau (Batch Normalisation et d'autres contraintes) permettent de se contraindre à nouveau sur un espace de solutions limité (évitant la sur-interprétation).
Il me semble que les gens qui pensent que l’ordinateur est 100% rationnel ont loupé une étape actuelle du développement de l’apprentissage automatique. Je ne dis pas qu’on a déjà prouvé que l’IA est possible, je dis que l’argument de “l’ordinateur ne fait que des choses rationnelles” est complètement nul.
S’il est vrai que les instructions dans la puce se déroulent de façon 100% rationnelle, rien n’empêche que des comportements dit “irrationnels” apparaissent de manière émergent (les équations du chaos apparaissent à partir d’équations très simple comme la Suite logistique.
Les systèmes experts étaient 100% rationnels, les réseaux de neurones ne le sont pas forcément. Il est désormais admis que l’utilisation du hasard a un rôle très important dans les réseaux de deep-learning. Voir par exemple Information Theory of Deep Learning de Naftali Tishby.
Si l’on utilise l’apprentissage automatique c’est bien parce-qu’ils permettent des calculs qui donnent des résultats proches de ce qu’on peut appeler l’intuition (c’est-à-dire des raisonnements basés sur l’induction et non sur la déduction).
Héhé tu aurais dû mettre les liens Wikipédia : Numergy et Cloudwatt. Je pense que pas assez de personnes connaissent ces gabegies, où l’état lâche un max de sous à des entreprises du cac40 ou assimilé, pour à la fin un projet de merde et closed source. à mais non, c’est open source (OpenStack pour les deux) ! Bon mais 500M° d’euros quand même !
Le problème c'est la population : les mecs qui vont sur StackOverFlow c'est des gens qui codent par copier/coller, alors forcément ! Tu aurais du titrer "les mauvais développeurs préfèrent vim à Emacs"
KeepassX (et j'imagine KeepassXC) ont aussi un raccourci qui va diminuer la fenêtre de KeepassX et taper de login / mot de passe dans la fenêtre qui prend alors le focus (menu Entrées:Effectuer un remplissage automatique ou ctrl+V).
Ça évite de passer par le presse papier et c'est configurable (on peut dire la séquence de touches entre login et mot de passe et autour, librement). Quand on ouvre un mot de passe c'est dans "Remplissage automatique" et on peut le configurer par groupe (si on a un groupe des site web par exemple, ou en général c'est <login> TAB <mot de passe>.
J'ai tout de même du mal à le faire fonctionner avec le terminal (genre pour taper le mot de passe sudo).
Je suis d'accord. J'avais su par un mec qui avait bossé chez free au début que free avait appris qu'il valait mieux garder ses clients qu'en gagner / perdre (à un moment il en gagnait plein mais en perdait tout autant…). En général, dans le commerce, c'est une erreur de perdre un client fidèle pour un dont tu ne sauras pas combien de temps il restera.
Perso je suis dans une petite boite et souvent nos recrutement sont assez ouvert. Suivant la personne qu'on trouvera, sont expérience, le potentiel qu'elle a, on peut varier le salaire de 50%.
Dans ce sens une fourchette de salaire est un peu limitative.
Je suis content pour Thunderbird. Je suis un utilisateur actif et je pense que ça reste essentiel comme outil pour beaucoup de monde. Un peu de modernisation fera du bien :-)
Perso je pense que Free a confié la défense de la marque à un cabinet d'avocat qui est payé à la commission.
Je connais des gens qui dans leur gamme de produit avait nommé la gamme gratuite "free"… il se sont fait attaquer par Illiad !
C'est vraiment un comportement de rapace. Si toute les marques avait ce genre d'attitude, bon courage pour réussir à trouver un nom de marque par la suite :-/
Juste pour info, c'est pas si simple que ça la signature de docs en ligne !
Soit tu vise de l'informel (pas de valeur légale, mais sécurité réelle), et je te dirais d'utiliser GPG : le certificat privé est sur le serveur, mais encrypté et l'utilisateur te donne le mot de passe pour signer (que tu ne stocke pas sur le serveur donc).
Soit tu vise de l'inclusion de signature dans des documents PDF et/ou un truc pouvant avoir valeur légale et là tu es obligé d'aller sur Infrastructure à clés publiques de type X.509 et la norme PKCS #7 avec un certificat racine (et là il faut utiliser openssl ou pycrypto pour générer les certifs + libreoffice, par exemple, pour signer le pdf) ou peut être le mieux c'est d'avoir un service externe qui te fait tout ça (qui peut être un brique open source).
Pour aller encore plus loin (mais je doute que ce soit le cas ici), il faut penser aussi qui est le tiers de confiance dans tout ça (qui héberge le serveur pki et de signature), et si un mot de passe suffit (et dans quel contexte), sur quoi s'appuie l'authentification, etc.…
Oui même si malgré tout les entreprises cotés en bourses sont très fragiles aux mauvaises nouvelles et surtout scandales (effet démultiplié et quasi instantané).
Après pour une boite comme Intel qui doit avoir un max de liquidité, je sais pas si ça permet de stabiliser la barque.
Je ne porte pas du tout les banques dans le cœur, et celle là est pas dans le haut du panier…
Mais bon l'interview est intéressant dans le sens de sa conclusion : il s'agit moins de faire des économies que d'aller vers une culture de l'interopérabilité.
Surtout, cette volonté de contribuer est pour moi un élément essentiel. C'est le vrai et meilleur prix à payer pour l'open source.
On va voir si se plan qui semble partir de la DSI va réussir et ne pas rencontrer trop de résistance…
Dans un article sur medium, François Chollet, lui, dit que c'est linéaire (c'est une opinion, pas plus, mais d'un spécialiste du domaine quand même).
Mais en tout cas dans Alpha Zero, même s'il apprend la stratégie tout seul, les règles sont hard-codés. (il me semble qu'on est en plein dans le théorème de "no free lunch": on a un problème très spécifique à régler).
Redhat a réussi ça sur le serveur, mais pour le bureau, le marché semble plus difficile à attaquer et satisfaire…
Parce que les examples de desktop qu'on donne sont surtout des examples ou l'argent ne remonte pas vers les éditeurs.
Je suis d'accord qu'une cause c'est ça, mais ce qui est intéressant c'est que Red Hat aurait pu avoir le même problème sur le serveur, mais a réussit à le contourner par la certification fabricant. (certains n'aiment pas ça d'ailleurs, mais globalement on peut quand même dire que ça a fait avancer le libre, surtout que RedHat a eu une stratégie long terme en étant un gros contributeur du logiciel libre).
Je me demande si une raison n'est pas aussi que le desktop n'est pas un marché qui est "conduit" (driven) par les entreprises mais plutôt par le marché grand public (et dont les entreprises font ensuite usage). Les règles sont assez différentes entre le monde du b2b et du b2c comme on dit. Quand on vend aux entreprises (et administrations) ont peu rafler des gros projets qui permettent d'assurer le financement d'un projet. Dans le b2c il faut investir en amont et attendre une réponse du public qui sera en plus longue à venir et avec des besoins plus hétérogènes et donc un écosystème plus riche qu'il faut réussir à emporter avec soi.
Son journal semble dire que la les moyens ont été mis. Mais il ne faut pas se voiler la face sur les faiblesses du libre et de Linux pour le bureau:
les fabricants ne s'intéressent que peu a la plateforme. D'une part parce qu'elle est minoritaire et, dans une moindre mesure, car aucun commercial / programme de certification ne leur donne un joli logo ou autre. Bref il y a peu d'incentive (motivation par la récompense)
pour pas mal de logiciels, il y a une difficulté de financement / modèle économique, et le mode communautaire, fournit parfois des logiciels peu finis, au moins pour certaines fonctionnalités, ou ne s'adresse pas à des utilisateurs trop peu formés ou à l'aise avec l'informatique. C'est souvent par manque de moyen et quelque fois par manque d'intérêt pour le "marketing" de son produit (en mode communautaire il y a moins d'incentive pour ça que dans le monde commercial)
la pluralité des solutions et de leur composition multiplient les chances d'anomalies
Il me semble que les distributions (éventuellement commerciales) sont celles qui peuvent/doivent répondre à ce défi. Elle peuvent fournir un choix plus restreint mais homogène (je parle dans le cadre d'une certification) et avoir des partenariats avec les constructeurs. Redhat a réussi ça sur le serveur, mais pour le bureau, le marché semble plus difficile à attaquer et satisfaire…
Bien sur les initiatives comme freedesktop sont aussi super importantes, et font parti de la solution.
[^] # Re: L'ordinateur est rationnel, et alors ?
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 2.
Merci pour le point sur prévisibilité et rationalité. Je vais te laisser arbitre, j'avoue ne pas avoir assez de background sur l'étymologie pour aller trop loin sur ces pistes.
Ceci dit, comme Lé l'évoque dans ses vidéos sur le machine learning, même dans les systèmes physiques composés de molécules, même si on élimine l'incertitude fondamentale dû à la mécanique quantique, à un moment donné, tu ne peux plus te baser sur la prévisibilité des composants du système car ils sont trop nombreux et les différentes interactions possibles encore plus nombreuses. L'énergie de l'univers ne te permet plus alors de calculer "par simulation" les issues possible. Tu es alors obligé de passer à un niveau d'échelle supérieur où tu te bases sur les comportements émergents pour calculer, comportements qui ne sont alors pas toujours prévisible (cas du comportement chaotique, par exemple).
En fait c'est un point intéressant. Moi je pense qu'une IA pourrait le faire. Peut-être pas dans ce sens avec les modèles actuels, mais des choses irrationnelles peuvent très bien arriver quand on est loin des repères du système (les limites connues dans les systèmes d'apprentissage). Il y a plein de comportements intéressants dans le monde du reinforcement learning (qui par nature explore beaucoup de situation, éventuellement incongrues) comme le demi puma qui marche sur la tête cité dans Deep Reinforcement learning doesn't work yet. Mais des modèles qui incluraient du stress (qui porte à une recherche de solution nouvelles) pourrait bien impliquer des “coup de sang”.
Un point intéressant ceci dit est éventuellement on ne voudra pas de telles IA qui ont des comportements trop irrationnels, voir trop intelligent, car ils ne nous seraient simplement pas utiles. Voir par exemple cet article où l'auteur pense qu'on ne veut pas d'une IA avec qui pourrait avoir des opinions différente des nôtres.
[^] # Re: L'ordinateur est rationnel, et alors ?
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 3.
Oui je pense que tu soulève un point clairement intéressant (dommage que tu partes d'une note négative sur ton karma).
[^] # Re: Et l'apprentissage automatique?
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 5.
C'est clairement un des paradoxes actuels du deep-learning : les modèles ont parfois plus d'hyper-paramètres que le nombre d'exemples fournis et pourtant ils semblent bien généraliser (mais ont du coup aussi des grosses faiblesses comme l'on montré les attaques adverses récentes, exemple Fooling Image Recognition with Adversarial Examples (youtube)).
Il y a donc pas mal de boulot théorique si on veut bien comprendre et maîtriser le phénomène. Ceci dit on peut penser que les contraintes mises sur le réseau (Batch Normalisation et d'autres contraintes) permettent de se contraindre à nouveau sur un espace de solutions limité (évitant la sur-interprétation).
# L'ordinateur est rationnel, et alors ?
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 8.
Il me semble que les gens qui pensent que l’ordinateur est 100% rationnel ont loupé une étape actuelle du développement de l’apprentissage automatique. Je ne dis pas qu’on a déjà prouvé que l’IA est possible, je dis que l’argument de “l’ordinateur ne fait que des choses rationnelles” est complètement nul.
S’il est vrai que les instructions dans la puce se déroulent de façon 100% rationnelle, rien n’empêche que des comportements dit “irrationnels” apparaissent de manière émergent (les équations du chaos apparaissent à partir d’équations très simple comme la Suite logistique.
Les systèmes experts étaient 100% rationnels, les réseaux de neurones ne le sont pas forcément. Il est désormais admis que l’utilisation du hasard a un rôle très important dans les réseaux de deep-learning. Voir par exemple Information Theory of Deep Learning de Naftali Tishby.
Si l’on utilise l’apprentissage automatique c’est bien parce-qu’ils permettent des calculs qui donnent des résultats proches de ce qu’on peut appeler l’intuition (c’est-à-dire des raisonnements basés sur l’induction et non sur la déduction).
Je ne peux que recommander les vidéos de la chaîne science4all qui a une série dédiée à ce sujet.
[^] # Re: Cloud souverain
Posté par Alex G. . En réponse au journal v'la ce qui se passe quand on est pas cloud ready. Évalué à 4.
Héhé tu aurais dû mettre les liens Wikipédia : Numergy et Cloudwatt. Je pense que pas assez de personnes connaissent ces gabegies, où l’état lâche un max de sous à des entreprises du cac40 ou assimilé, pour à la fin un projet
de merde et closed source. à mais non, c’est open source (OpenStack pour les deux) ! Bon mais 500M° d’euros quand même !Bon y a des github dans les deux cas : github cloudwatt ; github numergy
Bon alors que Orange met en avant l'open source et OpenStack ce n'est pas le cas pour SFR
# Biais de population
Posté par Alex G. . En réponse au journal Le débat est clos. Évalué à 6.
Le problème c'est la population : les mecs qui vont sur StackOverFlow c'est des gens qui codent par copier/coller, alors forcément ! Tu aurais du titrer "les mauvais développeurs préfèrent vim à Emacs"
PS: c'est de l'humour hein !
# Merci !
Posté par Alex G. . En réponse au journal Une nouvelle version de Lutim !. Évalué à 2.
C'est cool de continuer à faire évoluer tranquillement un logiciel utile comme ça. Merci :-)
# Vanilla KeepassX
Posté par Alex G. . En réponse au journal KeePassXC-Browser et gestion des mots de passe. Évalué à 5.
KeepassX (et j'imagine KeepassXC) ont aussi un raccourci qui va diminuer la fenêtre de KeepassX et taper de login / mot de passe dans la fenêtre qui prend alors le focus (menu Entrées:Effectuer un remplissage automatique ou
ctrl+V
).Ça évite de passer par le presse papier et c'est configurable (on peut dire la séquence de touches entre login et mot de passe et autour, librement). Quand on ouvre un mot de passe c'est dans "Remplissage automatique" et on peut le configurer par groupe (si on a un groupe des site web par exemple, ou en général c'est
<login> TAB <mot de passe>
.J'ai tout de même du mal à le faire fonctionner avec le terminal (genre pour taper le mot de passe sudo).
[^] # Re: Ansible
Posté par Alex G. . En réponse au journal Petit point sur les hébergeurs d'emails majeurs. Évalué à 4.
suis le lien, tu comprendras : il fait des scripts Ansible pour installer un serveur de mail en automatique avec les bons paramétrages.
[^] # Re: La libéralisation des marchés des télécommunications
Posté par Alex G. . En réponse au journal Un technicien Free a coupé ma fibre optique pour connecter un voisin.. Évalué à 6.
Je suis d'accord. J'avais su par un mec qui avait bossé chez free au début que free avait appris qu'il valait mieux garder ses clients qu'en gagner / perdre (à un moment il en gagnait plein mais en perdait tout autant…). En général, dans le commerce, c'est une erreur de perdre un client fidèle pour un dont tu ne sauras pas combien de temps il restera.
[^] # Re: Il n'y a jamais la moindre indication de salaire
Posté par Alex G. . En réponse à la dépêche Déjà plus de deux ans depuis le lancement de LinuxJobs.fr, site d’emploi du logiciel libre. Évalué à 5.
Perso je suis dans une petite boite et souvent nos recrutement sont assez ouvert. Suivant la personne qu'on trouvera, sont expérience, le potentiel qu'elle a, on peut varier le salaire de 50%.
Dans ce sens une fourchette de salaire est un peu limitative.
# avec $x
Posté par Alex G. . En réponse au journal Lister rapidement les liens d'une page web. Évalué à 2.
Dans chrome et firefox il y a aussi
$("a")
ou $x("//a") (pour xpath).Si tu cherches à affiner plus la recherche c'est utile (genre avoir tous les liens en 3ème colonne du tableau):
$x(//table//tr/td[3]//a)
# Thunderbird - bonne nouvelle
Posté par Alex G. . En réponse à la dépêche Firefox 58. Évalué à 6.
Je suis content pour Thunderbird. Je suis un utilisateur actif et je pense que ça reste essentiel comme outil pour beaucoup de monde. Un peu de modernisation fera du bien :-)
# Rapaces
Posté par Alex G. . En réponse au journal Free-electrons se fait attaquer en justice par Free, et change de nom. Évalué à 4.
Perso je pense que Free a confié la défense de la marque à un cabinet d'avocat qui est payé à la commission.
Je connais des gens qui dans leur gamme de produit avait nommé la gamme gratuite "free"… il se sont fait attaquer par Illiad !
C'est vraiment un comportement de rapace. Si toute les marques avait ce genre d'attitude, bon courage pour réussir à trouver un nom de marque par la suite :-/
[^] # Re: Signature electronique
Posté par Alex G. . En réponse à la dépêche Tracim, socle libre du travail en équipe, sort en v1.0. Évalué à 2.
Juste pour info, c'est pas si simple que ça la signature de docs en ligne !
Soit tu vise de l'informel (pas de valeur légale, mais sécurité réelle), et je te dirais d'utiliser GPG : le certificat privé est sur le serveur, mais encrypté et l'utilisateur te donne le mot de passe pour signer (que tu ne stocke pas sur le serveur donc).
Soit tu vise de l'inclusion de signature dans des documents PDF et/ou un truc pouvant avoir valeur légale et là tu es obligé d'aller sur Infrastructure à clés publiques de type X.509 et la norme PKCS #7 avec un certificat racine (et là il faut utiliser openssl ou pycrypto pour générer les certifs + libreoffice, par exemple, pour signer le pdf) ou peut être le mieux c'est d'avoir un service externe qui te fait tout ça (qui peut être un brique open source).
Pour aller encore plus loin (mais je doute que ce soit le cas ici), il faut penser aussi qui est le tiers de confiance dans tout ça (qui héberge le serveur pki et de signature), et si un mot de passe suffit (et dans quel contexte), sur quoi s'appuie l'authentification, etc.…
liens (peut-être) utiles en vrac :
[^] # Re: La fin d’Intel
Posté par Alex G. . En réponse à la dépêche Deux failles critiques : Meltdown et Spectre. Évalué à 3.
Oui même si malgré tout les entreprises cotés en bourses sont très fragiles aux mauvaises nouvelles et surtout scandales (effet démultiplié et quasi instantané).
Après pour une boite comme Intel qui doit avoir un max de liquidité, je sais pas si ça permet de stabiliser la barque.
En tout cas il y aussi des nouvelles concurrence dans le monde des CPU, les ARM bien sur, mais aussi les GPU et les processeurs spécialisés AI (le TPU de google par exemple, ou graphcore qui a levé des millions de $).
Ça remplace pas le CPU classique mais ça répartit le marché (on met moins dans le CPU et plus sur le reste)
# Pas mal la société Générale…
Posté par Alex G. . En réponse à la dépêche Revue de presse de l’April pour la semaine 50 de l’année 2017. Évalué à 4.
Je ne porte pas du tout les banques dans le cœur, et celle là est pas dans le haut du panier…
Mais bon l'interview est intéressant dans le sens de sa conclusion : il s'agit moins de faire des économies que d'aller vers une culture de l'interopérabilité.
Surtout, cette volonté de contribuer est pour moi un élément essentiel. C'est le vrai et meilleur prix à payer pour l'open source.
On va voir si se plan qui semble partir de la DSI va réussir et ne pas rencontrer trop de résistance…
# authentic
Posté par Alex G. . En réponse au journal Glewlwyd, Serveur d'authentification OAuth2. Évalué à 2.
Il y a aussi le projet https://dev.entrouvert.org//projects/authentic
Je ne l'ai jamais utilisé mais ça semblait assez complet. C'est fait par une boite française.
[^] # Re: On va tous mourir ... (voix de Homer Simpson)
Posté par Alex G. . En réponse au journal Les échecs en échec. Évalué à 2.
Le lien vers pyro te donne des explications, tu as aussi https://twiecki.github.io/blog/2016/06/01/bayesian-deep-learning/ qui explique.
[^] # Re: On va tous mourir ... (voix de Homer Simpson)
Posté par Alex G. . En réponse au journal Les échecs en échec. Évalué à 2.
Dans un article sur medium, François Chollet, lui, dit que c'est linéaire (c'est une opinion, pas plus, mais d'un spécialiste du domaine quand même).
Mais en tout cas dans Alpha Zero, même s'il apprend la stratégie tout seul, les règles sont hard-codés. (il me semble qu'on est en plein dans le théorème de "no free lunch": on a un problème très spécifique à régler).
Ce qui n'empêche que , cet algorithme a sûrement plein d'applications à découvrir. Comme l'apprentissage par renforcement a fait un retour fulgurant grâce à l'apprentissage profond en 2015 (voir Human-level control through Deep Reinforcement Learning et les travaux de OpenAI), les algos bayésiens reviennent sur le devant de la scène et semblent "motorisés" par l'apprentissage profond.
Il y a l'air d'y avoir un foisonnement avec de nouvelles librairies dans ce sens comme pyro ou pomegranata.
[^] # Re: Le noeud du problème
Posté par Alex G. . En réponse au journal Retour d'expérience d'une petite administration sous linux depuis 8 ans qui fait marche arrière. Évalué à 4.
Je suis d'accord qu'une cause c'est ça, mais ce qui est intéressant c'est que Red Hat aurait pu avoir le même problème sur le serveur, mais a réussit à le contourner par la certification fabricant. (certains n'aiment pas ça d'ailleurs, mais globalement on peut quand même dire que ça a fait avancer le libre, surtout que RedHat a eu une stratégie long terme en étant un gros contributeur du logiciel libre).
Je me demande si une raison n'est pas aussi que le desktop n'est pas un marché qui est "conduit" (driven) par les entreprises mais plutôt par le marché grand public (et dont les entreprises font ensuite usage). Les règles sont assez différentes entre le monde du b2b et du b2c comme on dit. Quand on vend aux entreprises (et administrations) ont peu rafler des gros projets qui permettent d'assurer le financement d'un projet. Dans le b2c il faut investir en amont et attendre une réponse du public qui sera en plus longue à venir et avec des besoins plus hétérogènes et donc un écosystème plus riche qu'il faut réussir à emporter avec soi.
[^] # Re: Le noeud du problème
Posté par Alex G. . En réponse au journal Retour d'expérience d'une petite administration sous linux depuis 8 ans qui fait marche arrière. Évalué à 4. Dernière modification le 30 novembre 2017 à 15:50.
Son journal semble dire que la les moyens ont été mis. Mais il ne faut pas se voiler la face sur les faiblesses du libre et de Linux pour le bureau:
Il me semble que les distributions (éventuellement commerciales) sont celles qui peuvent/doivent répondre à ce défi. Elle peuvent fournir un choix plus restreint mais homogène (je parle dans le cadre d'une certification) et avoir des partenariats avec les constructeurs. Redhat a réussi ça sur le serveur, mais pour le bureau, le marché semble plus difficile à attaquer et satisfaire…
Bien sur les initiatives comme freedesktop sont aussi super importantes, et font parti de la solution.
[^] # Re: Détail du système + cout
Posté par Alex G. . En réponse au journal Retour d'expérience d'une petite administration sous linux depuis 8 ans qui fait marche arrière. Évalué à 5.
voilà c'est fait : https://bugzilla.gnome.org/show_bug.cgi?id=790991
[^] # Re: Détail du système + cout
Posté par Alex G. . En réponse au journal Retour d'expérience d'une petite administration sous linux depuis 8 ans qui fait marche arrière. Évalué à 2.
Si tu veux tester (ça m'intéresse) met un des deux écrans dans une version inférieure (genre 1920x1080 sur l'un, 1360x768 sur l'autre).
[^] # Re: Détail du système + cout
Posté par Alex G. . En réponse au journal Retour d'expérience d'une petite administration sous linux depuis 8 ans qui fait marche arrière. Évalué à 2.
ubuntu 17.10
gnome -> 3.22+5ubuntu2
libgtk-3-0 -> 3.2.2-3
libgtk2.0-0 --> 2.24.31-2ubuntu1
Mais clairement il faut que je fasse un rapport de bug…