Non, car en gros, pour apprendre deux fois plus de choses, il faut deux fois plus de temps (et de données). Un apprentissage se fait a détriment de l'autre.
Pour une machine peut-être mais pas pour un être humain.
En fait il se trouve que pour un machine aussi ! C'est un sujet de recherche très actif qu'on appelle le transfert learning, et on le fait par exemple en apprenant à traduire en même temps qu'on apprends à classifier des textes (en gros on réutilise une partie du modèle (du réseau de neurone) dans les deux tâches, en s'entraînant alternativement entre l'une et l'autre). L'avantage est de mieux apprendre et généraliser des propriétés de bases des données réelles (on se situe souvent au niveau de ce qu'on appelle automatic feature extraction, ou extraction automatique des caractéristiques, ce qui, selon certains (dont Andrew Ng), a fait la force du deep learning − c'est une des propriétés des auto-encoders par exemple).
Perso je vois pas l'apport de ce qui est dit par rapport à un moteur de recherche. Aujourd'hui les moteurs de recherche te permettent de chercher des vidéos. Pourquoi avoir besoin de plus ? C'est comme ça que fonctionne le reste d'internet ! C'est la situation de monopole de youtube qui fait que les gens passent par son moteur de recherche pour chercher une vidéo, mais ce n'est pas normal.
La compatibilité ActivityPub et la notion d'abonnement permettrons ensuite de suivre les créateurs comme c'est le cas sur youtube.
Perso la vidéo de compatibilité Mastodont pour commenté m'a fait tripper ! (un objet, des commentaires agrégés de différents canaux)
Le problème ici c'est que l'on interroge un philosophe, donc un académique, qui ne semble pas non plus avoir un argument très à jour contre l'IA. J'ai moi même retourné ce genre de critique à un article sur lequel je suis tombé sur Academia il y a peu.
J'ai fait mon retour à cet article en mode amical, car personnellement je ne me sens ni supporter ni détracteur de l'intelligence artificielle générale. (D'ailleurs pour moi cet article avait un bon point : le risque que l'IA redéfinisse à la baisse ce qu'est l'intelligence humaine, la réduisant dans ses composantes, qui sont multiples). Il y a clairement plein d'exagération du coté des supporter de Intelligence Artificielle Générale (un optimisme forcené, des arguments très très extrapolés), bizarrement lié à une belle bulle spéculative. Donc personnellement je voudrais surtout que le débat soit de qualité.
Merci pour le point sur prévisibilité et rationalité. Je vais te laisser arbitre, j'avoue ne pas avoir assez de background sur l'étymologie pour aller trop loin sur ces pistes.
Ceci dit, comme Lé l'évoque dans ses vidéos sur le machine learning, même dans les systèmes physiques composés de molécules, même si on élimine l'incertitude fondamentale dû à la mécanique quantique, à un moment donné, tu ne peux plus te baser sur la prévisibilité des composants du système car ils sont trop nombreux et les différentes interactions possibles encore plus nombreuses. L'énergie de l'univers ne te permet plus alors de calculer "par simulation" les issues possible. Tu es alors obligé de passer à un niveau d'échelle supérieur où tu te bases sur les comportements émergents pour calculer, comportements qui ne sont alors pas toujours prévisible (cas du comportement chaotique, par exemple).
j'imagine mal un robot s'emporter au poker et faire tapis parce qu'il a perdu le pli d'avant sur un coup de malchance
En fait c'est un point intéressant. Moi je pense qu'une IA pourrait le faire. Peut-être pas dans ce sens avec les modèles actuels, mais des choses irrationnelles peuvent très bien arriver quand on est loin des repères du système (les limites connues dans les systèmes d'apprentissage). Il y a plein de comportements intéressants dans le monde du reinforcement learning (qui par nature explore beaucoup de situation, éventuellement incongrues) comme le demi puma qui marche sur la tête cité dans Deep Reinforcement learning doesn't work yet. Mais des modèles qui incluraient du stress (qui porte à une recherche de solution nouvelles) pourrait bien impliquer des “coup de sang”.
Un point intéressant ceci dit est éventuellement on ne voudra pas de telles IA qui ont des comportements trop irrationnels, voir trop intelligent, car ils ne nous seraient simplement pas utiles. Voir par exemple cet article où l'auteur pense qu'on ne veut pas d'une IA avec qui pourrait avoir des opinions différente des nôtres.
C'est clairement un des paradoxes actuels du deep-learning : les modèles ont parfois plus d'hyper-paramètres que le nombre d'exemples fournis et pourtant ils semblent bien généraliser (mais ont du coup aussi des grosses faiblesses comme l'on montré les attaques adverses récentes, exemple Fooling Image Recognition with Adversarial Examples (youtube)).
Il y a donc pas mal de boulot théorique si on veut bien comprendre et maîtriser le phénomène. Ceci dit on peut penser que les contraintes mises sur le réseau (Batch Normalisation et d'autres contraintes) permettent de se contraindre à nouveau sur un espace de solutions limité (évitant la sur-interprétation).
Il me semble que les gens qui pensent que l’ordinateur est 100% rationnel ont loupé une étape actuelle du développement de l’apprentissage automatique. Je ne dis pas qu’on a déjà prouvé que l’IA est possible, je dis que l’argument de “l’ordinateur ne fait que des choses rationnelles” est complètement nul.
S’il est vrai que les instructions dans la puce se déroulent de façon 100% rationnelle, rien n’empêche que des comportements dit “irrationnels” apparaissent de manière émergent (les équations du chaos apparaissent à partir d’équations très simple comme la Suite logistique.
Les systèmes experts étaient 100% rationnels, les réseaux de neurones ne le sont pas forcément. Il est désormais admis que l’utilisation du hasard a un rôle très important dans les réseaux de deep-learning. Voir par exemple Information Theory of Deep Learning de Naftali Tishby.
Si l’on utilise l’apprentissage automatique c’est bien parce-qu’ils permettent des calculs qui donnent des résultats proches de ce qu’on peut appeler l’intuition (c’est-à-dire des raisonnements basés sur l’induction et non sur la déduction).
Héhé tu aurais dû mettre les liens Wikipédia : Numergy et Cloudwatt. Je pense que pas assez de personnes connaissent ces gabegies, où l’état lâche un max de sous à des entreprises du cac40 ou assimilé, pour à la fin un projet de merde et closed source. à mais non, c’est open source (OpenStack pour les deux) ! Bon mais 500M° d’euros quand même !
Le problème c'est la population : les mecs qui vont sur StackOverFlow c'est des gens qui codent par copier/coller, alors forcément ! Tu aurais du titrer "les mauvais développeurs préfèrent vim à Emacs"
KeepassX (et j'imagine KeepassXC) ont aussi un raccourci qui va diminuer la fenêtre de KeepassX et taper de login / mot de passe dans la fenêtre qui prend alors le focus (menu Entrées:Effectuer un remplissage automatique ou ctrl+V).
Ça évite de passer par le presse papier et c'est configurable (on peut dire la séquence de touches entre login et mot de passe et autour, librement). Quand on ouvre un mot de passe c'est dans "Remplissage automatique" et on peut le configurer par groupe (si on a un groupe des site web par exemple, ou en général c'est <login> TAB <mot de passe>.
J'ai tout de même du mal à le faire fonctionner avec le terminal (genre pour taper le mot de passe sudo).
Je suis d'accord. J'avais su par un mec qui avait bossé chez free au début que free avait appris qu'il valait mieux garder ses clients qu'en gagner / perdre (à un moment il en gagnait plein mais en perdait tout autant…). En général, dans le commerce, c'est une erreur de perdre un client fidèle pour un dont tu ne sauras pas combien de temps il restera.
Perso je suis dans une petite boite et souvent nos recrutement sont assez ouvert. Suivant la personne qu'on trouvera, sont expérience, le potentiel qu'elle a, on peut varier le salaire de 50%.
Dans ce sens une fourchette de salaire est un peu limitative.
Je suis content pour Thunderbird. Je suis un utilisateur actif et je pense que ça reste essentiel comme outil pour beaucoup de monde. Un peu de modernisation fera du bien :-)
Perso je pense que Free a confié la défense de la marque à un cabinet d'avocat qui est payé à la commission.
Je connais des gens qui dans leur gamme de produit avait nommé la gamme gratuite "free"… il se sont fait attaquer par Illiad !
C'est vraiment un comportement de rapace. Si toute les marques avait ce genre d'attitude, bon courage pour réussir à trouver un nom de marque par la suite :-/
Juste pour info, c'est pas si simple que ça la signature de docs en ligne !
Soit tu vise de l'informel (pas de valeur légale, mais sécurité réelle), et je te dirais d'utiliser GPG : le certificat privé est sur le serveur, mais encrypté et l'utilisateur te donne le mot de passe pour signer (que tu ne stocke pas sur le serveur donc).
Soit tu vise de l'inclusion de signature dans des documents PDF et/ou un truc pouvant avoir valeur légale et là tu es obligé d'aller sur Infrastructure à clés publiques de type X.509 et la norme PKCS #7 avec un certificat racine (et là il faut utiliser openssl ou pycrypto pour générer les certifs + libreoffice, par exemple, pour signer le pdf) ou peut être le mieux c'est d'avoir un service externe qui te fait tout ça (qui peut être un brique open source).
Pour aller encore plus loin (mais je doute que ce soit le cas ici), il faut penser aussi qui est le tiers de confiance dans tout ça (qui héberge le serveur pki et de signature), et si un mot de passe suffit (et dans quel contexte), sur quoi s'appuie l'authentification, etc.…
Oui même si malgré tout les entreprises cotés en bourses sont très fragiles aux mauvaises nouvelles et surtout scandales (effet démultiplié et quasi instantané).
Après pour une boite comme Intel qui doit avoir un max de liquidité, je sais pas si ça permet de stabiliser la barque.
Je ne porte pas du tout les banques dans le cœur, et celle là est pas dans le haut du panier…
Mais bon l'interview est intéressant dans le sens de sa conclusion : il s'agit moins de faire des économies que d'aller vers une culture de l'interopérabilité.
Surtout, cette volonté de contribuer est pour moi un élément essentiel. C'est le vrai et meilleur prix à payer pour l'open source.
On va voir si se plan qui semble partir de la DSI va réussir et ne pas rencontrer trop de résistance…
Dans un article sur medium, François Chollet, lui, dit que c'est linéaire (c'est une opinion, pas plus, mais d'un spécialiste du domaine quand même).
Mais en tout cas dans Alpha Zero, même s'il apprend la stratégie tout seul, les règles sont hard-codés. (il me semble qu'on est en plein dans le théorème de "no free lunch": on a un problème très spécifique à régler).
Redhat a réussi ça sur le serveur, mais pour le bureau, le marché semble plus difficile à attaquer et satisfaire…
Parce que les examples de desktop qu'on donne sont surtout des examples ou l'argent ne remonte pas vers les éditeurs.
Je suis d'accord qu'une cause c'est ça, mais ce qui est intéressant c'est que Red Hat aurait pu avoir le même problème sur le serveur, mais a réussit à le contourner par la certification fabricant. (certains n'aiment pas ça d'ailleurs, mais globalement on peut quand même dire que ça a fait avancer le libre, surtout que RedHat a eu une stratégie long terme en étant un gros contributeur du logiciel libre).
Je me demande si une raison n'est pas aussi que le desktop n'est pas un marché qui est "conduit" (driven) par les entreprises mais plutôt par le marché grand public (et dont les entreprises font ensuite usage). Les règles sont assez différentes entre le monde du b2b et du b2c comme on dit. Quand on vend aux entreprises (et administrations) ont peu rafler des gros projets qui permettent d'assurer le financement d'un projet. Dans le b2c il faut investir en amont et attendre une réponse du public qui sera en plus longue à venir et avec des besoins plus hétérogènes et donc un écosystème plus riche qu'il faut réussir à emporter avec soi.
Son journal semble dire que la les moyens ont été mis. Mais il ne faut pas se voiler la face sur les faiblesses du libre et de Linux pour le bureau:
les fabricants ne s'intéressent que peu a la plateforme. D'une part parce qu'elle est minoritaire et, dans une moindre mesure, car aucun commercial / programme de certification ne leur donne un joli logo ou autre. Bref il y a peu d'incentive (motivation par la récompense)
pour pas mal de logiciels, il y a une difficulté de financement / modèle économique, et le mode communautaire, fournit parfois des logiciels peu finis, au moins pour certaines fonctionnalités, ou ne s'adresse pas à des utilisateurs trop peu formés ou à l'aise avec l'informatique. C'est souvent par manque de moyen et quelque fois par manque d'intérêt pour le "marketing" de son produit (en mode communautaire il y a moins d'incentive pour ça que dans le monde commercial)
la pluralité des solutions et de leur composition multiplient les chances d'anomalies
Il me semble que les distributions (éventuellement commerciales) sont celles qui peuvent/doivent répondre à ce défi. Elle peuvent fournir un choix plus restreint mais homogène (je parle dans le cadre d'une certification) et avoir des partenariats avec les constructeurs. Redhat a réussi ça sur le serveur, mais pour le bureau, le marché semble plus difficile à attaquer et satisfaire…
Bien sur les initiatives comme freedesktop sont aussi super importantes, et font parti de la solution.
[^] # Re: Bêtise naturelle
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 4.
En fait il se trouve que pour un machine aussi ! C'est un sujet de recherche très actif qu'on appelle le transfert learning, et on le fait par exemple en apprenant à traduire en même temps qu'on apprends à classifier des textes (en gros on réutilise une partie du modèle (du réseau de neurone) dans les deux tâches, en s'entraînant alternativement entre l'une et l'autre). L'avantage est de mieux apprendre et généraliser des propriétés de bases des données réelles (on se situe souvent au niveau de ce qu'on appelle automatic feature extraction, ou extraction automatique des caractéristiques, ce qui, selon certains (dont Andrew Ng), a fait la force du deep learning − c'est une des propriétés des auto-encoders par exemple).
[^] # Re: Intéressant sur la technique, mais...
Posté par Alex G. . En réponse à la dépêche PeerTube, une plate‐forme Web de vidéos fédérée utilisant le P2P. Évalué à 5.
Perso je vois pas l'apport de ce qui est dit par rapport à un moteur de recherche. Aujourd'hui les moteurs de recherche te permettent de chercher des vidéos. Pourquoi avoir besoin de plus ? C'est comme ça que fonctionne le reste d'internet ! C'est la situation de monopole de youtube qui fait que les gens passent par son moteur de recherche pour chercher une vidéo, mais ce n'est pas normal.
La compatibilité ActivityPub et la notion d'abonnement permettrons ensuite de suivre les créateurs comme c'est le cas sur youtube.
Perso la vidéo de compatibilité Mastodont pour commenté m'a fait tripper ! (un objet, des commentaires agrégés de différents canaux)
[^] # Re: mauvais
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 3.
Le problème ici c'est que l'on interroge un philosophe, donc un académique, qui ne semble pas non plus avoir un argument très à jour contre l'IA. J'ai moi même retourné ce genre de critique à un article sur lequel je suis tombé sur Academia il y a peu.
J'ai fait mon retour à cet article en mode amical, car personnellement je ne me sens ni supporter ni détracteur de l'intelligence artificielle générale. (D'ailleurs pour moi cet article avait un bon point : le risque que l'IA redéfinisse à la baisse ce qu'est l'intelligence humaine, la réduisant dans ses composantes, qui sont multiples). Il y a clairement plein d'exagération du coté des supporter de Intelligence Artificielle Générale (un optimisme forcené, des arguments très très extrapolés), bizarrement lié à une belle bulle spéculative. Donc personnellement je voudrais surtout que le débat soit de qualité.
[^] # Re: L'ordinateur est rationnel, et alors ?
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 2.
Merci pour le point sur prévisibilité et rationalité. Je vais te laisser arbitre, j'avoue ne pas avoir assez de background sur l'étymologie pour aller trop loin sur ces pistes.
Ceci dit, comme Lé l'évoque dans ses vidéos sur le machine learning, même dans les systèmes physiques composés de molécules, même si on élimine l'incertitude fondamentale dû à la mécanique quantique, à un moment donné, tu ne peux plus te baser sur la prévisibilité des composants du système car ils sont trop nombreux et les différentes interactions possibles encore plus nombreuses. L'énergie de l'univers ne te permet plus alors de calculer "par simulation" les issues possible. Tu es alors obligé de passer à un niveau d'échelle supérieur où tu te bases sur les comportements émergents pour calculer, comportements qui ne sont alors pas toujours prévisible (cas du comportement chaotique, par exemple).
En fait c'est un point intéressant. Moi je pense qu'une IA pourrait le faire. Peut-être pas dans ce sens avec les modèles actuels, mais des choses irrationnelles peuvent très bien arriver quand on est loin des repères du système (les limites connues dans les systèmes d'apprentissage). Il y a plein de comportements intéressants dans le monde du reinforcement learning (qui par nature explore beaucoup de situation, éventuellement incongrues) comme le demi puma qui marche sur la tête cité dans Deep Reinforcement learning doesn't work yet. Mais des modèles qui incluraient du stress (qui porte à une recherche de solution nouvelles) pourrait bien impliquer des “coup de sang”.
Un point intéressant ceci dit est éventuellement on ne voudra pas de telles IA qui ont des comportements trop irrationnels, voir trop intelligent, car ils ne nous seraient simplement pas utiles. Voir par exemple cet article où l'auteur pense qu'on ne veut pas d'une IA avec qui pourrait avoir des opinions différente des nôtres.
[^] # Re: L'ordinateur est rationnel, et alors ?
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 3.
Oui je pense que tu soulève un point clairement intéressant (dommage que tu partes d'une note négative sur ton karma).
[^] # Re: Et l'apprentissage automatique?
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 5.
C'est clairement un des paradoxes actuels du deep-learning : les modèles ont parfois plus d'hyper-paramètres que le nombre d'exemples fournis et pourtant ils semblent bien généraliser (mais ont du coup aussi des grosses faiblesses comme l'on montré les attaques adverses récentes, exemple Fooling Image Recognition with Adversarial Examples (youtube)).
Il y a donc pas mal de boulot théorique si on veut bien comprendre et maîtriser le phénomène. Ceci dit on peut penser que les contraintes mises sur le réseau (Batch Normalisation et d'autres contraintes) permettent de se contraindre à nouveau sur un espace de solutions limité (évitant la sur-interprétation).
# L'ordinateur est rationnel, et alors ?
Posté par Alex G. . En réponse au journal "Intelligence artificielle", vraiment?. Évalué à 8.
Il me semble que les gens qui pensent que l’ordinateur est 100% rationnel ont loupé une étape actuelle du développement de l’apprentissage automatique. Je ne dis pas qu’on a déjà prouvé que l’IA est possible, je dis que l’argument de “l’ordinateur ne fait que des choses rationnelles” est complètement nul.
S’il est vrai que les instructions dans la puce se déroulent de façon 100% rationnelle, rien n’empêche que des comportements dit “irrationnels” apparaissent de manière émergent (les équations du chaos apparaissent à partir d’équations très simple comme la Suite logistique.
Les systèmes experts étaient 100% rationnels, les réseaux de neurones ne le sont pas forcément. Il est désormais admis que l’utilisation du hasard a un rôle très important dans les réseaux de deep-learning. Voir par exemple Information Theory of Deep Learning de Naftali Tishby.
Si l’on utilise l’apprentissage automatique c’est bien parce-qu’ils permettent des calculs qui donnent des résultats proches de ce qu’on peut appeler l’intuition (c’est-à-dire des raisonnements basés sur l’induction et non sur la déduction).
Je ne peux que recommander les vidéos de la chaîne science4all qui a une série dédiée à ce sujet.
[^] # Re: Cloud souverain
Posté par Alex G. . En réponse au journal v'la ce qui se passe quand on est pas cloud ready. Évalué à 4.
Héhé tu aurais dû mettre les liens Wikipédia : Numergy et Cloudwatt. Je pense que pas assez de personnes connaissent ces gabegies, où l’état lâche un max de sous à des entreprises du cac40 ou assimilé, pour à la fin un projet
de merde et closed source. à mais non, c’est open source (OpenStack pour les deux) ! Bon mais 500M° d’euros quand même !Bon y a des github dans les deux cas : github cloudwatt ; github numergy
Bon alors que Orange met en avant l'open source et OpenStack ce n'est pas le cas pour SFR
# Biais de population
Posté par Alex G. . En réponse au journal Le débat est clos. Évalué à 6.
Le problème c'est la population : les mecs qui vont sur StackOverFlow c'est des gens qui codent par copier/coller, alors forcément ! Tu aurais du titrer "les mauvais développeurs préfèrent vim à Emacs"
PS: c'est de l'humour hein !
# Merci !
Posté par Alex G. . En réponse au journal Une nouvelle version de Lutim !. Évalué à 2.
C'est cool de continuer à faire évoluer tranquillement un logiciel utile comme ça. Merci :-)
# Vanilla KeepassX
Posté par Alex G. . En réponse au journal KeePassXC-Browser et gestion des mots de passe. Évalué à 5.
KeepassX (et j'imagine KeepassXC) ont aussi un raccourci qui va diminuer la fenêtre de KeepassX et taper de login / mot de passe dans la fenêtre qui prend alors le focus (menu Entrées:Effectuer un remplissage automatique ou
ctrl+V
).Ça évite de passer par le presse papier et c'est configurable (on peut dire la séquence de touches entre login et mot de passe et autour, librement). Quand on ouvre un mot de passe c'est dans "Remplissage automatique" et on peut le configurer par groupe (si on a un groupe des site web par exemple, ou en général c'est
<login> TAB <mot de passe>
.J'ai tout de même du mal à le faire fonctionner avec le terminal (genre pour taper le mot de passe sudo).
[^] # Re: Ansible
Posté par Alex G. . En réponse au journal Petit point sur les hébergeurs d'emails majeurs. Évalué à 4.
suis le lien, tu comprendras : il fait des scripts Ansible pour installer un serveur de mail en automatique avec les bons paramétrages.
[^] # Re: La libéralisation des marchés des télécommunications
Posté par Alex G. . En réponse au journal Un technicien Free a coupé ma fibre optique pour connecter un voisin.. Évalué à 6.
Je suis d'accord. J'avais su par un mec qui avait bossé chez free au début que free avait appris qu'il valait mieux garder ses clients qu'en gagner / perdre (à un moment il en gagnait plein mais en perdait tout autant…). En général, dans le commerce, c'est une erreur de perdre un client fidèle pour un dont tu ne sauras pas combien de temps il restera.
[^] # Re: Il n'y a jamais la moindre indication de salaire
Posté par Alex G. . En réponse à la dépêche Déjà plus de deux ans depuis le lancement de LinuxJobs.fr, site d’emploi du logiciel libre. Évalué à 5.
Perso je suis dans une petite boite et souvent nos recrutement sont assez ouvert. Suivant la personne qu'on trouvera, sont expérience, le potentiel qu'elle a, on peut varier le salaire de 50%.
Dans ce sens une fourchette de salaire est un peu limitative.
# avec $x
Posté par Alex G. . En réponse au journal Lister rapidement les liens d'une page web. Évalué à 2.
Dans chrome et firefox il y a aussi
$("a")
ou $x("//a") (pour xpath).Si tu cherches à affiner plus la recherche c'est utile (genre avoir tous les liens en 3ème colonne du tableau):
$x(//table//tr/td[3]//a)
# Thunderbird - bonne nouvelle
Posté par Alex G. . En réponse à la dépêche Firefox 58. Évalué à 6.
Je suis content pour Thunderbird. Je suis un utilisateur actif et je pense que ça reste essentiel comme outil pour beaucoup de monde. Un peu de modernisation fera du bien :-)
# Rapaces
Posté par Alex G. . En réponse au journal Free-electrons se fait attaquer en justice par Free, et change de nom. Évalué à 4.
Perso je pense que Free a confié la défense de la marque à un cabinet d'avocat qui est payé à la commission.
Je connais des gens qui dans leur gamme de produit avait nommé la gamme gratuite "free"… il se sont fait attaquer par Illiad !
C'est vraiment un comportement de rapace. Si toute les marques avait ce genre d'attitude, bon courage pour réussir à trouver un nom de marque par la suite :-/
[^] # Re: Signature electronique
Posté par Alex G. . En réponse à la dépêche Tracim, socle libre du travail en équipe, sort en v1.0. Évalué à 2.
Juste pour info, c'est pas si simple que ça la signature de docs en ligne !
Soit tu vise de l'informel (pas de valeur légale, mais sécurité réelle), et je te dirais d'utiliser GPG : le certificat privé est sur le serveur, mais encrypté et l'utilisateur te donne le mot de passe pour signer (que tu ne stocke pas sur le serveur donc).
Soit tu vise de l'inclusion de signature dans des documents PDF et/ou un truc pouvant avoir valeur légale et là tu es obligé d'aller sur Infrastructure à clés publiques de type X.509 et la norme PKCS #7 avec un certificat racine (et là il faut utiliser openssl ou pycrypto pour générer les certifs + libreoffice, par exemple, pour signer le pdf) ou peut être le mieux c'est d'avoir un service externe qui te fait tout ça (qui peut être un brique open source).
Pour aller encore plus loin (mais je doute que ce soit le cas ici), il faut penser aussi qui est le tiers de confiance dans tout ça (qui héberge le serveur pki et de signature), et si un mot de passe suffit (et dans quel contexte), sur quoi s'appuie l'authentification, etc.…
liens (peut-être) utiles en vrac :
[^] # Re: La fin d’Intel
Posté par Alex G. . En réponse à la dépêche Deux failles critiques : Meltdown et Spectre. Évalué à 3.
Oui même si malgré tout les entreprises cotés en bourses sont très fragiles aux mauvaises nouvelles et surtout scandales (effet démultiplié et quasi instantané).
Après pour une boite comme Intel qui doit avoir un max de liquidité, je sais pas si ça permet de stabiliser la barque.
En tout cas il y aussi des nouvelles concurrence dans le monde des CPU, les ARM bien sur, mais aussi les GPU et les processeurs spécialisés AI (le TPU de google par exemple, ou graphcore qui a levé des millions de $).
Ça remplace pas le CPU classique mais ça répartit le marché (on met moins dans le CPU et plus sur le reste)
# Pas mal la société Générale…
Posté par Alex G. . En réponse à la dépêche Revue de presse de l’April pour la semaine 50 de l’année 2017. Évalué à 4.
Je ne porte pas du tout les banques dans le cœur, et celle là est pas dans le haut du panier…
Mais bon l'interview est intéressant dans le sens de sa conclusion : il s'agit moins de faire des économies que d'aller vers une culture de l'interopérabilité.
Surtout, cette volonté de contribuer est pour moi un élément essentiel. C'est le vrai et meilleur prix à payer pour l'open source.
On va voir si se plan qui semble partir de la DSI va réussir et ne pas rencontrer trop de résistance…
# authentic
Posté par Alex G. . En réponse au journal Glewlwyd, Serveur d'authentification OAuth2. Évalué à 2.
Il y a aussi le projet https://dev.entrouvert.org//projects/authentic
Je ne l'ai jamais utilisé mais ça semblait assez complet. C'est fait par une boite française.
[^] # Re: On va tous mourir ... (voix de Homer Simpson)
Posté par Alex G. . En réponse au journal Les échecs en échec. Évalué à 2.
Le lien vers pyro te donne des explications, tu as aussi https://twiecki.github.io/blog/2016/06/01/bayesian-deep-learning/ qui explique.
[^] # Re: On va tous mourir ... (voix de Homer Simpson)
Posté par Alex G. . En réponse au journal Les échecs en échec. Évalué à 2.
Dans un article sur medium, François Chollet, lui, dit que c'est linéaire (c'est une opinion, pas plus, mais d'un spécialiste du domaine quand même).
Mais en tout cas dans Alpha Zero, même s'il apprend la stratégie tout seul, les règles sont hard-codés. (il me semble qu'on est en plein dans le théorème de "no free lunch": on a un problème très spécifique à régler).
Ce qui n'empêche que , cet algorithme a sûrement plein d'applications à découvrir. Comme l'apprentissage par renforcement a fait un retour fulgurant grâce à l'apprentissage profond en 2015 (voir Human-level control through Deep Reinforcement Learning et les travaux de OpenAI), les algos bayésiens reviennent sur le devant de la scène et semblent "motorisés" par l'apprentissage profond.
Il y a l'air d'y avoir un foisonnement avec de nouvelles librairies dans ce sens comme pyro ou pomegranata.
[^] # Re: Le noeud du problème
Posté par Alex G. . En réponse au journal Retour d'expérience d'une petite administration sous linux depuis 8 ans qui fait marche arrière. Évalué à 4.
Je suis d'accord qu'une cause c'est ça, mais ce qui est intéressant c'est que Red Hat aurait pu avoir le même problème sur le serveur, mais a réussit à le contourner par la certification fabricant. (certains n'aiment pas ça d'ailleurs, mais globalement on peut quand même dire que ça a fait avancer le libre, surtout que RedHat a eu une stratégie long terme en étant un gros contributeur du logiciel libre).
Je me demande si une raison n'est pas aussi que le desktop n'est pas un marché qui est "conduit" (driven) par les entreprises mais plutôt par le marché grand public (et dont les entreprises font ensuite usage). Les règles sont assez différentes entre le monde du b2b et du b2c comme on dit. Quand on vend aux entreprises (et administrations) ont peu rafler des gros projets qui permettent d'assurer le financement d'un projet. Dans le b2c il faut investir en amont et attendre une réponse du public qui sera en plus longue à venir et avec des besoins plus hétérogènes et donc un écosystème plus riche qu'il faut réussir à emporter avec soi.
[^] # Re: Le noeud du problème
Posté par Alex G. . En réponse au journal Retour d'expérience d'une petite administration sous linux depuis 8 ans qui fait marche arrière. Évalué à 4. Dernière modification le 30 novembre 2017 à 15:50.
Son journal semble dire que la les moyens ont été mis. Mais il ne faut pas se voiler la face sur les faiblesses du libre et de Linux pour le bureau:
Il me semble que les distributions (éventuellement commerciales) sont celles qui peuvent/doivent répondre à ce défi. Elle peuvent fournir un choix plus restreint mais homogène (je parle dans le cadre d'une certification) et avoir des partenariats avec les constructeurs. Redhat a réussi ça sur le serveur, mais pour le bureau, le marché semble plus difficile à attaquer et satisfaire…
Bien sur les initiatives comme freedesktop sont aussi super importantes, et font parti de la solution.