J'achète mes portables reconditionnés chez Ecodair. Si on croit leur site, c'est socialement responsable.
Recul de un an pour l'instant, ça tient. Et le matos est nickel. Mon seul critère, c'est le poids, la batterie qui tient 3-4h et … c'est tout. Pour tout ce qui est perf, on a les serveurs.
Les décideurs pressés, on les perd dès qu'on dépasse la régression linéaire. Ils demandent souvent à comprendre comment ça marche, au moins dans l'idée, et la difficulté consiste à leur donner une image à peu près correcte dans les noyer dans les maths. Dans les faits, ils décrochent au bout de 2-3 phrases. Ils achètent quelque chose qu'ils ne comprennent pas (comme d'hab ?).
Quand je parle de faiblesse intellectuelle, c'est une boutade.
Quand on ne veut pas comprendre ni expliquer, juste décrire ou reproduire, alors on peut faire appel à l'apprentissage automatique. Si on a assez de données et que les autres approches plus explicites ne marchent pas.
Je m'explique : les modèles ML sont souvent (pas toujours) des boîtes noires. On aura souvent du mal à expliquer pourquoi le modèle a pris telle décision plutôt que telle autre. Certains modèles sont sympathiques et permettent de faire du post-mortem (ex: modèles linéaires économes en paramètre type Lasso), alors que d'autres sont infects (neural nets en tête).
Lors les différents projets que l'équipe que j'encadre a faits, le choix du ML s'impose quand on ne peut pas faire autre chose. Je préfère largement faire des stats classiques (PCA en tête) que devoir se frapper des machins imbittables … souvent imbattables :)
Je complète ou réformule ce que dit jben plus haut : pourquoi vouloir caser du ML (machine learning) sur ce problème ?
Lea différents algorithmes de ML servent à déterminer et calculer les paramètres des modèles qu'on leur injecte. Soit les modéles sont explicites, soient ils sont implicites.
Les modèles explicites sont du type SIR présentés dans ce journal : on injecte de l'intelligence viq le modèle. Soit les modèles sont implicites, via le calcul de critères/indicateurs à partir des données brutes. Dans les deux cas, on applique ensuite une méthode qui va calculer les paramètres adéquats pour faire correspondre entrées et sorties.
Bref. Pas besoin de sortir du ML pour fixer quelques paramètres à partir d'un modèle intelligent, les méthodes usuelles (régression, moindres carrés etc) suffisent. On sort le ML quand on est infoutu de trouver un modèle intelligent. Pour caricature, je dirais qu'avoir recours à du ML c'est, quelque part, faire un aveu de faiblesse intellectuelle.
En effet : possible.
Mais a mes yeux moins probable que l'autre cas. Après,on pourrait en discuter, puisque qu'il est moins probable d'être infecté que de ne pas l'être.
Heureusement que les conversations sont enregistrées et analysées :/
J'ai eu la chance d'apprendre avec Logo - ou la tortue, je ne sais plus. Sur de vieilles machines montées en réseau, avec un clavier et des écrans couleurs. Ça remonte aux années 90, en CM1-2.
Honnêtement, j'avais adoré. Ce serait sympa de pouvoir faire de même avec ma petite, quand elle sera plus grande.
Comme dit au dessus, si, les perfs comptent. Un traitement "temps-reel" n'implique pas les mêmes contraintes que du batch offline.
Ca depend ensuite de ce qu'on veut faire precisement, des évolutions previsibles, de la complexité à priori des traitements etc. Ex: si la taille de la base doit augmenter rapidement, il faut pouvoir faire grossir l'infrastructure sans tout chambouler.
Donc comme d'hab, je dirai : tenter les solutions classiques et éprouvées, genre pas de trucs exotiques à la noSQL, et si ça bloque vraiment, envisager les Hadoop/Spark etc. Ce qui permet aussi de quantifier les besoins humains.
En effet, il y a parfois confusion test/train, ce qui donne des scores de fou … normal.
De deux, je suis pas sur de la qualité du dataset de base. Faudrait voir s'il y a une qcq cohérence entre le contenu et la note. Fitter du bruit, ca doit donner du bruit. Ca manque cruellement de découverte/qualification des données d'entrées, padawan.
# Ecodair
Posté par Thomas (site web personnel) . En réponse au journal Choisir un ordinateur portable en 2020. Évalué à 3.
J'achète mes portables reconditionnés chez Ecodair. Si on croit leur site, c'est socialement responsable.
Recul de un an pour l'instant, ça tient. Et le matos est nickel. Mon seul critère, c'est le poids, la batterie qui tient 3-4h et … c'est tout. Pour tout ce qui est perf, on a les serveurs.
My 2 cents.
# FCul : la conversation scientifique
Posté par Thomas (site web personnel) . En réponse au journal Écouter pour apprendre : rendez passionnant votre confinement !. Évalué à 8.
Pas mal aussi, si on supporte Etienne Klein.
Podcast de Radio France, 1h, hebdomadaire.
# modèle
Posté par Thomas (site web personnel) . En réponse au journal Simulation situation en Italie. Évalué à 6.
Et si tu essayais avec un polynome de degré 5. Ou une exponentielle ?
Le point d'inflexion semble inventé par la sigmoïde.
[^] # Re: Bis repetita ;)
Posté par Thomas (site web personnel) . En réponse au journal Des virus, des hommes, et de la dynamique.. Évalué à 6.
Ah oui.
Les décideurs pressés, on les perd dès qu'on dépasse la régression linéaire. Ils demandent souvent à comprendre comment ça marche, au moins dans l'idée, et la difficulté consiste à leur donner une image à peu près correcte dans les noyer dans les maths. Dans les faits, ils décrochent au bout de 2-3 phrases. Ils achètent quelque chose qu'ils ne comprennent pas (comme d'hab ?).
[^] # Re: Bis repetita ;)
Posté par Thomas (site web personnel) . En réponse au journal Des virus, des hommes, et de la dynamique.. Évalué à 3.
Quand je parle de faiblesse intellectuelle, c'est une boutade.
Quand on ne veut pas comprendre ni expliquer, juste décrire ou reproduire, alors on peut faire appel à l'apprentissage automatique. Si on a assez de données et que les autres approches plus explicites ne marchent pas.
Je m'explique : les modèles ML sont souvent (pas toujours) des boîtes noires. On aura souvent du mal à expliquer pourquoi le modèle a pris telle décision plutôt que telle autre. Certains modèles sont sympathiques et permettent de faire du post-mortem (ex: modèles linéaires économes en paramètre type Lasso), alors que d'autres sont infects (neural nets en tête).
Lors les différents projets que l'équipe que j'encadre a faits, le choix du ML s'impose quand on ne peut pas faire autre chose. Je préfère largement faire des stats classiques (PCA en tête) que devoir se frapper des machins imbittables … souvent imbattables :)
[^] # Re: Bis repetita ;)
Posté par Thomas (site web personnel) . En réponse au journal Des virus, des hommes, et de la dynamique.. Évalué à 1.
Depuis 4-5 ans environ, juste après la bulle des Grosses Données.
[^] # Re: Bis repetita ;)
Posté par Thomas (site web personnel) . En réponse au journal Des virus, des hommes, et de la dynamique.. Évalué à 4. Dernière modification le 05 mars 2020 à 22:00.
Je complète ou réformule ce que dit jben plus haut : pourquoi vouloir caser du ML (machine learning) sur ce problème ?
Lea différents algorithmes de ML servent à déterminer et calculer les paramètres des modèles qu'on leur injecte. Soit les modéles sont explicites, soient ils sont implicites.
Les modèles explicites sont du type SIR présentés dans ce journal : on injecte de l'intelligence viq le modèle. Soit les modèles sont implicites, via le calcul de critères/indicateurs à partir des données brutes. Dans les deux cas, on applique ensuite une méthode qui va calculer les paramètres adéquats pour faire correspondre entrées et sorties.
Bref. Pas besoin de sortir du ML pour fixer quelques paramètres à partir d'un modèle intelligent, les méthodes usuelles (régression, moindres carrés etc) suffisent. On sort le ML quand on est infoutu de trouver un modèle intelligent. Pour caricature, je dirais qu'avoir recours à du ML c'est, quelque part, faire un aveu de faiblesse intellectuelle.
[^] # Re: Mais noooon !!!
Posté par Thomas (site web personnel) . En réponse à la dépêche Mémoires vives ("Permanent record") par Edward Snowden. Évalué à 1.
En effet : possible.
Mais a mes yeux moins probable que l'autre cas. Après,on pourrait en discuter, puisque qu'il est moins probable d'être infecté que de ne pas l'être.
Heureusement que les conversations sont enregistrées et analysées :/
[^] # Re: Satané trou noir !
Posté par Thomas (site web personnel) . En réponse au lien Katie Bouman, la chercheuse à l'origine de l’algorithme qui a permis la photographie d'un trou noir. Évalué à 1.
Exactement.
Il suffit de regarder les papiers, pour s'en convaincre [0]. Et noter, par exemple, que la liste d'auteur est alphabétique.
[0] : https://iopscience.iop.org/article/10.3847/2041-8213/ab0c57
# DLFP, incubateur de qualité ...
Posté par Thomas (site web personnel) . En réponse au journal Vendus aux GAFAM ?. Évalué à 2.
… et d'excellence, toujours.
Je vous remercie, les mollusques et les autres, pour vos commentaires et remarques !
[^] # Re: Le massacre des innocents
Posté par Thomas (site web personnel) . En réponse au journal Vendus aux GAFAM ?. Évalué à 1.
Merci pour le lien.
[^] # Re: Bien déprimant mais tellement vrai.
Posté par Thomas (site web personnel) . En réponse au journal Vendus aux GAFAM ?. Évalué à 3.
J'ai eu la chance d'apprendre avec Logo - ou la tortue, je ne sais plus. Sur de vieilles machines montées en réseau, avec un clavier et des écrans couleurs. Ça remonte aux années 90, en CM1-2.
Honnêtement, j'avais adoré. Ce serait sympa de pouvoir faire de même avec ma petite, quand elle sera plus grande.
# 120 To
Posté par Thomas (site web personnel) . En réponse au message Offre d'emploi : ingénieur de production. Évalué à 1.
C'est assez monstrueux, non ?
C'est principalement composé de quoi, par pure curiosité ? Je doute que ce soit uniquement des bases bien rangées.
# Canard-bots ?
Posté par Thomas (site web personnel) . En réponse à la dépêche LinuxFr.org sera impliqué dans le plan français sur l’intelligence artificielle #FranceIA. Évalué à 5.
DLFP, premier sur les bots de forum, moules auto-apprenantes et autres utilisateurs virtuels dopés aux algos de machine learning !
Un plan machiavélique ourdi de longue date.
Bravo !
(il a un compte Cedric V ?)
# chezmoicamarche.bien
Posté par Thomas (site web personnel) . En réponse au lien #cloudwatt. Évalué à 1.
Aucun souci avec leurs prestations, je m'en sers regulierement. Sur des setup basiques, sans perfs.
Et vous ?
[^] # Re: Une agence pour réguler ou éduquer?
Posté par Thomas (site web personnel) . En réponse au lien “We take your privacy seriously.”. Évalué à 1.
Merci.
Meme question.
Reponse logique de 22h57: les medias l'ont decouvert. Ou autre bizarrerie psychologique typiquement humaine.
Va savoir, Edouard.
# Magique
Posté par Thomas (site web personnel) . En réponse au lien "La plus grosse escroquerie de l’histoire de la Silicon Valley ?". Évalué à 2.
Une forme de talent.
# DSP2
Posté par Thomas (site web personnel) . En réponse au journal Histoire de budget. Évalué à 2.
Ca va surement changer avec la mise en application de la directive DSP2 par les banques (interoperabilité, donnees perso toussa).
Je ne sais pas, par contre, jusqu'ou remontera l'historique.
# Pandas + seaborn + ...
Posté par Thomas (site web personnel) . En réponse au message Analyse de données. Évalué à 0.
Et des maths. Et un mec qui connait le contexte des données sous le coude, ca aide.
Ca se fait bien à la main sous python.
Pas encore trouvé d'outil automagique plus pratique pour l'exploration de données. Ca existe peut-etre, cela dit.
# Ah bon ?
Posté par Thomas (site web personnel) . En réponse au message Cherche Dev Python pour relever un défi industriel. Évalué à 1.
Vous vous essayez au machine learning, maintenant, chez CloudW*tt ?
[^] # Re: Merci
Posté par Thomas (site web personnel) . En réponse à la dépêche Revue de livre : La face cachée d’Internet, de Rayna Stamboliyska. Évalué à 1.
Il y a The Phoenix Project, dans le genre. Très bon.
[^] # Re: Metriques
Posté par Thomas (site web personnel) . En réponse au journal Data Warehouse. Évalué à 3.
Oui.
"Tenter" dans le sens : essayer avec les outils classiques et éprouvés. Passer à autre chose si les perfs bloquent.
J'ai l'impression que les DSI veulent caser du Hadoop partout, par principe. Ce qui est idiot.
[^] # Re: Metriques
Posté par Thomas (site web personnel) . En réponse au journal Data Warehouse. Évalué à -1.
Comme dit au dessus, si, les perfs comptent. Un traitement "temps-reel" n'implique pas les mêmes contraintes que du batch offline.
Ca depend ensuite de ce qu'on veut faire precisement, des évolutions previsibles, de la complexité à priori des traitements etc. Ex: si la taille de la base doit augmenter rapidement, il faut pouvoir faire grossir l'infrastructure sans tout chambouler.
Donc comme d'hab, je dirai : tenter les solutions classiques et éprouvées, genre pas de trucs exotiques à la noSQL, et si ça bloque vraiment, envisager les Hadoop/Spark etc. Ce qui permet aussi de quantifier les besoins humains.
Mes deux centimes
# Metriques
Posté par Thomas (site web personnel) . En réponse au journal Data Warehouse. Évalué à 3.
Quelle quantité de données à stocker ?
Quelles fonctionnalités attendues ?
Quelles perfs ?
Quelle infra ?
# Mouais
Posté par Thomas (site web personnel) . En réponse à la dépêche Prédire la note d’un journal sur LinuxFr.org. Évalué à 4.
Bon, j'ai lu.
Pas jusqu'au bout, pas le temps.
En effet, il y a parfois confusion test/train, ce qui donne des scores de fou … normal.
De deux, je suis pas sur de la qualité du dataset de base. Faudrait voir s'il y a une qcq cohérence entre le contenu et la note. Fitter du bruit, ca doit donner du bruit. Ca manque cruellement de découverte/qualification des données d'entrées, padawan.
Mais bel effort :)
Et SGD != SVM.