Il y aurait un moyen en tant qu'entreprise d'être dans les petits papiers de la formation pour que des étudiants (non alternants) nous contactent lors de leur recherche de stage ? (je sais, c'est en avril 2026, mais battons le fer pendant qu'il est chaud)
Je mettrai bien mon grain de sel sur la partie sécurité/souverraineté/simplicité.
Déjà via le Cloud Act qui est un très bon (gros) point d'entrée dans le sujet : l'expression "les données gérées par un datacenter" me semble trop approximative, il faudrait plutôt parler des "données gérées par un opérateur" car la question est de savoir 1/ à qui appartiennent les équipements qui manipulent lesdites données et 2/ qui les contrôle.
Cas hostile : tu met des données dans des équipements situés en France mais appartenant à un cloud américain et géré par lui; le Cloud Act leur permet de siphonner ce qu'ils veulent quand ils veulent. De toute façon tu consommes du "cloud (IaaS)" et il n'y a aucun espoir que tu crées le moindre rideau de confidentialité, puisque le cloud gère toutes les clés de chiffrage pour toi. Si tu les gères manuellement ça ne change rien, à un moment il faut qu'une clé de chiffrage existe en clair (même brièvement, même en RAM) sur le(s) serveur(s) concernés. J'appellerai ça le modèle "à poil sur Internet".
Cas intermédiaire : tu met des données dans des équipements situés en France appartenant à un opérateur français. Cet opérateur peut techniquement aspirer tes données (cf. paragraphe précédent), mais légalement non. On en revient donc à une relation de confiance traditionnelle (avec l'opérateur, avec la loi de son pays, avec la façon dont son application est contrôlée, etc). Et bien sûr on est toujours sujet à l'écoute légale, qui est un mécanisme considéré acceptable quand il est bien contenu (limité à la justice, doit passer par un juge pour approbation, etc). En France actuellement on peut tout à fait être insatisfait de ce niveau de confidentialité : par ex. si on héberge un blog écolo on peut tout à fait se faire "écouter" par la cellule anti-terroriste.
Cas prudent : tu mets des données dans des équipements situés en France, qui t'appartiennent et que tu gères. En théorie tu n'est donc sujet qu'à l'interception légale, soit au niveau de ton peering, soit éventuellement directement sur tes équipements mais dans ce cas tu recevras une demande de la PJ ou de la DGSE (tu seras donc bien informé, et tu ne pourras pas refuser). Et il reste aussi l'accès physique : même si tu loues une "suite privée" dans un datacenter, tous les techniciens du datacenter peuvent y accéder. Tu ne peux pas formellement assurer que tu es le seul à pouvoir accéder physiquement à tes équipements, c'est pas interdit d'être parano en monitorant ce qui se plugge sur les switches, bloquer tous les ports serveurs eth/usb non utilisés, etc.
Evidemment tout ceci est à analyser au prisme d'un modèle de menace : si tu héberges une boutique qui vend des pots de miel, tout ce qui a été cité t'importe très peu. Au pire tu crains une attaque de concurrents, qui n'useront probablement pas d'attaque physique (le remote via les failles des apps web + ingénierie sociale restant hélas très efficaces).
Quant à l'avantage de la virtualisation, OK pour ceux cités, mais …
En premier lieu quand tu passes à la virtu toi-même (par ex. tu installes Proxmox), tu dois acquérir une compétence en plus. Et elle n'est souvent pas mince, les outils de virtu (avec tout ce qu'ils tirent : Xen/KVM, H-A, Ceph/NFS/etc) peuvent venir à un gros update de bagage technique. Evidemment ça peut rapporter gros sur la partie opérationnelle si les besoins de nouveaux "serveurs" sont fréquents : si ces derniers sont virtuels, on élimine une grosse friction. Mais j'ai vu des cas où ces besoins étaient quasi nuls, et il était tout à fait raisonnable de ne pas envisager de passer aux VMs.
En second lieu quand tu délègues la virtu, tu :
* change de business model : au lieu d'acheter du matériel et l'amortir, tu passes sur du récurrent; l'impact peut être important car un bon matériel peut s'amortir sans problème sur 5 à 10 ans (autant dire qu'à +2 ans ton "compute" est quasi-gratuit vu du modèle du cloud)
* renonce à plein de garanties de sécurité et de confidentialité (cf. le barratin plus haut)
* dépend du support du cloud : ce que tu savais réparer en 30min va peut être se transformer en ticket fleuve d'1 semaine (dans mon expérience hélas récurrente, retirez le "peut être")
* en général la dispo des VMs du cloud est meilleure que ce tu faisais par toi-même (si ce n'était pas ton métier), mais le cloud ça plante quand même; du coup les problèmes de H-A se posent toujours et ne sont pas magiquement résolus (sauf réplication en continu de VM à la VMware, jamais testé, mais à chaque fois qu'on m'a proposé ça coûtait 3 bras et 5 fesses)
* c'est peut être un avis plus perso, mais les "clouds" ont parfois une complexité et charge cognitive bien supérieur à ton petit cluster Xen/KVM; si tu es un profil technique ça peut devenir contre-productif et démotivant de te battre contre des usines à gaz relativement abstraites
Dans ce cas, la surface d'attaque augmente grandement
Si je ne m'abuse, elle est déjà la même dès qu'un mot de passe est accessible. Cette simple fenêtre ouverte empêche Passbolt de garantir quoi que ce soit sur la traçabilité des mots de passe : un mot de passe accédé est potentiellement un mot de passe fuité. Pour boucher ce trou il faudrait de l'OTP à tous les niveaux (sauf au sommet sa passphrase personnelle).
Si Passbolt garde en cache localement les mots de passe récupérés, mais bien entendu chiffrés au repos (chiffrage symétrique assuré par la même passphrase que l'accès au coffre fort), je ne vois pas la différence en terme de surface d'attaque. C'est ce que fait Bitwarden/Vaultwarden. Leur CLI va jusqu'à télécharger tous les mdp dès le 1er appel, même si on ne le demande pas. C'est très efficient et comme effet de bord ça limite beaucoup les communications avec le serveur de clés.
Je pense même que c'est une amélioration, tout ce qui vise à automatiquement stocker au repos une version chiffrée d'un secret évite qu'un dév/admin invente un contournement qui revient à se tirer un gros missile dans le pied. Tout comme globalement un Passbolt permet de largement lutter contre les post-its sous le clavier, mdp envoyés en clair par mail/chat/etc…
Dans mon cas Bitwarden (enfin https://github.com/doy/rbw car le cli officiel est une m* sans nom) me permet de trivialement remplacer un PASS=ohmygoddontlook dans des scripts par un PASS=$(rbw get secret-for-service-bla) sans 1/ complexifier et ralentir les scripts, 2/ péter en mode offline/confiné (CI sécurisées, etc), 3/ sans disruption : si l'agent n'est pas déverouillé il demande la passphrase à l'admin et le script attend tranquillement que ce soit fait avant de continuer normalement. C'est win-win-win à tous les étages.
De façon générale l'ergonomie est presque toujours un gain stratégique en sécurité effective. L'humain, le contexte, tout ça …
On peut tout à fait faire des interfaces temps réel avec du très vieux matos.
Ah mais je suis à fond d'accord. C'est pour ça que j'en veux un max aux concepteurs/réalisateurs qui ont à leur dispo des monstres multi-GHz multi-cores GPU-tralala.
Attention, la bande passante et la latence ne sont pas la même chose… J'ai eu une ADSL des familles à 512kbps mais j'avais "30ms de ping". Ca permet de créer des interactions temps réel dont parle l'auteur de l'article (comme jouer à Quake & co).
Pour moi il est indubitable que le "web est mou", quand les dévs sont très satisfaits d'avoir 20 à 50ms de calcul pour pondre une page HTML alors qu'avec la puissance des processeurs actuels on devrait limite rougir de mettre plus de 1 ms. Je ne parle même pas de la tuerie JS qui rend n'importe quelle ordiphone d'il y a 3 ans assimilable à un vieux bousin asthmatique.
Au fait notre perception de l'instantanéité est plutôt de 20 ms pour le visuel et 5 ms pour le sonore. Je pense que 100ms ça manque d'ambition. On est quand même partie de 0ms pour pas mal d'applis analogiques (le potar, le changement de chaîne instantané - soupir -, etc), je vois pas pourquoi on devrait se satisfaire de 100ms et appeler ça un progrès…
Si vous voulez un bon benchmark, cliquez sur https://lichess.org/ - voilà ce qu'on peut obtenir en s'appliquant (ils ont gagné sur les 2 tableaux : latence pour le 1er afficahge et temps de chargement pour la page complète). Et c'est une page riche en infos.
PS: je désactive le "speculative loading" sur mon brouteur, j'ai mes raisons, je pense que je vois tout plus "mou" que vous.
Quand on en a un mais qu'on veut pas de ce tamagotchi sur soi ?
Parce que c'est vachement moins fiable et écolo qu'un bête billet papier (coût Co2 de la feuille papier mon cul, on parle du bilan Co2 de la fabrication des smartphones et des besoins des datacenters sans lesquels ils ne sont rien, même amortis sur plusieurs années ?)
Parce que l'infrastructure distribuée serveurs+terminaux pour les billets électroniques est en fait vachement plus compliquée et hétérogène que celle centralisée (mainframe + terminal et imprimante à chaque guichet) et que maintenant chacun en supporte une partie du coût et de la maintenance sans qu'on lui ait demandé son avis ?
Le péché originel c'est l'abandon du ticket par les guichets (et le site en ligne qui te les envoyait par la poste), alors que le système installé avec du matos déjà amorti coûtait probablement qu'une misérable fraction des frais de fonctionnement de la SNCF … C'est pas comme si ça faisait 50 ans que le problème d'édition de billets était pas réglé.
Vous avez vu les contrôleurs avec leur barda terminal/imprimante/CB/Cibi/cuisine ? Mais LoL, avant leur équipement se réduisait à une poinçonneuse inoxidable dans la poche et un carnet de contraventions. C'est vraiment un progrès ? Je pose la question. Je n'ai en particulier vu aucune info sur l'impact sur les fraudes (ce qui serait une très bonne excuse pour justifier le billet numérique).
Oui, au moins 10 ans avec cette faille béante. Et en 2015 la SNCF qui se plaint toujours de 300M€ de fraude par an. Ben oui, si t'as pas les sous pour payer le train, t'as rarement aussi les moyens pour produire un faux billet, ça alors. Donc la technologie du billet n'a quasi pas d'incidence sur le taux de fraude. Ca alors. La faille est en train de se colmater via les portails qui bloquent les quais, mais ça n'a rien à voir avec la techno du billet (d'ailleurs ces portails scannent joyeusement des billets papier/carton).
J'avoue avoir la malsaine envie qu'un petit glitch informatique rende caduque au moins 24h tout leur bordel à QR-code pour qu'ils mangent leurs doigts. Mais je sais qu'ils en déduiront qu'il faut juste plus de technologie, soupir.
Désolé pour la réponse à chaud et un peu énervée, mais je pense qu'il faudrait vraiment à commencer à penser l'option "sans smartphone", qui est une petite chose à la fois si utile et si futile.
Et mettre du numérique là où c'est utile et avec la dose suffisante pour que ça le reste.
Ca marche dans les 2 sens. Je considère que Pronote est une catastrophe aussi pour les élèves (et je sais que je suis dans une frange minoritaire).
Ici au collège en début d'année on nous assure que le cahier de texte sera toujours bien utilisé et rempli, et que Pronote c'est juste "en plus" et "bien pratique pour les absents qui peuvent rattraper" (oui on me ressort toujours cet unique argument fallacieux).
En pratique ça ne rate pas: le fin de cours à l'arrache (là je jette pas la pierre… Je serai prof je pense que j'aurai le même programme de timing/orga), mais comme il y a la béquille Pronote et bien le prof et l'élève ne prennent plus le temps de transmettre le devoir. Des deux côtés : soit le prof lutte (cri pour couvrir le bruit des chaises, grosse écriture rouge au tableau, barrage de son corps devant la porte, etc :)) mais l'élève se dit "bah je chopperai les consignes sur pronote" et néglige son cahier de texte, soit le prof ne lutte pas et dit aux élèves "bah je vous le mettrai sur pronote" (le dernier cas se généralise clairement ici).
Résultat : mes enfants sont devenus stressés du pronote et m'ont demandé tous les soirs de vérifier sur pronote s'il n'y aurait pas un devoir qu'il n'auraient pas noté ou mal noté sur leur cahier de texte.
Oui parce que comme chaque année on a une campagne sur les méfaits des écrans puis une autre sur les méfaits des réseaux sociaux : du coup mes gamins n'ont pas accès à Internet la semaine, ils n'ont pas de smartphone au collège (oui ils vont bien, merci), ben ils doivent solliciter leur père ou leur mère qui mesure bien leur dépendance à ce fil à la patte numérique.
Cerise sur le gâteau : quelques rares coup de pute de profs qui ont mis des devoirs uniquement sur pronote sans prévenir les élèves (désolé, je pense que ça mérite ce niveau de grossièreté). Ca n'arrive que 2 ou 3 fois par an, mais ça ruine tout : l'élève n'a plus aucune confiance dans la transmission avec le prof et son cahier de texte, et pronote devient 1/ la voix de son maître, 2/ la possibilité qu'un devoir apparaisse comme ça par surprise la veille pour le lendemain. Je trouve ça à la fois violent et inconséquent, et l'effet est TRES palpable, mes gamins craignent tout le temps que ce sale coup leur tombe dessus. Un peu comme si on voulait les habituer à ce que plus tard au boulot ce soit normal d'avoir un boss désorganisé qui t'envoie un SMS la veille au soir pour faire un rapport complet le lendemain matin (pure dystopie, ça n'existe pas hein) … Je psychote à peine, c'est quand même l'école, bordel, c'est pas neutre la façon dont l'école fonctionne.
Je précise que cet ENT/Pronote finit l'année avec environ 100 messages par gamin. Si recevoir 100 notifs par gamin par année scolaire c'est pas du délire, je ne sais pas ce que c'est. Le plus rigolo c'est qu'en même temps 1/ on est passé à 2 conseils par an au lieu de 3, 2/ les inscriptions sont toujours des piles de papier où on re-remplit toujours les mêmes infos qui seront inéluctablement resaisies avec un bon pourcentage de typos. Si on lève un peu le nez du guidon, ça n'a ni queue ni tête.
Je pense que les personnes qui vivent mal les sollicitations de toute part sont des personnes qui n'ont pas appris à les gérer,
Je pense qu'il ne faut pas penser que sollicitations "temps réel". N'importe quelle service qui empile des messages et dont on découvre la pile sans fin régulièrement peut créer une charge mentale importante.
Aujourd'hui même la vie numérique la plus sobre vous expose à recevoir des messages en quantité rapidement importante, et à mon avis déraisonnable :
* le commerce en ligne qui vous donne des nouvelles de votre colis toutes les 2h
* le moindre service qui se dématérialise pour "les factures" (électricité, gaz, etc) et qui en fait vous génère par défaut plein de mails non sollicités "pour votre bien/infos" (sollicitations qui n'auraient jamais existé en "papier")
* votre banque
* l'ENT des enfants
* et une masse de choses qu'on vous impose
Au boulot je gère une centaine de notifications par jour. Ca fait partie du boulot et de sa méthodologie, c'est OK.
Mais à la maison je suis de plus en plus "notiphobe" et je suis TRES prudent sur mes inscriptions, je décoche toutes les options marketing, je prends soin de me désabonner des trucs qu'on ma imposé etc.
Mais je me sens pourtant agressé tous les soirs, au point que même les messages de mes proches me rebutent, c'est désespérant. Il y a aussi l'effet de "plus on en a plus on s'en sert", donc je vois les messages texte/vocaux/mails (ordi, smarphone) se superposer.
Donc je comprends qu'il peut être utile de renverser la charge et de dire en fait "non c'est pas normal d'être exposé à plus d'une poignée de notifications par jour, voire zéro" et d'arrêter de dire "en fait il gère pas bien ses notifs, il a qu'a mettre en silencieux"…
Je sais aussi qu'on n'est pas beaucoup à être mal à l'aise avec un téléphone dans la poche et ce sentiment de devoir décrocher ou répondre à tout instant parce qu'on est joignable. Je me suis d'ailleurs déjà vu reprocher de pas répondre à toute heure de la journée par des proches, je dois prendre sur moi car ils se vexent si je leur explique que je veux juste avoir le droit d'être déconnecté. Cette pression est forte et je suis sûr qu'on est pas mal à ne pas bien la vivre, en s'en rendant plus ou moins compte.
Je vais faire mon papy-8bit, mais il y en a qui réalisent qu'on peut conduire un véhicule sans avoir un smartphone et un abo data ?
Accessoirement, est-ce qu'on va pouvoir continuer à le faire ? Je flippe un peu, notamment avec l'obligation de changer ses vieux véhicules qui est pour moi surtout le cheval de troie pour se faire fourguer du surconnecté futile et tout mal foutu.
Déjà entretenir une voiture c'est du budget et/ou du temps, sur Linuxfr on est bien placés que rajouter des problèmes logiciels là-dedans c'est une MAUVAISE idée (dit-il poliement).
Je prône pas la bougie/les amish/tout ça, j'ai un Garmin autonome et c'est super pratique, mais il est totalement indépendant de la voiture, n'a pas besoin de connection Internet (et miracle, reçoit encore des infos temps réel via le trafic broadcast). Ah et il ne plante jamais (c'est un concept de dinosaure ça…), sauf si je le laisse au soleil à +45° : pardonné. C'est beaucoup moins cher qu'un bordel embarqué dans la voiture, plus facile à réparer/changer, etc.
Mêmes les autoradios totalement interchangeables qu'on pouvait installer/remplacer à pas cher c'est mort maintenant. Ca vous donne une idée du bien que vous veule les constructeurs auto (hint: du "bien" un peu SM).
Notez que je ne pourrais aussi pas me passer du régulateur de vitesse. Mais c'est un contrôleur PID qui pourrait limite être implémenté sans microprocesseur, ou à la rigueur avec une babiole 16bits incassable des années 80.
Bref, progrès technologique OK, microprocesseurs par 10aine au mètre carré, non.
Dans le cadre professionnel j'ai été audité par de nombreuses boîtes de conseil spécialisées en "sécu", elles m'ont toutes bien fait rire avec leur "sécurité en plastique" et leurs QCM sans fin et inadaptés. Sauf l'ANSSI (deux fois), où 1/ les rapports n'était pas une diarrhée générée par un outil automatique avec 3 bits d'info utile cachés dans 250 pages, 2/ l'auditeur était vraiment compétent et on pouvait engager une discussion pro ET améliorer ses pratiques.
J'espère que l'ANSSI va garder le cap longtemps et qu'aucun de nos décérébrés de dirigeants politiques va l'exploser sur un coup de tête. C'est pas passé loin pour l'ASN il y a peu, et je vois pas mal de façons selon lesquelles l'ANSSI pourrait vexer des gens, si jamais ils donnaient un peu plus leur avis sur la sécurité des données des concitoyens et comment c'est (pas) géré…
Mon moment "c'était mieux avant" est quand je vais sur un site web avec mon smartphone de 2015 (dont la longue vie est assurée par LineageOS+Fennec). Montre en main, le délai entre le clic sur l'URL et l'affichage complet du 1er écran :
Et tout ça avec un cache chaud… Oui, il faut presque 30s pour que j'ai une idée de la météo du jour. Je compare avec Lichess qui est un site dont la home page est super chargée en infos, dynamique (websocket d'office), et pour mentionner que je ne vais même pas dans le débat "à mort JS" (mais… "à mort JS" quand même ! :))
Et c'est un exemple moyen, y a pire.
Le plus rigolo est que j'ai une seule extension chargée, Ublock Origin (what else?). Si je la coupe, les sites les plus mauvais deviennent… beaucoup plus mauvais, si c'est possible de l'imaginer. Là c'est +1min pour que j'aie la météo. Oui, pour obtenir quelques milliers de bauds d'information. Via du wifi à 50 Mbps.
Les webdev n'ont aucune culture informatique et aucune idée de ce que représente l'information et son traitement. Mon smartphone a un ARM avec 2 coeurs qui toppent à 1.2 GHz ; pour parser qq 100aines de KB d'HTML, de CSS et de JS (ce qui suffit amplement à programmer UNE page), il ne faut qu'une poignée de secondes (preuve: lichess.org, 500 kB avec les graphismes et le framework), et encore. Les primivites graphiques sont toutes accélérées (copier un glyphe, scaler une image) et sont vraiment un détail, le rendu GPU d'une page sans CSS de kéké c'est quelques 10èmes de seconde. En 2023 afficher n'importe quel page web en 5 secondes max avec n'importe quel CPU > 1 GHz est un problème THEORIQUEMENT résolu. La pratique en est hélas à quelques années-lumière…
Et ce sont les mêmes qui sont en train de nous parler de "green/ecoconception" depuis 1 à 2 ans… Allez rions ((très) jaune).
Après TrainLine ça appartient à un fond de pension américain, ça a absorbé CaptainTrain, etc. C'est pas neutre d'utiliser les apps de ces ogres capitalistiques… Mais chacun voit :).
Donc le but c'est d’exécuter immédiatement les instruction à porté ,et exécuter les instructions plus loin en parallèle pour augmenter ILP.
C'est pas de l'exécution spéculative qui pourrait typiquement mener un à un SPECTRE/MELTDOWN ? Sur ce sujet je retiens que jouer avec le temps (réordonner, anticiper) est un risque non négligeable.
Ce n'est a priori pas ton but, mais je vois aussi une opportunité de rester sur un processeur à l'architecture "simple" (au sens "un expert peut raisonner sur son modèle sans se fourvoyer", pas en opposition avec "sophistiqué") et donc faisant passer la sécurité en premier - et ça semblerait compatible avec le but d'efficience. Parce qu'aujourd'hui n'importe quel CPU/SoC ARM/RISC/CISC ne rassure personne en termes de sécurité tellement ils sont complexes (on en est quand même à mettre des CPUs dans les CPUs…)
Je regarde avec envie l'évolution d'OpenBMC. Je suis bloqué avec du Dell et leurs BMC hors de prix (dits "idrac") avec du logiciel lent, insecure, bloated, buggé et je pleure :(. Si un hacker tente de porter OpenBMC sur un idrac, je lui envoie mon soutien financier. Et si Dell se mettait à développer des firmwares potables pour leur serveur, voire avec un vrai support… Je ne me prends même pas à en rêver.
J'ai pris une HL-2030 en 2006 (Laser n&b) parce que c'était à un prix dérisoire (80€ de mémoire). Elle a marché pendant 8 ans sans soucis, toners facilement changeables par des "refills", puis je me suis mis à recharger les toners moi-même, RAS. Utilisation : quelques pages par jour. Jamais de bourrage, qualité 600 dpi impec. J'ai oublié ce qui a lâché, mais elle ne fonctionnait plus correctement. Je me rappelle avoir racheté un tambour qui a coûté le prix de l'imprimante à un moment…
Puis j'ai eu une HL-2130, la copie de la précedente. RAS aussi, puis je l'ai donnée pour passer à la couleur.
J'ai contacté mon fournisseur d'encre (kittoner.fr) pour lui demander conseil, il m'a répondu tout de suite de prendre la DCP-9020CDW qui semblait être une des rares du moment à être facilement maintenable. Alors ça marche, depuis ~4 ans, mes remarques :
on peut clairement recharger ses toners soi-même, mais comme y en a 4x plus, j'ai un peu plus d'incidents genre "petite fuite", "bouchon cassé lors du refill", "verrou de recharge qui veut pas" et ça me saoûle, mais ça se gère…
on peut accéder à un menu caché pour réinitialiser le compteur des toners, et ça c'est la killer feature : les compteurs sont toujours à l'ouest, et rien ne met plus en pétard de découvrir en rechargeant une cartouche qu'elle contenait quasi 1/2-refill d'encre (qu'on est obligé d'expulser et jeter). J'ai enfin le droit de juger si y a de l'encre ou pas simplement en regardant la qualité d'impression
elle est LENTE niveau réseau et traitement (sinon mécaniquement ça semble OK, dans les 10/12 ppm) : j'ai essayé en Ethernet (100Mbps, snif) et USB (2, 480Mbps), pareil, le document met des plombes à être envoyé/traité puis imprimé, c'est 4x plus lent (en latence) que ma vieille HL-2130 (entre le clic "Print" et l'entraînement du papier je suis passé de 5s à 20s); après en débit ça suit, mais quand son usage principal c'est "une feuille de temps en temps", bah … pas grave, mais vexant
ergonomie stupide : écran tactile correct mais leeent, avec… un clavier invisible à effleurement à côté. En fait il est rétro-éclairé, et on ne peut voir les touches que quand ça rétroéclaire, ce qui n'arrive que dans de rares configurations. C'est pas grave mais c'est très con. La séquence de reset de compteur de cartouche nécessite d'appuyer sur une de ces touches quand on ne la voit pas, je me demande s'ils n'ont pas conçu ce clavier invisible juste pour ça, comme DRM-du-pauvre pour qu'on trouve pas la touche même si on sait sur laquelle appuyer
quand un des toners est (considéré) vide, elle n'imprime plus; je crois que c'est la norme sur les Laser couleur, mais qu'est-ce c'est con : j'ai plus de magenta, du coup je peux pas imprimer mon doc n&b ! Quand on peut juste faire un "counter reset" c'est vite réglé, mais quand il faut vraiment recharger le toner, c'est très pénible
je n'utilise pas son Wifi, je préfère même pas savoir (combiner des problèmes de Wifi et d'imprimante, faut vraiment pas aimer la vie)
son encombrement est raisonnable pour une Laser couleur
mécanique bien foutue, toners très accessibles et dans une structure assez bien fermée; j'ai eu des fuites de toner, on peut très facilement retirer les cartouches et tout nettoyer (aspirateur/pinceau)
elle fait le recto/verso ! Après avoir passé 25 ans à peaufiner mon expertise en recto/verso manuel, ça fait bizarre d'accéder à ce pouvoir transcendant sur sa petite imprimante maison (j'en étais resté au fait que ça n'était accessible qu'aux copieurs Xerox de 100kg mini, eh ben c'est plus vrai)
le scanner marche très bien (avec Sane à travers le réseau), mais il est limité par la BP réseau ! On reçoit le doc en entier environ 10s après que le balayage du scanner soit terminé. Quelle misère, tout ça pour économiser un port GbE (voire économiser tout, car je pense que le SoC est ultra-cheap vu la réactivité de l'UI). A noter qu'il n'existe plus de drivers pour MacOS depuis un moment donc si vous subissez ce genre d'environnement c'est mort pour vous; je sais pas pour Windows…
Après je regrette ma HL-2030/2130 : petite, efficace, rapide, entretien trivial. En passant à la couleur j'ai du plus encombrant, plus lent et plus lourd à entretenir, et tout ce qui est graphique ou photographique a un rendu assez affreux (mais pour des docs/graphiques/tout ça, rien à redire). Du coup l'avantage de la couleur reste assez faible, faut vraiment en avoir envie ou besoin.
PS: j'ai eu tellement de mésaventures avec les jets d'encre (début années 2000) que je ne les ai plus touchées depuis 20 ans. Buses bouchées, mécanique plastique branlante, drivers cups introuvables, pas de cartouches génériques, lenteur extrême, etc. Ca a peut être progressé. L'article ne parle pas des perfs des jet d'encres, mais je me prends à penser que si je testais aujourd'hui je serais très déçu car ça serait forcément très en deça de ce que peut faire n'importe quel copieur pro auquel j'ai accès à 10-30c la copie à qq minutes de chez moi.
A noter que "physiquement isolé" c'est plus que vague : isolé par … une mince couche d'air ? Une cloison ? Un porte anti-feu ? Etc.
Autant je ne ferai jamais de pub pour les GAFAM, autant il faut dire que niveau technique et contractuel on sait exactement sur quoi compter et à quel coût chez eux - alors que chez OVH c'est d'une opacité et d'un approximatif technique (pour être poli), même après avoir régulièrement cherché à obtenir des clarifications auprès du service commercial. C'est d'autant plus dommage que je pense qu'ils n'ont aucun problème technique pour fournir des services bien cadrés.
Déja que l'EN est à la rue sur tout, toi tu voudrais que les agents achètent des disques durs avec leurs sous et archivent à l'arrache leurs emails pro chez eux?
J'ai plusieurs témoignages directs de membre de l'Educ'nat (travaillant au rectorat et DSDEN) qui me disent qu'ils n'ont pas eu d'autre choix que d'acheter sur leur budget des disques externes pour assurer eux-même leurs sauvegardes - puisque celles fournies par leur administration sont soit déficientes soient très sous-dimensionnées. Et ça fait au moins 10 ans que j'entends régulièrement ce sujet remonter.
Je ne parle pas du manque de VPN (qui est réservé à une partie arbitraire du personnel, ils ont peut être des appliances avec des licences par utilisateur…), du manque de fichiers partagés contourné par de la "synchro" entre appareils où les fonctionnaires s'envoient des mails à eux-même (c'est pas bête, IMAP est un très bon protocole de synchro) et qui saturent les BaLs, etc.
Je ne parle pas du support qui est dans le rectorat auquel je pense de 2 personnels (pour tous les postes de travail et services, hébergés/téléphonie/etc), lol.
Et oui chaque agent a sur son ordi un Windows truffé de logiciels énergivores et mal gaulés qui font ramer au bout d'1 mois n'importe quelle bête de course récente. Les mails peuvent mettre 20min pour aller d'un bureau à l'autre sans sortir du réseau local. Etc.
Et la sécurité… La quoi ?
Je ne sais pas pour les autres administrations, mais à ce stade le débat est à peine Microsoft ou autre chose, il devrait surtout être "est-ce que enfin on met des vraies DSIs et moyens qui évaluent et pourvoient correctement les besoins les plus basiques ?"
Ceci est d'autant plus politique que tous ces agents ont des matériels et outils nettement plus performants chez eux, ça relève donc de la maltraitance de les sous-équiper et de les brimer à ce point.
Voilà, désolé pour le "rant", je nettoyais mon clavier et le coup est parti tout seul.
# Proposition de stage
Posté par zerodeux (site web personnel) . En réponse à la dépêche ADSILLH : licence pro Administration et Développement de SI à base de Logiciels Libres et Hybrides. Évalué à 2 (+1/-0).
Il y aurait un moyen en tant qu'entreprise d'être dans les petits papiers de la formation pour que des étudiants (non alternants) nous contactent lors de leur recherche de stage ? (je sais, c'est en avril 2026, mais battons le fer pendant qu'il est chaud)
# Bon brossage de tableau !
Posté par zerodeux (site web personnel) . En réponse à la dépêche La virtualisation pour les nuls et autres enjeux autour des datacenters. Évalué à 9 (+8/-0).
Je mettrai bien mon grain de sel sur la partie sécurité/souverraineté/simplicité.
Déjà via le Cloud Act qui est un très bon (gros) point d'entrée dans le sujet : l'expression "les données gérées par un datacenter" me semble trop approximative, il faudrait plutôt parler des "données gérées par un opérateur" car la question est de savoir 1/ à qui appartiennent les équipements qui manipulent lesdites données et 2/ qui les contrôle.
Cas hostile : tu met des données dans des équipements situés en France mais appartenant à un cloud américain et géré par lui; le Cloud Act leur permet de siphonner ce qu'ils veulent quand ils veulent. De toute façon tu consommes du "cloud (IaaS)" et il n'y a aucun espoir que tu crées le moindre rideau de confidentialité, puisque le cloud gère toutes les clés de chiffrage pour toi. Si tu les gères manuellement ça ne change rien, à un moment il faut qu'une clé de chiffrage existe en clair (même brièvement, même en RAM) sur le(s) serveur(s) concernés. J'appellerai ça le modèle "à poil sur Internet".
Cas intermédiaire : tu met des données dans des équipements situés en France appartenant à un opérateur français. Cet opérateur peut techniquement aspirer tes données (cf. paragraphe précédent), mais légalement non. On en revient donc à une relation de confiance traditionnelle (avec l'opérateur, avec la loi de son pays, avec la façon dont son application est contrôlée, etc). Et bien sûr on est toujours sujet à l'écoute légale, qui est un mécanisme considéré acceptable quand il est bien contenu (limité à la justice, doit passer par un juge pour approbation, etc). En France actuellement on peut tout à fait être insatisfait de ce niveau de confidentialité : par ex. si on héberge un blog écolo on peut tout à fait se faire "écouter" par la cellule anti-terroriste.
Cas prudent : tu mets des données dans des équipements situés en France, qui t'appartiennent et que tu gères. En théorie tu n'est donc sujet qu'à l'interception légale, soit au niveau de ton peering, soit éventuellement directement sur tes équipements mais dans ce cas tu recevras une demande de la PJ ou de la DGSE (tu seras donc bien informé, et tu ne pourras pas refuser). Et il reste aussi l'accès physique : même si tu loues une "suite privée" dans un datacenter, tous les techniciens du datacenter peuvent y accéder. Tu ne peux pas formellement assurer que tu es le seul à pouvoir accéder physiquement à tes équipements, c'est pas interdit d'être parano en monitorant ce qui se plugge sur les switches, bloquer tous les ports serveurs eth/usb non utilisés, etc.
Evidemment tout ceci est à analyser au prisme d'un modèle de menace : si tu héberges une boutique qui vend des pots de miel, tout ce qui a été cité t'importe très peu. Au pire tu crains une attaque de concurrents, qui n'useront probablement pas d'attaque physique (le remote via les failles des apps web + ingénierie sociale restant hélas très efficaces).
Quant à l'avantage de la virtualisation, OK pour ceux cités, mais …
En premier lieu quand tu passes à la virtu toi-même (par ex. tu installes Proxmox), tu dois acquérir une compétence en plus. Et elle n'est souvent pas mince, les outils de virtu (avec tout ce qu'ils tirent : Xen/KVM, H-A, Ceph/NFS/etc) peuvent venir à un gros update de bagage technique. Evidemment ça peut rapporter gros sur la partie opérationnelle si les besoins de nouveaux "serveurs" sont fréquents : si ces derniers sont virtuels, on élimine une grosse friction. Mais j'ai vu des cas où ces besoins étaient quasi nuls, et il était tout à fait raisonnable de ne pas envisager de passer aux VMs.
En second lieu quand tu délègues la virtu, tu :
* change de business model : au lieu d'acheter du matériel et l'amortir, tu passes sur du récurrent; l'impact peut être important car un bon matériel peut s'amortir sans problème sur 5 à 10 ans (autant dire qu'à +2 ans ton "compute" est quasi-gratuit vu du modèle du cloud)
* renonce à plein de garanties de sécurité et de confidentialité (cf. le barratin plus haut)
* dépend du support du cloud : ce que tu savais réparer en 30min va peut être se transformer en ticket fleuve d'1 semaine (dans mon expérience hélas récurrente, retirez le "peut être")
* en général la dispo des VMs du cloud est meilleure que ce tu faisais par toi-même (si ce n'était pas ton métier), mais le cloud ça plante quand même; du coup les problèmes de H-A se posent toujours et ne sont pas magiquement résolus (sauf réplication en continu de VM à la VMware, jamais testé, mais à chaque fois qu'on m'a proposé ça coûtait 3 bras et 5 fesses)
* c'est peut être un avis plus perso, mais les "clouds" ont parfois une complexité et charge cognitive bien supérieur à ton petit cluster Xen/KVM; si tu es un profil technique ça peut devenir contre-productif et démotivant de te battre contre des usines à gaz relativement abstraites
[^] # Re: Mode offline
Posté par zerodeux (site web personnel) . En réponse à la dépêche Sortie de passbolt 4.9.0 : recherche par dossiers et amélioration des performances. Évalué à 5.
Si je ne m'abuse, elle est déjà la même dès qu'un mot de passe est accessible. Cette simple fenêtre ouverte empêche Passbolt de garantir quoi que ce soit sur la traçabilité des mots de passe : un mot de passe accédé est potentiellement un mot de passe fuité. Pour boucher ce trou il faudrait de l'OTP à tous les niveaux (sauf au sommet sa passphrase personnelle).
Si Passbolt garde en cache localement les mots de passe récupérés, mais bien entendu chiffrés au repos (chiffrage symétrique assuré par la même passphrase que l'accès au coffre fort), je ne vois pas la différence en terme de surface d'attaque. C'est ce que fait Bitwarden/Vaultwarden. Leur CLI va jusqu'à télécharger tous les mdp dès le 1er appel, même si on ne le demande pas. C'est très efficient et comme effet de bord ça limite beaucoup les communications avec le serveur de clés.
Je pense même que c'est une amélioration, tout ce qui vise à automatiquement stocker au repos une version chiffrée d'un secret évite qu'un dév/admin invente un contournement qui revient à se tirer un gros missile dans le pied. Tout comme globalement un Passbolt permet de largement lutter contre les post-its sous le clavier, mdp envoyés en clair par mail/chat/etc…
Dans mon cas Bitwarden (enfin https://github.com/doy/rbw car le cli officiel est une m* sans nom) me permet de trivialement remplacer un
PASS=ohmygoddontlook
dans des scripts par unPASS=$(rbw get secret-for-service-bla)
sans 1/ complexifier et ralentir les scripts, 2/ péter en mode offline/confiné (CI sécurisées, etc), 3/ sans disruption : si l'agent n'est pas déverouillé il demande la passphrase à l'admin et le script attend tranquillement que ce soit fait avant de continuer normalement. C'est win-win-win à tous les étages.De façon générale l'ergonomie est presque toujours un gain stratégique en sécurité effective. L'humain, le contexte, tout ça …
[^] # Re: Oui
Posté par zerodeux (site web personnel) . En réponse à la dépêche Plaidoyer pour des interfaces temps réels. Évalué à 2.
Ah mais je suis à fond d'accord. C'est pour ça que j'en veux un max aux concepteurs/réalisateurs qui ont à leur dispo des monstres multi-GHz multi-cores GPU-tralala.
[^] # Re: Oui
Posté par zerodeux (site web personnel) . En réponse à la dépêche Plaidoyer pour des interfaces temps réels. Évalué à 8.
Attention, la bande passante et la latence ne sont pas la même chose… J'ai eu une ADSL des familles à 512kbps mais j'avais "30ms de ping". Ca permet de créer des interactions temps réel dont parle l'auteur de l'article (comme jouer à Quake & co).
Pour moi il est indubitable que le "web est mou", quand les dévs sont très satisfaits d'avoir 20 à 50ms de calcul pour pondre une page HTML alors qu'avec la puissance des processeurs actuels on devrait limite rougir de mettre plus de 1 ms. Je ne parle même pas de la tuerie JS qui rend n'importe quelle ordiphone d'il y a 3 ans assimilable à un vieux bousin asthmatique.
Au fait notre perception de l'instantanéité est plutôt de 20 ms pour le visuel et 5 ms pour le sonore. Je pense que 100ms ça manque d'ambition. On est quand même partie de 0ms pour pas mal d'applis analogiques (le potar, le changement de chaîne instantané - soupir -, etc), je vois pas pourquoi on devrait se satisfaire de 100ms et appeler ça un progrès…
Si vous voulez un bon benchmark, cliquez sur https://lichess.org/ - voilà ce qu'on peut obtenir en s'appliquant (ils ont gagné sur les 2 tableaux : latence pour le 1er afficahge et temps de chargement pour la page complète). Et c'est une page riche en infos.
PS: je désactive le "speculative loading" sur mon brouteur, j'ai mes raisons, je pense que je vois tout plus "mou" que vous.
[^] # Re: Manger le pain des ESN
Posté par zerodeux (site web personnel) . En réponse à la dépêche École Inclusive: une application libre pour la prise en charge des élèves en situation de handicap. Évalué à 10.
Moi il m'a bien fait rire…
Il aurait fallu exagérer pour bien marquer l'ironie, par ex. en mentionnant un chiffre irréaliste comme 496 millions d'€. Ah merde : https://www.capital.fr/economie-politique/ces-gaspillages-de-l-administration-496-millions-pour-un-logiciel-de-l-education-nationale-1239507
(Est-ce de l'ironie ironique ou un grand désespoir ? A vous de voir cher lecteur de commentaires)
[^] # Re: Super, mais grosse pression
Posté par zerodeux (site web personnel) . En réponse à la dépêche Une balade au FOSDEM. Évalué à 3.
C'est surtout ironique si il n'existe pas de téléphone libre (je parle du soft) qui permette de faire du paiement NFC, il me semble que c'est le cas …
# Merci
Posté par zerodeux (site web personnel) . En réponse à la dépêche Claire Mathieu et les algorithmes. Évalué à 8.
Juste merci pour ce superbe article, sujet clé et passionnnant, le tout concis et bien rédigé. J'adore.
[^] # Re: Marcel Béliveau est de retour
Posté par zerodeux (site web personnel) . En réponse au journal Ah la SNCF!. Évalué à 3.
Ben…
Le péché originel c'est l'abandon du ticket par les guichets (et le site en ligne qui te les envoyait par la poste), alors que le système installé avec du matos déjà amorti coûtait probablement qu'une misérable fraction des frais de fonctionnement de la SNCF … C'est pas comme si ça faisait 50 ans que le problème d'édition de billets était pas réglé.
Vous avez vu les contrôleurs avec leur barda terminal/imprimante/CB/Cibi/cuisine ? Mais LoL, avant leur équipement se réduisait à une poinçonneuse inoxidable dans la poche et un carnet de contraventions. C'est vraiment un progrès ? Je pose la question. Je n'ai en particulier vu aucune info sur l'impact sur les fraudes (ce qui serait une très bonne excuse pour justifier le billet numérique).
D'ailleurs pour se rendre compte du niveau de croyance religieuse en le techno-dieu on peut picorer ces infos :
* 2004 : https://www.01net.com/actualites/denis-wathier-voyages-sncf-com-sur-le-billet-electronique-le-taux-de-fraude-est-de-zero-233023.html
* 2015 : https://www.lemonde.fr/economie/article/2015/02/20/pourquoi-la-sncf-veut-frapper-le-plus-fort-possible-contre-la-fraude_4580760_3234.html : "Mais le groupe subit également la fraude bancaire à l’achat de billet sur Internet ou la fraude aux billets électroniques, avec des « petits malins », qui annulent leur billet une fois qu’ils sont dans le train et qu’ils ont été contrôlés."
Oui, au moins 10 ans avec cette faille béante. Et en 2015 la SNCF qui se plaint toujours de 300M€ de fraude par an. Ben oui, si t'as pas les sous pour payer le train, t'as rarement aussi les moyens pour produire un faux billet, ça alors. Donc la technologie du billet n'a quasi pas d'incidence sur le taux de fraude. Ca alors. La faille est en train de se colmater via les portails qui bloquent les quais, mais ça n'a rien à voir avec la techno du billet (d'ailleurs ces portails scannent joyeusement des billets papier/carton).
J'avoue avoir la malsaine envie qu'un petit glitch informatique rende caduque au moins 24h tout leur bordel à QR-code pour qu'ils mangent leurs doigts. Mais je sais qu'ils en déduiront qu'il faut juste plus de technologie, soupir.
Désolé pour la réponse à chaud et un peu énervée, mais je pense qu'il faudrait vraiment à commencer à penser l'option "sans smartphone", qui est une petite chose à la fois si utile et si futile.
Et mettre du numérique là où c'est utile et avec la dose suffisante pour que ça le reste.
[^] # Re: Le telephone pro (ENT/Pronote)
Posté par zerodeux (site web personnel) . En réponse au journal Maltraitance informatique. Évalué à 8.
Ca marche dans les 2 sens. Je considère que Pronote est une catastrophe aussi pour les élèves (et je sais que je suis dans une frange minoritaire).
Ici au collège en début d'année on nous assure que le cahier de texte sera toujours bien utilisé et rempli, et que Pronote c'est juste "en plus" et "bien pratique pour les absents qui peuvent rattraper" (oui on me ressort toujours cet unique argument fallacieux).
En pratique ça ne rate pas: le fin de cours à l'arrache (là je jette pas la pierre… Je serai prof je pense que j'aurai le même programme de timing/orga), mais comme il y a la béquille Pronote et bien le prof et l'élève ne prennent plus le temps de transmettre le devoir. Des deux côtés : soit le prof lutte (cri pour couvrir le bruit des chaises, grosse écriture rouge au tableau, barrage de son corps devant la porte, etc :)) mais l'élève se dit "bah je chopperai les consignes sur pronote" et néglige son cahier de texte, soit le prof ne lutte pas et dit aux élèves "bah je vous le mettrai sur pronote" (le dernier cas se généralise clairement ici).
Résultat : mes enfants sont devenus stressés du pronote et m'ont demandé tous les soirs de vérifier sur pronote s'il n'y aurait pas un devoir qu'il n'auraient pas noté ou mal noté sur leur cahier de texte.
Oui parce que comme chaque année on a une campagne sur les méfaits des écrans puis une autre sur les méfaits des réseaux sociaux : du coup mes gamins n'ont pas accès à Internet la semaine, ils n'ont pas de smartphone au collège (oui ils vont bien, merci), ben ils doivent solliciter leur père ou leur mère qui mesure bien leur dépendance à ce fil à la patte numérique.
Cerise sur le gâteau : quelques rares coup de pute de profs qui ont mis des devoirs uniquement sur pronote sans prévenir les élèves (désolé, je pense que ça mérite ce niveau de grossièreté). Ca n'arrive que 2 ou 3 fois par an, mais ça ruine tout : l'élève n'a plus aucune confiance dans la transmission avec le prof et son cahier de texte, et pronote devient 1/ la voix de son maître, 2/ la possibilité qu'un devoir apparaisse comme ça par surprise la veille pour le lendemain. Je trouve ça à la fois violent et inconséquent, et l'effet est TRES palpable, mes gamins craignent tout le temps que ce sale coup leur tombe dessus. Un peu comme si on voulait les habituer à ce que plus tard au boulot ce soit normal d'avoir un boss désorganisé qui t'envoie un SMS la veille au soir pour faire un rapport complet le lendemain matin (pure dystopie, ça n'existe pas hein) … Je psychote à peine, c'est quand même l'école, bordel, c'est pas neutre la façon dont l'école fonctionne.
Je précise que cet ENT/Pronote finit l'année avec environ 100 messages par gamin. Si recevoir 100 notifs par gamin par année scolaire c'est pas du délire, je ne sais pas ce que c'est. Le plus rigolo c'est qu'en même temps 1/ on est passé à 2 conseils par an au lieu de 3, 2/ les inscriptions sont toujours des piles de papier où on re-remplit toujours les mêmes infos qui seront inéluctablement resaisies avec un bon pourcentage de typos. Si on lève un peu le nez du guidon, ça n'a ni queue ni tête.
[^] # Re: La réaction aux sollicitations externes telles que les notifications [...]
Posté par zerodeux (site web personnel) . En réponse au journal Maltraitance informatique. Évalué à 8.
Je pense qu'il ne faut pas penser que sollicitations "temps réel". N'importe quelle service qui empile des messages et dont on découvre la pile sans fin régulièrement peut créer une charge mentale importante.
Aujourd'hui même la vie numérique la plus sobre vous expose à recevoir des messages en quantité rapidement importante, et à mon avis déraisonnable :
* le commerce en ligne qui vous donne des nouvelles de votre colis toutes les 2h
* le moindre service qui se dématérialise pour "les factures" (électricité, gaz, etc) et qui en fait vous génère par défaut plein de mails non sollicités "pour votre bien/infos" (sollicitations qui n'auraient jamais existé en "papier")
* votre banque
* l'ENT des enfants
* et une masse de choses qu'on vous impose
Au boulot je gère une centaine de notifications par jour. Ca fait partie du boulot et de sa méthodologie, c'est OK.
Mais à la maison je suis de plus en plus "notiphobe" et je suis TRES prudent sur mes inscriptions, je décoche toutes les options marketing, je prends soin de me désabonner des trucs qu'on ma imposé etc.
Mais je me sens pourtant agressé tous les soirs, au point que même les messages de mes proches me rebutent, c'est désespérant. Il y a aussi l'effet de "plus on en a plus on s'en sert", donc je vois les messages texte/vocaux/mails (ordi, smarphone) se superposer.
Donc je comprends qu'il peut être utile de renverser la charge et de dire en fait "non c'est pas normal d'être exposé à plus d'une poignée de notifications par jour, voire zéro" et d'arrêter de dire "en fait il gère pas bien ses notifs, il a qu'a mettre en silencieux"…
Je sais aussi qu'on n'est pas beaucoup à être mal à l'aise avec un téléphone dans la poche et ce sentiment de devoir décrocher ou répondre à tout instant parce qu'on est joignable. Je me suis d'ailleurs déjà vu reprocher de pas répondre à toute heure de la journée par des proches, je dois prendre sur moi car ils se vexent si je leur explique que je veux juste avoir le droit d'être déconnecté. Cette pression est forte et je suis sûr qu'on est pas mal à ne pas bien la vivre, en s'en rendant plus ou moins compte.
# Menfin
Posté par zerodeux (site web personnel) . En réponse au journal Les tribulations d’un GPS embarqué, encore… Et l'avenir , Android Auto et Carplay ?. Évalué à 4.
Je vais faire mon papy-8bit, mais il y en a qui réalisent qu'on peut conduire un véhicule sans avoir un smartphone et un abo data ?
Accessoirement, est-ce qu'on va pouvoir continuer à le faire ? Je flippe un peu, notamment avec l'obligation de changer ses vieux véhicules qui est pour moi surtout le cheval de troie pour se faire fourguer du surconnecté futile et tout mal foutu.
Déjà entretenir une voiture c'est du budget et/ou du temps, sur Linuxfr on est bien placés que rajouter des problèmes logiciels là-dedans c'est une MAUVAISE idée (dit-il poliement).
Je prône pas la bougie/les amish/tout ça, j'ai un Garmin autonome et c'est super pratique, mais il est totalement indépendant de la voiture, n'a pas besoin de connection Internet (et miracle, reçoit encore des infos temps réel via le trafic broadcast). Ah et il ne plante jamais (c'est un concept de dinosaure ça…), sauf si je le laisse au soleil à +45° : pardonné. C'est beaucoup moins cher qu'un bordel embarqué dans la voiture, plus facile à réparer/changer, etc.
Mêmes les autoradios totalement interchangeables qu'on pouvait installer/remplacer à pas cher c'est mort maintenant. Ca vous donne une idée du bien que vous veule les constructeurs auto (hint: du "bien" un peu SM).
Notez que je ne pourrais aussi pas me passer du régulateur de vitesse. Mais c'est un contrôleur PID qui pourrait limite être implémenté sans microprocesseur, ou à la rigueur avec une babiole 16bits incassable des années 80.
Bref, progrès technologique OK, microprocesseurs par 10aine au mètre carré, non.
# Merci, l'ANSSI
Posté par zerodeux (site web personnel) . En réponse au journal J'ai fait le MOOC de l'ANSSI. Évalué à 5.
C'est une super bonne nouvelle.
Dans le cadre professionnel j'ai été audité par de nombreuses boîtes de conseil spécialisées en "sécu", elles m'ont toutes bien fait rire avec leur "sécurité en plastique" et leurs QCM sans fin et inadaptés. Sauf l'ANSSI (deux fois), où 1/ les rapports n'était pas une diarrhée générée par un outil automatique avec 3 bits d'info utile cachés dans 250 pages, 2/ l'auditeur était vraiment compétent et on pouvait engager une discussion pro ET améliorer ses pratiques.
J'espère que l'ANSSI va garder le cap longtemps et qu'aucun de nos décérébrés de dirigeants politiques va l'exploser sur un coup de tête. C'est pas passé loin pour l'ASN il y a peu, et je vois pas mal de façons selon lesquelles l'ANSSI pourrait vexer des gens, si jamais ils donnaient un peu plus leur avis sur la sécurité des données des concitoyens et comment c'est (pas) géré…
# Y a des Hz qui se perdent...
Posté par zerodeux (site web personnel) . En réponse au journal Le web, c'était mieux avant. Évalué à 5.
Je te le fais pas dire …
Mon moment "c'était mieux avant" est quand je vais sur un site web avec mon smartphone de 2015 (dont la longue vie est assurée par LineageOS+Fennec). Montre en main, le délai entre le clic sur l'URL et l'affichage complet du 1er écran :
Et tout ça avec un cache chaud… Oui, il faut presque 30s pour que j'ai une idée de la météo du jour. Je compare avec Lichess qui est un site dont la home page est super chargée en infos, dynamique (websocket d'office), et pour mentionner que je ne vais même pas dans le débat "à mort JS" (mais… "à mort JS" quand même ! :))
Et c'est un exemple moyen, y a pire.
Le plus rigolo est que j'ai une seule extension chargée, Ublock Origin (what else?). Si je la coupe, les sites les plus mauvais deviennent… beaucoup plus mauvais, si c'est possible de l'imaginer. Là c'est +1min pour que j'aie la météo. Oui, pour obtenir quelques milliers de bauds d'information. Via du wifi à 50 Mbps.
Les webdev n'ont aucune culture informatique et aucune idée de ce que représente l'information et son traitement. Mon smartphone a un ARM avec 2 coeurs qui toppent à 1.2 GHz ; pour parser qq 100aines de KB d'HTML, de CSS et de JS (ce qui suffit amplement à programmer UNE page), il ne faut qu'une poignée de secondes (preuve: lichess.org, 500 kB avec les graphismes et le framework), et encore. Les primivites graphiques sont toutes accélérées (copier un glyphe, scaler une image) et sont vraiment un détail, le rendu GPU d'une page sans CSS de kéké c'est quelques 10èmes de seconde. En 2023 afficher n'importe quel page web en 5 secondes max avec n'importe quel CPU > 1 GHz est un problème THEORIQUEMENT résolu. La pratique en est hélas à quelques années-lumière…
Et ce sont les mêmes qui sont en train de nous parler de "green/ecoconception" depuis 1 à 2 ans… Allez rions ((très) jaune).
[^] # Re: Le mieux...
Posté par zerodeux (site web personnel) . En réponse au journal Le web, c'était mieux avant. Évalué à 1.
Après TrainLine ça appartient à un fond de pension américain, ça a absorbé CaptainTrain, etc. C'est pas neutre d'utiliser les apps de ces ogres capitalistiques… Mais chacun voit :).
# Joyeux anniversaire !
Posté par zerodeux (site web personnel) . En réponse à la dépêche Vingt-cinq ans de LinuxFr.org. Évalué à 1.
Et merci, quel boulot …
[^] # Re: Merci
Posté par zerodeux (site web personnel) . En réponse à la dépêche AltairX : le processeur du futur ?. Évalué à 4.
C'est pas de l'exécution spéculative qui pourrait typiquement mener un à un SPECTRE/MELTDOWN ? Sur ce sujet je retiens que jouer avec le temps (réordonner, anticiper) est un risque non négligeable.
Ce n'est a priori pas ton but, mais je vois aussi une opportunité de rester sur un processeur à l'architecture "simple" (au sens "un expert peut raisonner sur son modèle sans se fourvoyer", pas en opposition avec "sophistiqué") et donc faisant passer la sécurité en premier - et ça semblerait compatible avec le but d'efficience. Parce qu'aujourd'hui n'importe quel CPU/SoC ARM/RISC/CISC ne rassure personne en termes de sécurité tellement ils sont complexes (on en est quand même à mettre des CPUs dans les CPUs…)
# Mais Dell... ouiiin
Posté par zerodeux (site web personnel) . En réponse au journal Et si on parlait un peu d'OpenBMC..... Évalué à 3.
Je regarde avec envie l'évolution d'OpenBMC. Je suis bloqué avec du Dell et leurs BMC hors de prix (dits "idrac") avec du logiciel lent, insecure, bloated, buggé et je pleure :(. Si un hacker tente de porter OpenBMC sur un idrac, je lui envoie mon soutien financier. Et si Dell se mettait à développer des firmwares potables pour leur serveur, voire avec un vrai support… Je ne me prends même pas à en rêver.
# Retours Brother
Posté par zerodeux (site web personnel) . En réponse à la dépêche Imprimantes et libertés. Évalué à 4.
Je suis aussi Brother depuis fort longtemps …
J'ai pris une HL-2030 en 2006 (Laser n&b) parce que c'était à un prix dérisoire (80€ de mémoire). Elle a marché pendant 8 ans sans soucis, toners facilement changeables par des "refills", puis je me suis mis à recharger les toners moi-même, RAS. Utilisation : quelques pages par jour. Jamais de bourrage, qualité 600 dpi impec. J'ai oublié ce qui a lâché, mais elle ne fonctionnait plus correctement. Je me rappelle avoir racheté un tambour qui a coûté le prix de l'imprimante à un moment…
Puis j'ai eu une HL-2130, la copie de la précedente. RAS aussi, puis je l'ai donnée pour passer à la couleur.
J'ai contacté mon fournisseur d'encre (kittoner.fr) pour lui demander conseil, il m'a répondu tout de suite de prendre la DCP-9020CDW qui semblait être une des rares du moment à être facilement maintenable. Alors ça marche, depuis ~4 ans, mes remarques :
on peut clairement recharger ses toners soi-même, mais comme y en a 4x plus, j'ai un peu plus d'incidents genre "petite fuite", "bouchon cassé lors du refill", "verrou de recharge qui veut pas" et ça me saoûle, mais ça se gère…
on peut accéder à un menu caché pour réinitialiser le compteur des toners, et ça c'est la killer feature : les compteurs sont toujours à l'ouest, et rien ne met plus en pétard de découvrir en rechargeant une cartouche qu'elle contenait quasi 1/2-refill d'encre (qu'on est obligé d'expulser et jeter). J'ai enfin le droit de juger si y a de l'encre ou pas simplement en regardant la qualité d'impression
elle est LENTE niveau réseau et traitement (sinon mécaniquement ça semble OK, dans les 10/12 ppm) : j'ai essayé en Ethernet (100Mbps, snif) et USB (2, 480Mbps), pareil, le document met des plombes à être envoyé/traité puis imprimé, c'est 4x plus lent (en latence) que ma vieille HL-2130 (entre le clic "Print" et l'entraînement du papier je suis passé de 5s à 20s); après en débit ça suit, mais quand son usage principal c'est "une feuille de temps en temps", bah … pas grave, mais vexant
ergonomie stupide : écran tactile correct mais leeent, avec… un clavier invisible à effleurement à côté. En fait il est rétro-éclairé, et on ne peut voir les touches que quand ça rétroéclaire, ce qui n'arrive que dans de rares configurations. C'est pas grave mais c'est très con. La séquence de reset de compteur de cartouche nécessite d'appuyer sur une de ces touches quand on ne la voit pas, je me demande s'ils n'ont pas conçu ce clavier invisible juste pour ça, comme DRM-du-pauvre pour qu'on trouve pas la touche même si on sait sur laquelle appuyer
quand un des toners est (considéré) vide, elle n'imprime plus; je crois que c'est la norme sur les Laser couleur, mais qu'est-ce c'est con : j'ai plus de magenta, du coup je peux pas imprimer mon doc n&b ! Quand on peut juste faire un "counter reset" c'est vite réglé, mais quand il faut vraiment recharger le toner, c'est très pénible
je n'utilise pas son Wifi, je préfère même pas savoir (combiner des problèmes de Wifi et d'imprimante, faut vraiment pas aimer la vie)
son encombrement est raisonnable pour une Laser couleur
mécanique bien foutue, toners très accessibles et dans une structure assez bien fermée; j'ai eu des fuites de toner, on peut très facilement retirer les cartouches et tout nettoyer (aspirateur/pinceau)
elle fait le recto/verso ! Après avoir passé 25 ans à peaufiner mon expertise en recto/verso manuel, ça fait bizarre d'accéder à ce pouvoir transcendant sur sa petite imprimante maison (j'en étais resté au fait que ça n'était accessible qu'aux copieurs Xerox de 100kg mini, eh ben c'est plus vrai)
le scanner marche très bien (avec Sane à travers le réseau), mais il est limité par la BP réseau ! On reçoit le doc en entier environ 10s après que le balayage du scanner soit terminé. Quelle misère, tout ça pour économiser un port GbE (voire économiser tout, car je pense que le SoC est ultra-cheap vu la réactivité de l'UI). A noter qu'il n'existe plus de drivers pour MacOS depuis un moment donc si vous subissez ce genre d'environnement c'est mort pour vous; je sais pas pour Windows…
Après je regrette ma HL-2030/2130 : petite, efficace, rapide, entretien trivial. En passant à la couleur j'ai du plus encombrant, plus lent et plus lourd à entretenir, et tout ce qui est graphique ou photographique a un rendu assez affreux (mais pour des docs/graphiques/tout ça, rien à redire). Du coup l'avantage de la couleur reste assez faible, faut vraiment en avoir envie ou besoin.
PS: j'ai eu tellement de mésaventures avec les jets d'encre (début années 2000) que je ne les ai plus touchées depuis 20 ans. Buses bouchées, mécanique plastique branlante, drivers cups introuvables, pas de cartouches génériques, lenteur extrême, etc. Ca a peut être progressé. L'article ne parle pas des perfs des jet d'encres, mais je me prends à penser que si je testais aujourd'hui je serais très déçu car ça serait forcément très en deça de ce que peut faire n'importe quel copieur pro auquel j'ai accès à 10-30c la copie à qq minutes de chez moi.
# Liens patches = 404
Posté par zerodeux (site web personnel) . En réponse à la dépêche Linux From Scratch 11.3 : on vous tient par la main. Évalué à 2.
Je ne sais pas si c'est propre à la traduction française, mais les liens des patches sur https://fr.linuxfromscratch.org/view/lfs-11.3-systemd-fr/chapter03/patches.html sont tous en 404.
[^] # Re: Ça fonctionne pas chez moi
Posté par zerodeux (site web personnel) . En réponse au journal Faire du son avec des mots dans son butineur. Évalué à 1.
Apparemment ça répond "undefined" même quand ça marche.
Sur ma Debian 11, Chromium 110 = nope, Firefox 102.8 = OK.
[^] # Re: OVH ;: On va Hailleurs.
Posté par zerodeux (site web personnel) . En réponse au journal OVH va devoir payer pour l'incendie de son datacenter.... Évalué à 2.
A noter que "physiquement isolé" c'est plus que vague : isolé par … une mince couche d'air ? Une cloison ? Un porte anti-feu ? Etc.
Autant je ne ferai jamais de pub pour les GAFAM, autant il faut dire que niveau technique et contractuel on sait exactement sur quoi compter et à quel coût chez eux - alors que chez OVH c'est d'une opacité et d'un approximatif technique (pour être poli), même après avoir régulièrement cherché à obtenir des clarifications auprès du service commercial. C'est d'autant plus dommage que je pense qu'ils n'ont aucun problème technique pour fournir des services bien cadrés.
[^] # Re: Tout intégré
Posté par zerodeux (site web personnel) . En réponse à la dépêche Réponse du ministre de l'Éducation Nationale française à une question parlementaire sur Office 365. Évalué à 9.
J'ai plusieurs témoignages directs de membre de l'Educ'nat (travaillant au rectorat et DSDEN) qui me disent qu'ils n'ont pas eu d'autre choix que d'acheter sur leur budget des disques externes pour assurer eux-même leurs sauvegardes - puisque celles fournies par leur administration sont soit déficientes soient très sous-dimensionnées. Et ça fait au moins 10 ans que j'entends régulièrement ce sujet remonter.
Je ne parle pas du manque de VPN (qui est réservé à une partie arbitraire du personnel, ils ont peut être des appliances avec des licences par utilisateur…), du manque de fichiers partagés contourné par de la "synchro" entre appareils où les fonctionnaires s'envoient des mails à eux-même (c'est pas bête, IMAP est un très bon protocole de synchro) et qui saturent les BaLs, etc.
Je ne parle pas du support qui est dans le rectorat auquel je pense de 2 personnels (pour tous les postes de travail et services, hébergés/téléphonie/etc), lol.
Et oui chaque agent a sur son ordi un Windows truffé de logiciels énergivores et mal gaulés qui font ramer au bout d'1 mois n'importe quelle bête de course récente. Les mails peuvent mettre 20min pour aller d'un bureau à l'autre sans sortir du réseau local. Etc.
Et la sécurité… La quoi ?
Je ne sais pas pour les autres administrations, mais à ce stade le débat est à peine Microsoft ou autre chose, il devrait surtout être "est-ce que enfin on met des vraies DSIs et moyens qui évaluent et pourvoient correctement les besoins les plus basiques ?"
Ceci est d'autant plus politique que tous ces agents ont des matériels et outils nettement plus performants chez eux, ça relève donc de la maltraitance de les sous-équiper et de les brimer à ce point.
Voilà, désolé pour le "rant", je nettoyais mon clavier et le coup est parti tout seul.
# Quel montant de soutien ?
Posté par zerodeux (site web personnel) . En réponse à la dépêche Appel à projet libre pour la campagne de mécénat 2022 de Code Lutin. Évalué à 1.
Le formulaire indique bien que Code Lutin participera à hauteur de 10k€ max (c'est conséquent !).
Mais par curiosité, combien a été versé aux projets des années précédentes ? Ca ne semble pas indiqué sur https://www.codelutin.com/contributions.html
# Mauvais hyperliens ?
Posté par zerodeux (site web personnel) . En réponse au journal Des faits saillants pour une plus que centenaire. Évalué à 0.
La plupart des noms de femmes dans ce billet ont des hyperliens vers https://numericoach.net/blabla - c'est très bizarre …