À ce propos, quelles sont les distributions qui existent encore en 32 bits ? J'ai eu besoin d'en utiliser une en 2020 pendant le Covid et j'ai été surpris de voir que ce n'était pas si simple à trouver que ça. J'étais bien content d'avoir une vieille version d'Ubuntu 32 bits gravée sur un vieux CD-Rom (si si) avec un lecteur CD en USB, ça m'a rapidement sorti de la panade.
J'ai commencé avec Debian, puis ArchLinux, et j'utilise maintenant NixOS depuis 2 ans sur mes ordis et serveurs.
Je trouve ça absolument génial. J'ai appris à empaqueter avec le langage nix, ce qui semble très difficile car la doc qu'on trouve est très technique et on ne trouve pour l'instant pas de tutos bien pédagogiques qui te prennent par la main quand tu pars de zéro. Mais une fois qu'on a compris comment ça fonctionne, c'est hyper simple en fait, le langage est très léger, le nombre d'instructions est très réduit et c'est vraiment puissant.
Je n'ai aucun doute que cette distrib va finir par s'imposer sur les serveurs à moyen terme car en gros on a la stabilité de Debian, les mises à jour d'ArchLinux (quasiment), et tout un tas d'autres trucs cools comme :
rollbacks directement depuis le menu du bootloader sans que ça ne réécrive quoi que ce soit
mises à jour auto qui ne s'appliquent qu'au reboot si on veut
protection en lecture seule du store (là où sont stockés tous les binaires) qui fait que même root ne peut pas modifier le contenu
config versionnable, ce qui veut dire qu'on versionne tout son OS avec quelques fichiers textes (assez dingue)
reproductibilité d'une machine à l'autre, donc gain de temps considérable
composition de la config avec des modules : on écrit une fois et on réutilise partout où on en a besoin (je me suis fait 1 module pour chaque logiciel, comme ça je compose ma liste de logiciels selon la machine, et il est déjà tout configuré, j'ai juste un import à faire)
capacité à build la config sur une autre machine et à installer en local le résultat des builds (hyper cool pour les ordis portables : on build tout sur un serveur puissant, et quand c'est terminé il fait un simple copier/coller des binaires en SSH depuis le serveur vers l'ordi portable, pour la batterie c'est top et ça décharge complètement le CPU, donc on peut continuer à travailler tranquillement ; et si un paquet a déjà été build, il va être repris depuis le cache donc il n'y aura qu'un copier/coller, ça mutualise les ressources entre toutes les machines, c'est assez canon)
on peut se créer autant d'environnements qu'on veut, chaque environnement tournant dans un shell isolé : ça permet d'utiliser 10 versions de Python (ou Node.js, ou Firefox, ou n'importe quel logiciel ou bibliothèque) sur la même machine ; méga méga pratique pour le dév, ou quand on travaille avec différents clients ou équipes qui ont chacun des versions différentes. Et bien sûr ça veut dire qu'on peut aussi avoir un environnement avec des variables d'environnement pour chaque projet, avec une config de son IDE pour chaque projet. Tellement pratique.
Je sais que j'oublie encore pas mal de trucs mais ce sont là les éléments qui m'impactent le plus au quotidien.
Dans les inconvénients : si on veut bien maîtriser la distrib (ie. la config et faire ses paquets au besoin), il faut apprendre le langage nix, qui n'est vraiment pas compliqué du tout. Ce qui est difficile pour l'instant c'est de comprendre comment fonctionne la distrib et comment nix fonctionne avec tout ça. En fait c'est juste un manque de doc pédagogique. À part ça j'ai franchement du mal à lui trouver un réel inconvénient. Peut être la communauté qui reste encore réduite, mais quand j'ai vu en 2 ans la croissance du nombre de participants des conférences NixOS au FOSDEM, j'ai compris que c'était la distrib qui allait tout défoncer ces prochaines années.
Mieux que ça, TheTrainLine permet surtout de comparer les différents concurrents (qui sont en train d'arriver de plus en plus en France) avec la SNCF. Et ça marche pour toute l'Europe aussi si je me souviens bien. Donc utiliser le site de la SNCF seul n'a plus trop de sens selon moi, sauf à vraiment vouloir utiliser uniquement la SNCF.
Qui réserve vraiment un vol d'avion sur le site d'une compagnie aérienne particulière ? En général on utilise plutôt des comparateurs de prix, et c'est ce que propose TheTrainLine pour les trains.
A noter que TheTrainLine prend bien en compte les cartes de réductions si on lui donne l'info, et il compare bien les tarifs en prenant en compte les réductions. C'est vraiment bien foutu.
Le problème c'est l’impossibilité de récupérer quoi que ce soit quand votre compte est désactivé par des systèmes automatisés.
Je n'avais jamais pensé à ça !
Ce qui m'a toujours fait peur avec le cloud, c'est :
la perte de données à cause de problèmes divers (cf. l'incendie d'OVH par exemple), mais AWS ou GCP sont plutôt bons sur la redondance de données, donc le risque est relativement limité, surtout si on fait des sauvegardes correctes ;
des attaques qui pourraient modifier/détruire l'infrastructure et/ou les données, mais globalement je pense que c'est plus sécurisé qu'une infra gérée totalement par soi-même, donc ça me semble être un faux problème ;
l'espionnage industriel divers et varié (cf. la NSA qui a des accès directs aux serveurs de Microsoft depuis très longtemps et qui utilise un certain nombre de données pour indiquer aux grandes entreprises américaines quelle stratégie à adopter pour contrecarrer par exemple Airbus, ou autres). C'est un risque réel, mais pas forcément toujours pertinent. Si l'on vend des cartouches d'imprimantes, il n'y a pas forcément beaucoup de choses à espionner ;
le retrait d'un ou plusieurs services avec 2~4 semaines pour tout rapatrier (ça s'est vu plein de fois, notamment quand Apple a racheté du jour au lendemain des services en ligne qui ont été suspendus d'un coup).
Mais je me rends compte que pour tout ce qui est perte de données, d'infra et retrait de services, la plus grosse menace n'est pas l'incendie ou le retrait rapide, mais la suspension du compte en 1 seconde !! Ça veut dire qu'une entreprise qui aurait mis toute son infra + applis + données dans un cloud pourrait d'une seconde à l'autre perdre l'accès à tout ça. Si on est un service 100 % en ligne et qu'il n'y a pas d'infrastructure sur un autre cloud (ou en interne), ça peut signifier la mort de l'entreprise en quelques jours !
J'ai l'impression d'avoir avalé la pilule rouge d'un coup là 😅
Je sentais bien qu'il y avait une douille avec le cloud… Maintenant je sais.
Le problème du rendu côté client vient du fait qu'on balance des montagnes de données au client car les dévs front :
- pensent que coder avec un framework c'est plus simple (si on fait tout le temps le même type de projets qui se ressemblent énormément oui, si c'est pour un projet unique non) ;
- ont des contraintes techniques que leur manager (ou le client) leur impose ("On a pris React parce que tout le monde utilise ça, donc c'est forcément bien, c'est l'état de l'art" ou "Parce que ça a été développé par Meta donc c'est robuste") ;
- parce qu'ils s'en foutent que ton navigateur doive digérer 500 Ko ou 50 Mo de données ; passer de 50 Mo à 30 Mo pourquoi pas si ça leur prend pas trop de temps, mais faudrait pas non plus passer trop de temps à faire les choses bien (par flemme ou à cause de la pression du projet).
Si maintenant on fait du rendu côté serveur, on va se retrouver avec des dizaines de milliers de paquets npm lourdingues sur le serveur (spoiler : c'est déjà le cas), ce qui implique de mettre plus de serveurs pour absorber la charge avec tous les problèmes que ça comporte (ce qui fait pas mal de boulot en plus pour la maintenance), mais surtout ça ne va strictement rien changer à ce qu'on envoie au client. J'ai passé assez de temps dans l'écosystème webdev pour savoir qu'on continuera à balancer des dizaines de Mo au client parce que "on se prend moins la tête" et que ça n'a rien à voir avec le fait de faire du rendu côté client ou serveur.
Remarque en passant : j'ai l'impression que tous les 10 ans on revient à ce qui était fait 20 ans plus tôt en nous présentant ça comme la solution à tous nos problèmes pour ne pas travailler sur le problème de fond qui est que si on veut faire un truc performant et bien fait, ça demande du temps et du travail et qu'aucun framework ne viendra faire ça à notre place.
Question car je n'ai pas lu le RGPD de A à Z (c'est un peu long et prise de tête) et que je n'ai jusqu'ici pas vu un tel cas : serait-il légal de mettre une case à cocher (en opt-in) disant quelque chose comme :
"Je souhaite étendre le délai de non suppression de mon compte à 10 ans à partir du moment où il devient inactif"
au lieu des 3 ans légaux ?
Autrement dit, est-ce qu'on peut déroger au RGPD à partir du moment où c'est un consentement donné et demandé par l'utilisateur lui-même ?
Je ne dis pas que ça serait une bonne chose à faire, je suis juste curieux de savoir si c'est possible légalement parlant.
Cela fait plusieurs années maintenant que j'utilise Seafile et c'est vraiment le feu. À l'époque j'avais testé plusieurs outils, dont les grands clouds grand public comme Amazon Cloud (depuis disparu), Google Drive, Dropbox, etc., et toutes ces solutions étaient très mauvaises au niveau des performances, sans compter souvent le manque de support pour Linux (Dropbox tire particulièrement bien son épingle du jeu sur ce point par rapport aux autres).
Je m'étais arrêté sur Nextcloud, mais après avoir vu plusieurs fois disparaître mes fichiers, remonté le bug très sérieusement avec beaucoup d'implication et de logs, et constaté que l'équipe s'en foutait royalement, j'ai dû trouver autre chose.
Pour les rapports de bugs en question, c'est par ici et par là.
J'ai fini par tomber sur Seafile et 😱 OMG quelle révolution !! Porté sur Windows, Linux, MacOS, Android et iOS, ultra performant, open source libre (pour l'édition Communautaire qui est largement suffisante pour beaucoup de monde), performances de dingue, simple tant dans sa configuration (avec un manuel bien détaillé) que dans son utilisation (grâce au concept des bibliothèques), et surtout sans réels bugs, c'est à l'opposé de ce que j'ai connu avec Nextcloud qui veut tout faire et ne fait du coup pas les choses si bien que ça. Ce qui prenait 6h à synchroniser sous Nextcloud prend 10 min sous Seafile, montre en main, je n'exagère pas (et encore pire avec les clouds grand public).
Je n'ai aucun intérêt dans ce logiciel, j'ai juste envie de partager l'info et de le faire connaître car c'est vraiment une solution de qualité et j'aurais aimé tomber dessus plus tôt. Donc j'espère que ça permettra à d'autres d'en profiter également.
Ça ne serait pas la première fois qu'on verrait des bugs ou des lenteurs à cause de ça sur un système ou un réseau. Ça vaut clairement la peine de tester. Non pas que ce soit une solution en soi mais ça pourrait peut être aider à isoler l'origine du problème.
Mozilla a successivement eu 3 APIs différentes pour les addons de Firefox et Thunderbird.
Conclusion qu'ils en ont tiré : à chaque changement, ils ont perdu énormément de parts de marché, donc aujourd'hui ils ne veulent plus changer d'API.
Ceci dit ils ne de toute façon plus beaucoup de parts de marché à perdre, alors foutu pour foutu…
Je me souviens à l'époque où les informaticiens libristes les plus convaincus autour de moi installaient Chrome partout où ils pouvaient, pour eux-mêmes, pour leur sœur, copine, parents, cousins,…
Et voici un échange type que j'avais avec eux :
"Moi : Mais pourquoi tu installes Chrome ? C'est Google derrière.
Lui : Oui mais il est vachement plus rapide que Firefox, et c'est du libre/open source, donc on sait ce que fait le code de toute façon.
Moi : Oui mais s'ils deviennent la référence parmi les navigateurs, ils nous la mettront à l'envers.
Lui : Nan mais pfff, t'es parano…".
Voilà, aujourd'hui on y est.
Maintenant on fait quoi ?
Le but d'un article, c'est quand même de résumer les choses un minimum pour savoir de quoi on parle exactement. Quitte ensuite effectivement à aller approfondir le sujet avec les liens fournis. Mais en l'occurrence il n'explique pas en quoi cette proposition d'API pose problème par rapport à la situation actuelle, on est obligé d'aller voir les liens pour comprendre ça. Du coup ça revient à mon propos initial : l'article en tant que tel n'apporte pas grand-chose. Et je trouve ça dommage.
Je dis que cet article (cf. le titre de mon commentaire initial) ne présente pas les choses de façon suffisamment claire et complète pour qu'on comprenne bien en quoi cette API pose (ou pas) problème.
Avec les moyens actuels, on peut savoir si l'utilisateur n'a pas interagit avec la page récemment (via les propriétés comme onmousemove) et on peut savoir si l'onglet n'est plus actif (économiseur d'écran actif ou navigateur réduit, sans distinction), mais on ne sait pas si cet état d'inactivité signifie que l'utilisateur est actif sur une autre application (donc toujours devant son écran en train de travailler mais plus sur l'onglet web) ou s'il est parti prendre une pause et que sa machine est bien inactive (économiseur d'écran actif par exemple).
Ce qu'apporte cette API, c'est de pouvoir faire cette distinction. Savoir si c'est la session de l'OS qui est active/inactive, plutôt que juste l'onglet du site web. Ça permet de surveiller l'état d'activité/d'inactivité d'un poste de travail depuis l'onglet d'un navigateur plutôt que juste l'inactivité de l'onglet web.
C'est un vrai problème de confidentialité, et c'est dommage que l'article se contente de pousser des cris d'orfraie sans expliquer réellement la différence de fonctionnement avec les outils qui existent déjà. C'est en cela que je trouve que cet article n'est pas très utile.
Franchement, je ne comprends ni l'intérêt de cet article, ni les commentaires.
Suis-je le seul à avoir entendu parler de services comme Inspectlet qui permettent d'enregistrer 100 % de ce que vous faites sur un site web (mouvements de souris, déplacements sur la page, frappes au clavier, heatmaps,…) et utilisés par tous les plus grands sites webs ?
Suis-je le seul à connaître la propriété document.body.onmousemove en JavaScript ?
On a déjà tout ce qu'il faut pour faire 100 fois pire que cette API "Idle Detection" avec les outils actuels. En fait, on peut déjà la faire depuis des lustres. L'avantage de cette API, c'est de bien délimiter le cas d'usage et d'imposer des limites lorsqu'on l'utilise. Ça a le mérite de clarifier les choses. Techniquement, on n'en a absolument pas besoin, car je le redis : on peut déjà le faire avec les standards actuels (et c'est franchement pas compliqué). Cette API est au mieux une amélioration de ce qui existe déjà, au pire inutile.
Franchement, flipper sur cette proposition d'API, c'est montrer à quel point on est ignorant de ce qui existe déjà depuis des années sur les sites webs qu'on utilise tous les jours et à quel point on est en retard sur les possibilités techniques de la surveillance actuellement.
Si vous n'êtes pas convaincus, amusez-vous 20 secondes avec la démo d'Inspectlet, vous verrez par vous-mêmes :
Pour l'administration d'un serveur, je crois que le top du top est NixOS. C'est une distrib qui est en train de prendre de l'ampleur et pour l'avoir essayée je pense que ça va continuer. Dès que j'ai un moment je passe mon serveur dessus. C'est peut être le moment pour un certain nombre d'administrateurs de s'y mettre, ou au moins de l'essayer.
Nextcloud qui semble royalement ignorer un bug critique depuis plus de 2 ans (le client de synchronisation supprime aléatoirement des répertoires entiers côté client et personne ne comprend pourquoi), malgré les cris d'orfraie de certains utilisateurs (dont moi-même) depuis tout ce temps pour les avertir que c'est une raison qui pousse les utilisateurs vers d'autres solutions : https://github.com/nextcloud/desktop/issues/260
Lorsque j'ai demandé à rouvrir un ticket lié à ce bug ce problème de conception il y a 2 ans pour travailler dessus, on m'a ignoré, puis demandé de m'assurer que mon client était à jour, puis ignoré.
Pour ma part, je suis allé tester d'autres solutions et j'ai rapidement jeté mon dévolu sur Seafile qui a changé ma vie. Ca fait moins de choses que Nextcloud, mais ça le fait parfaitement, avec une approche par commits à la git/à la CouchDB, ce qui fait qu'on garde toutes les versions d'un fichier (+ la corbeille pendant X jours si on supprime).
Mais le pire, ce n'est pas tant ce problème de conception affreux qui a posé problème, c'est la façon dont l'équipe officielle (et notamment le co-fondateur) réagit à ce problème. Ils semblent considérer ça comme un bug parmi d'autres, plutôt bénin, absolument pas prioritaire, et rien de sérieux n'a été entrepris dessus. Du coup je me dis que s'ils gèrent leurs équipes de la même façon que leurs utilisateurs, c'est peut être pas étonnant qu'on en arrive à de tels problèmes de conception.
Nextcloud m'a perdu au profit de Seafile et une chose est certaine : je ne reviendrai pas en arrière, pas tant à cause du bug en tant que tel qui rendait leur solution inutilisable dans mon cas, mais surtout à cause de la façon qu'ils ont eu de (ne pas) gérer le problème. S'ils avaient dit "OK c'est vrai que c'est critique, on va bosser dessus en priorité", j'aurais non seulement attendu patiemment d'avoir le patch même s'il avait fallut attendre longtemps, mais j'aurais aussi aidé à débugguer tout le truc. Leur réaction m'a poussé à aller voir ailleurs et pour de bon. Comme quoi les "soft skills", ça compte (aussi) beaucoup, notamment dans la gestion de projet (et dans la communication, ça va sans dire).
Quelles sont les différences d'un point de vue fonctionnel entre Root As Role et les systèmes de Mandatory Access Control (comme SELinux ou AppArmor) ? Les avantages de l'un par rapport à l'autre, ou si ça n'a rien à voir, en quoi c'est fondamentalement différent ?
[^] # Re: ?
Posté par cluxter . En réponse au journal Après la boutique des JO, c'est au tour de la banque, et d'ici dix ans..de tout le reste?. Évalué à 1 (+0/-0).
Ah d’accord, merci pour l’explication, comme ça je saurai à l’avenir :)
[^] # ?
Posté par cluxter . En réponse au journal Après la boutique des JO, c'est au tour de la banque, et d'ici dix ans..de tout le reste?. Évalué à 1 (+0/-0).
Un commentaire à +10 supprimé par l'équipe de modération ? Est-ce que je peux demander pourquoi, ou on va aussi me modérer ?
[^] # Re: Faut aussi voir les versions
Posté par cluxter . En réponse au journal Alerte rouge! RCE dans opensshd. Évalué à 1.
À ce propos, quelles sont les distributions qui existent encore en 32 bits ? J'ai eu besoin d'en utiliser une en 2020 pendant le Covid et j'ai été surpris de voir que ce n'était pas si simple à trouver que ça. J'étais bien content d'avoir une vieille version d'Ubuntu 32 bits gravée sur un vieux CD-Rom (si si) avec un lecteur CD en USB, ça m'a rapidement sorti de la panade.
[^] # Re: En plus, il n'est pas nécessaire de remplacer sa distrib pour le tester
Posté par cluxter . En réponse au journal Nixos la distribution reproductible et déclaratif. . Évalué à 3.
J'ai commencé avec Debian, puis ArchLinux, et j'utilise maintenant NixOS depuis 2 ans sur mes ordis et serveurs.
Je trouve ça absolument génial. J'ai appris à empaqueter avec le langage nix, ce qui semble très difficile car la doc qu'on trouve est très technique et on ne trouve pour l'instant pas de tutos bien pédagogiques qui te prennent par la main quand tu pars de zéro. Mais une fois qu'on a compris comment ça fonctionne, c'est hyper simple en fait, le langage est très léger, le nombre d'instructions est très réduit et c'est vraiment puissant.
Je n'ai aucun doute que cette distrib va finir par s'imposer sur les serveurs à moyen terme car en gros on a la stabilité de Debian, les mises à jour d'ArchLinux (quasiment), et tout un tas d'autres trucs cools comme :
Je sais que j'oublie encore pas mal de trucs mais ce sont là les éléments qui m'impactent le plus au quotidien.
Dans les inconvénients : si on veut bien maîtriser la distrib (ie. la config et faire ses paquets au besoin), il faut apprendre le langage nix, qui n'est vraiment pas compliqué du tout. Ce qui est difficile pour l'instant c'est de comprendre comment fonctionne la distrib et comment nix fonctionne avec tout ça. En fait c'est juste un manque de doc pédagogique. À part ça j'ai franchement du mal à lui trouver un réel inconvénient. Peut être la communauté qui reste encore réduite, mais quand j'ai vu en 2 ans la croissance du nombre de participants des conférences NixOS au FOSDEM, j'ai compris que c'était la distrib qui allait tout défoncer ces prochaines années.
[^] # Re: Le mieux...
Posté par cluxter . En réponse au journal Le web, c'était mieux avant. Évalué à 1.
Mieux que ça, TheTrainLine permet surtout de comparer les différents concurrents (qui sont en train d'arriver de plus en plus en France) avec la SNCF. Et ça marche pour toute l'Europe aussi si je me souviens bien. Donc utiliser le site de la SNCF seul n'a plus trop de sens selon moi, sauf à vraiment vouloir utiliser uniquement la SNCF.
Qui réserve vraiment un vol d'avion sur le site d'une compagnie aérienne particulière ? En général on utilise plutôt des comparateurs de prix, et c'est ce que propose TheTrainLine pour les trains.
A noter que TheTrainLine prend bien en compte les cartes de réductions si on lui donne l'info, et il compare bien les tarifs en prenant en compte les réductions. C'est vraiment bien foutu.
[^] # Re: Merci pour cette info: suppression/suspension arbitraire
Posté par cluxter . En réponse au journal Gandi, passe de « no bullshit » à « bait and switch » ?. Évalué à 1.
Pour ton adresse e-mail, si tu as ton propre nom de domaine, est-ce que ça ne peut pas résoudre le problème ?
# Merci pour cette info
Posté par cluxter . En réponse au journal Gandi, passe de « no bullshit » à « bait and switch » ?. Évalué à 4. Dernière modification le 08 juillet 2023 à 18:14.
Je n'avais jamais pensé à ça !
Ce qui m'a toujours fait peur avec le cloud, c'est :
la perte de données à cause de problèmes divers (cf. l'incendie d'OVH par exemple), mais AWS ou GCP sont plutôt bons sur la redondance de données, donc le risque est relativement limité, surtout si on fait des sauvegardes correctes ;
des attaques qui pourraient modifier/détruire l'infrastructure et/ou les données, mais globalement je pense que c'est plus sécurisé qu'une infra gérée totalement par soi-même, donc ça me semble être un faux problème ;
l'espionnage industriel divers et varié (cf. la NSA qui a des accès directs aux serveurs de Microsoft depuis très longtemps et qui utilise un certain nombre de données pour indiquer aux grandes entreprises américaines quelle stratégie à adopter pour contrecarrer par exemple Airbus, ou autres). C'est un risque réel, mais pas forcément toujours pertinent. Si l'on vend des cartouches d'imprimantes, il n'y a pas forcément beaucoup de choses à espionner ;
le retrait d'un ou plusieurs services avec 2~4 semaines pour tout rapatrier (ça s'est vu plein de fois, notamment quand Apple a racheté du jour au lendemain des services en ligne qui ont été suspendus d'un coup).
Mais je me rends compte que pour tout ce qui est perte de données, d'infra et retrait de services, la plus grosse menace n'est pas l'incendie ou le retrait rapide, mais la suspension du compte en 1 seconde !! Ça veut dire qu'une entreprise qui aurait mis toute son infra + applis + données dans un cloud pourrait d'une seconde à l'autre perdre l'accès à tout ça. Si on est un service 100 % en ligne et qu'il n'y a pas d'infrastructure sur un autre cloud (ou en interne), ça peut signifier la mort de l'entreprise en quelques jours !
J'ai l'impression d'avoir avalé la pilule rouge d'un coup là 😅
Je sentais bien qu'il y avait une douille avec le cloud… Maintenant je sais.
[^] # Re: Pourquoi chercher les tracés ?
Posté par cluxter . En réponse au journal Isochrones de transports en commun. Évalué à 1.
Si c'est facile à mettre en œuvre, pourquoi ne pas inclure une option dans l'interface pour passer d'un mode à l'autre ?
[^] # Re: \o/
Posté par cluxter . En réponse à la dépêche Cent mille dollars pour un navigateur. Évalué à 8.
Le problème du rendu côté client vient du fait qu'on balance des montagnes de données au client car les dévs front :
- pensent que coder avec un framework c'est plus simple (si on fait tout le temps le même type de projets qui se ressemblent énormément oui, si c'est pour un projet unique non) ;
- ont des contraintes techniques que leur manager (ou le client) leur impose ("On a pris React parce que tout le monde utilise ça, donc c'est forcément bien, c'est l'état de l'art" ou "Parce que ça a été développé par Meta donc c'est robuste") ;
- parce qu'ils s'en foutent que ton navigateur doive digérer 500 Ko ou 50 Mo de données ; passer de 50 Mo à 30 Mo pourquoi pas si ça leur prend pas trop de temps, mais faudrait pas non plus passer trop de temps à faire les choses bien (par flemme ou à cause de la pression du projet).
Si maintenant on fait du rendu côté serveur, on va se retrouver avec des dizaines de milliers de paquets npm lourdingues sur le serveur (spoiler : c'est déjà le cas), ce qui implique de mettre plus de serveurs pour absorber la charge avec tous les problèmes que ça comporte (ce qui fait pas mal de boulot en plus pour la maintenance), mais surtout ça ne va strictement rien changer à ce qu'on envoie au client. J'ai passé assez de temps dans l'écosystème webdev pour savoir qu'on continuera à balancer des dizaines de Mo au client parce que "on se prend moins la tête" et que ça n'a rien à voir avec le fait de faire du rendu côté client ou serveur.
Remarque en passant : j'ai l'impression que tous les 10 ans on revient à ce qui était fait 20 ans plus tôt en nous présentant ça comme la solution à tous nos problèmes pour ne pas travailler sur le problème de fond qui est que si on veut faire un truc performant et bien fait, ça demande du temps et du travail et qu'aucun framework ne viendra faire ça à notre place.
# Et si on veut davantage ?
Posté par cluxter . En réponse à la dépêche Règles de pérennité des comptes LinuxFr.org et données à caractère personnel. Évalué à 4.
Question car je n'ai pas lu le RGPD de A à Z (c'est un peu long et prise de tête) et que je n'ai jusqu'ici pas vu un tel cas : serait-il légal de mettre une case à cocher (en opt-in) disant quelque chose comme :
"Je souhaite étendre le délai de non suppression de mon compte à 10 ans à partir du moment où il devient inactif"
au lieu des 3 ans légaux ?
Autrement dit, est-ce qu'on peut déroger au RGPD à partir du moment où c'est un consentement donné et demandé par l'utilisateur lui-même ?
Je ne dis pas que ça serait une bonne chose à faire, je suis juste curieux de savoir si c'est possible légalement parlant.
# Développeurman
Posté par cluxter . En réponse au sondage Quel mot de franglais vous horripile le plus ?. Évalué à 4.
Le Lead Dev et le Tech Lead, on en parle ?
# Super !
Posté par cluxter . En réponse à la dépêche Seafform version 0.6 (formulaires intégrés avec Seafile). Évalué à 7.
Merci beaucoup pour ce partage !
Cela fait plusieurs années maintenant que j'utilise Seafile et c'est vraiment le feu. À l'époque j'avais testé plusieurs outils, dont les grands clouds grand public comme Amazon Cloud (depuis disparu), Google Drive, Dropbox, etc., et toutes ces solutions étaient très mauvaises au niveau des performances, sans compter souvent le manque de support pour Linux (Dropbox tire particulièrement bien son épingle du jeu sur ce point par rapport aux autres).
Je m'étais arrêté sur Nextcloud, mais après avoir vu plusieurs fois disparaître mes fichiers, remonté le bug très sérieusement avec beaucoup d'implication et de logs, et constaté que l'équipe s'en foutait royalement, j'ai dû trouver autre chose.
Pour les rapports de bugs en question, c'est par ici et par là.
J'ai fini par tomber sur Seafile et 😱 OMG quelle révolution !! Porté sur Windows, Linux, MacOS, Android et iOS, ultra performant, open source libre (pour l'édition Communautaire qui est largement suffisante pour beaucoup de monde), performances de dingue, simple tant dans sa configuration (avec un manuel bien détaillé) que dans son utilisation (grâce au concept des bibliothèques), et surtout sans réels bugs, c'est à l'opposé de ce que j'ai connu avec Nextcloud qui veut tout faire et ne fait du coup pas les choses si bien que ça. Ce qui prenait 6h à synchroniser sous Nextcloud prend 10 min sous Seafile, montre en main, je n'exagère pas (et encore pire avec les clouds grand public).
Je n'ai aucun intérêt dans ce logiciel, j'ai juste envie de partager l'info et de le faire connaître car c'est vraiment une solution de qualité et j'aurais aimé tomber dessus plus tôt. Donc j'espère que ça permettra à d'autres d'en profiter également.
# IPv6 ?
Posté par cluxter . En réponse au journal La fibre orange hoquette ... ou comment devenir fou.. Évalué à 2.
En désactivant IPv6, ça donne quoi ?
Ça ne serait pas la première fois qu'on verrait des bugs ou des lenteurs à cause de ça sur un système ou un réseau. Ça vaut clairement la peine de tester. Non pas que ce soit une solution en soi mais ça pourrait peut être aider à isoler l'origine du problème.
# Clavier
Posté par cluxter . En réponse à la dépêche L’ordinateur portable modulaire : La lumière au bout du tunnel. Évalué à 2.
Un clavier façon ThinkPad avec un TrackPoint au milieu, ça serait génial.
Si on peut mettre des touches mécaniques, c'est encore plus fou.
[^] # Re: implémentation non respectueuse du standard mais respectueuse des utilisateurs ?
Posté par cluxter . En réponse au journal Manifest V3 pour les extensions de navigateurs. Évalué à 2.
Mozilla a successivement eu 3 APIs différentes pour les addons de Firefox et Thunderbird.
Conclusion qu'ils en ont tiré : à chaque changement, ils ont perdu énormément de parts de marché, donc aujourd'hui ils ne veulent plus changer d'API.
Ceci dit ils ne de toute façon plus beaucoup de parts de marché à perdre, alors foutu pour foutu…
# Ah, Google...
Posté par cluxter . En réponse au journal Manifest V3 pour les extensions de navigateurs. Évalué à 4.
Je me souviens à l'époque où les informaticiens libristes les plus convaincus autour de moi installaient Chrome partout où ils pouvaient, pour eux-mêmes, pour leur sœur, copine, parents, cousins,…
Et voici un échange type que j'avais avec eux :
"Moi : Mais pourquoi tu installes Chrome ? C'est Google derrière.
Lui : Oui mais il est vachement plus rapide que Firefox, et c'est du libre/open source, donc on sait ce que fait le code de toute façon.
Moi : Oui mais s'ils deviennent la référence parmi les navigateurs, ils nous la mettront à l'envers.
Lui : Nan mais pfff, t'es parano…".
Voilà, aujourd'hui on y est.
Maintenant on fait quoi ?
# QNAP c'est mauvais
Posté par cluxter . En réponse au journal Testez vos sauvegardes !. Évalué à 1.
J'avais un NAS QNAP, le TS-201, et j'avais trouvé des failles de sécurité assez criantes, ainsi que plein de bugs en utilisant leurs outils.
Plus jamais de QNAP pour ma part depuis cette expérience.
[^] # Re: Article pas très utile
Posté par cluxter . En réponse au journal Détection d'inactivité dans Google Chrome. Évalué à 0.
Le but d'un article, c'est quand même de résumer les choses un minimum pour savoir de quoi on parle exactement. Quitte ensuite effectivement à aller approfondir le sujet avec les liens fournis. Mais en l'occurrence il n'explique pas en quoi cette proposition d'API pose problème par rapport à la situation actuelle, on est obligé d'aller voir les liens pour comprendre ça. Du coup ça revient à mon propos initial : l'article en tant que tel n'apporte pas grand-chose. Et je trouve ça dommage.
[^] # Re: Article pas très utile
Posté par cluxter . En réponse au journal Détection d'inactivité dans Google Chrome. Évalué à 2.
Je ne dis ni l'un ni l'autre.
Je dis que cet article (cf. le titre de mon commentaire initial) ne présente pas les choses de façon suffisamment claire et complète pour qu'on comprenne bien en quoi cette API pose (ou pas) problème.
Avec les moyens actuels, on peut savoir si l'utilisateur n'a pas interagit avec la page récemment (via les propriétés comme
onmousemove
) et on peut savoir si l'onglet n'est plus actif (économiseur d'écran actif ou navigateur réduit, sans distinction), mais on ne sait pas si cet état d'inactivité signifie que l'utilisateur est actif sur une autre application (donc toujours devant son écran en train de travailler mais plus sur l'onglet web) ou s'il est parti prendre une pause et que sa machine est bien inactive (économiseur d'écran actif par exemple).Ce qu'apporte cette API, c'est de pouvoir faire cette distinction. Savoir si c'est la session de l'OS qui est active/inactive, plutôt que juste l'onglet du site web. Ça permet de surveiller l'état d'activité/d'inactivité d'un poste de travail depuis l'onglet d'un navigateur plutôt que juste l'inactivité de l'onglet web.
C'est un vrai problème de confidentialité, et c'est dommage que l'article se contente de pousser des cris d'orfraie sans expliquer réellement la différence de fonctionnement avec les outils qui existent déjà. C'est en cela que je trouve que cet article n'est pas très utile.
# Article pas très utile
Posté par cluxter . En réponse au journal Détection d'inactivité dans Google Chrome. Évalué à 1.
Franchement, je ne comprends ni l'intérêt de cet article, ni les commentaires.
Suis-je le seul à avoir entendu parler de services comme Inspectlet qui permettent d'enregistrer 100 % de ce que vous faites sur un site web (mouvements de souris, déplacements sur la page, frappes au clavier, heatmaps,…) et utilisés par tous les plus grands sites webs ?
Suis-je le seul à connaître la propriété
document.body.onmousemove
en JavaScript ?On a déjà tout ce qu'il faut pour faire 100 fois pire que cette API "Idle Detection" avec les outils actuels. En fait, on peut déjà la faire depuis des lustres. L'avantage de cette API, c'est de bien délimiter le cas d'usage et d'imposer des limites lorsqu'on l'utilise. Ça a le mérite de clarifier les choses. Techniquement, on n'en a absolument pas besoin, car je le redis : on peut déjà le faire avec les standards actuels (et c'est franchement pas compliqué). Cette API est au mieux une amélioration de ce qui existe déjà, au pire inutile.
Franchement, flipper sur cette proposition d'API, c'est montrer à quel point on est ignorant de ce qui existe déjà depuis des années sur les sites webs qu'on utilise tous les jours et à quel point on est en retard sur les possibilités techniques de la surveillance actuellement.
Si vous n'êtes pas convaincus, amusez-vous 20 secondes avec la démo d'Inspectlet, vous verrez par vous-mêmes :
https://www.inspectlet.com/hello/capturedemo
Et ça n'est même pas le meilleur dans son domaine.
# NixOS
Posté par cluxter . En réponse à la dépêche CentOS se saborde‑t‑elle ?. Évalué à 1.
Pour l'administration d'un serveur, je crois que le top du top est NixOS. C'est une distrib qui est en train de prendre de l'ampleur et pour l'avoir essayée je pense que ça va continuer. Dès que j'ai un moment je passe mon serveur dessus. C'est peut être le moment pour un certain nombre d'administrateurs de s'y mettre, ou au moins de l'essayer.
# Nextcloud
Posté par cluxter . En réponse à la dépêche Bogues de logiciel et bogues de management : 737 Max et autres catastrophes. Évalué à 5.
Nextcloud qui semble royalement ignorer un bug critique depuis plus de 2 ans (le client de synchronisation supprime aléatoirement des répertoires entiers côté client et personne ne comprend pourquoi), malgré les cris d'orfraie de certains utilisateurs (dont moi-même) depuis tout ce temps pour les avertir que c'est une raison qui pousse les utilisateurs vers d'autres solutions : https://github.com/nextcloud/desktop/issues/260
Lorsque j'ai demandé à rouvrir un ticket lié à
ce bugce problème de conception il y a 2 ans pour travailler dessus, on m'a ignoré, puis demandé de m'assurer que mon client était à jour, puis ignoré.Pour ma part, je suis allé tester d'autres solutions et j'ai rapidement jeté mon dévolu sur Seafile qui a changé ma vie. Ca fait moins de choses que Nextcloud, mais ça le fait parfaitement, avec une approche par commits à la git/à la CouchDB, ce qui fait qu'on garde toutes les versions d'un fichier (+ la corbeille pendant X jours si on supprime).
Mais le pire, ce n'est pas tant ce problème de conception affreux qui a posé problème, c'est la façon dont l'équipe officielle (et notamment le co-fondateur) réagit à ce problème. Ils semblent considérer ça comme un bug parmi d'autres, plutôt bénin, absolument pas prioritaire, et rien de sérieux n'a été entrepris dessus. Du coup je me dis que s'ils gèrent leurs équipes de la même façon que leurs utilisateurs, c'est peut être pas étonnant qu'on en arrive à de tels problèmes de conception.
Nextcloud m'a perdu au profit de Seafile et une chose est certaine : je ne reviendrai pas en arrière, pas tant à cause du bug en tant que tel qui rendait leur solution inutilisable dans mon cas, mais surtout à cause de la façon qu'ils ont eu de (ne pas) gérer le problème. S'ils avaient dit "OK c'est vrai que c'est critique, on va bosser dessus en priorité", j'aurais non seulement attendu patiemment d'avoir le patch même s'il avait fallut attendre longtemps, mais j'aurais aussi aidé à débugguer tout le truc. Leur réaction m'a poussé à aller voir ailleurs et pour de bon. Comme quoi les "soft skills", ça compte (aussi) beaucoup, notamment dans la gestion de projet (et dans la communication, ça va sans dire).
[^] # Re: Un mot
Posté par cluxter . En réponse à la dépêche Une victoire de l’éthique dans une guerre économique. Évalué à 2.
Et au Québec, ils ont un mot ? Car en général ils sont bien meilleurs qu'en France pour trouver de nouveaux mots et faire vivre la langue française.
Des lecteurs Québécois parmi nous ? ;)
# Un mot
Posté par cluxter . En réponse à la dépêche Une victoire de l’éthique dans une guerre économique. Évalué à 1.
Et « ducker » par vous-même ?
Juste une proposition.
# RAR vs MAC ?
Posté par cluxter . En réponse à la dépêche Version 2 du RootAsRole : se passer des commandes sudo et su sous GNU/Linux. Évalué à 2.
Quelles sont les différences d'un point de vue fonctionnel entre Root As Role et les systèmes de Mandatory Access Control (comme SELinux ou AppArmor) ? Les avantages de l'un par rapport à l'autre, ou si ça n'a rien à voir, en quoi c'est fondamentalement différent ?
Merci