Journal Fin des résultats directs sans Javascript sur Google

Posté par  . Licence CC By‑SA.
Étiquettes :
44
17
jan.
2021

Bonjour, nal, je te présente un travail inédit que j'ai fait sur le comportement des recherches sur Google en mode « low-tech », qui a changé tout récemment.

Ça fait pas mal d'années que j'utilise Google en mode très simple pour ne pas avoir à me taper le traçage qu'il implique quand on clique sur les liens. En effet, dans la version standard que tout le monde utilise de Google, tout un tas de Javascript vous fait voir et croire plein de trucs : l'URL affichée en haut est celle « historique » (/search) avec un paramètre simple du contenu de la recherche « q=… », tel que Google a toujours été depuis sa création, et les liens que vous voyez quand vous survolez les résultats sont les URL menant soit-disant directement au site. Bref, tout a l'air simple, comme à l'origine, où Google était vanté pour sa simplicité et son absence de publicité intrusive (ça fait vieux crouton de rappeler ça, je sais).

Sauf que quand vous regardez ce qu'il se passe derrière… et bien ça n'est pas du tout joli : déjà, essayer de comprendre les mécanismes impliqués côté client dans ce moteur de recherche ressemble à du reverse-engineering de haut-vol (presque tout est obfusqué, ça utilise des bidouilles dans tous les sens, etc), et c'est une gageure. Je n'ai pas creusé à fond parce que ça ne m'intéresse pas et c'est trop chronophage, mais sachez que la resource récupérée lors de la recherche n'est pas exactement celle indiquée dans l'URL, mais une version avec des liens de « traçage », qui exécute un Javascript lorsque vous cliquez sur un résultat de recherche à des fin de statistiques, je suppose, mais tout ça en vous faisant croire que non (la page chargée a les liens de traçage, du JS remet le lien d'origine mais ajoute un callback qui intercepte le clic pour le remettre au moment où vous cliquez ; c'est vicieux…). Ça se trouve, ce code fait plein d'autres choses comme surveiller vos déplacements de souris et chronométrer tous vos gestes, je ne sais pas, ça ne m'intéresse pas.

En effet, je navigue sans Javascript sur la plupart des sites, dont Google. Or, Google n'étant pas bégueule, et ayant historiquement une grande estime pour la rétro-compatibilité avec les logiciels du Web les plus antédiluviens (c'est à ça qu'on reconnaît des bon devs, il faut l'avouer), ils ont toujours servi — lors d'une consultation d'une page de recherche simple — des liens directs vers les résultats, sans traçage ! Bon, cependant, il y a un piège : cette page contient au sein de la balise noscript du corps, interprétée par les navigateurs n'activant pas Javascript, un balise (théoriquement réservée à l'en-tête, mais avec HTML on n'est pas à une bidouille près) meta indiquant un équivalent à l'en-tête HTTP refresh valant 0, indiquant au navigateur d'aller immédiatement vers une autre URL… qui sert un page avec des liens de traçage sans Javascript, remplaçant simplement les liens directs de la page précédente. Futé.

Qu'à cela ne tienne, il y a quelques années j'ai poussé ma perversion low-tech jusqu'à empêcher l'interprétation de ce « refresh », à l'aide de l'option accessibility.blockautorefresh mise à true dans about:config. C'est pratique au passage car c'est une habitude de certains site (dont Le Monde à l'époque) pour forcer à recharger la page après quelques minutes, histoire de tracer votre présence je suppose, pour ceux qui n'ont pas Javascript ; comme quoi, on ne doit pas être si peu pour mériter tant de considérations de la part des publicitaires et autres manipulateurs… Et donc j'obtenais ainsi de la part de Google la première page servie par une requête simple sur l'URL historique « search?q=… » avec des liens direct, simple, même si mon navigateur me propose toujours en haut de la page de suivre la direction (mais ne m'y emmène plus automatiquement).

Ça marchait donc depuis plusieurs année, quand aux alentours de la semaine dernière… plus de résultats ; page blanche, me proposant juste une redirection vers la page avec liens de traçage. Bon, en réalité, ça fait ça sur un Firefox antédiluvien, version 45, et un autre ESR, 52 je crois. Sur une version post-Quantum (60)… le refresh est suivi automatiquement, malgré l'option ! C'est un bug apparemment, mais je ne sais pas s'il est dû à la configuration particulière de la page Google (meta refresh dans une balise noscript, plutôt que dans l'en-tête). En plus, sur ce « nouveau » navigateur, je vois subrepticement l'ancienne page à laquelle j'étais habitué, puis elle disparaît pour afficher celle avec les liens de traçage (toujours sans Javascript, si vous suivez). En vérifiant dans les sources (hint : l'option de persistance des logs de l'onglet « réseau » des outils pour développeurs est très utile dans ce cas de figure où la page se recharge toute seule ; surtout avec un site qui se comporte différemment en fonction du User-Agent — Google bloque wget & consorts), les résultats directs sont bien là, quelle que soit la version des navigateurs. Je suppose qu'un nouveau tour de Google en CSS cache les résultats derrière une page indiquant « Cliquez ici si, d'ici quelques secondes, vous n'avez pas été redirigé. ». Et du coup on ne peut plus l'utiliser simplement, sans autre bidouille.

Car en effet, des « bidouilles » sous forme d'extensions qui permettent d'éviter le traçage de Google, il en existe depuis des lustres (j'ai des souvenir d'extensions autour de 2005, peut-être quand Google a introduit cette pratique ; car oui, au tout début en 1998, Google ne traçait personne…). Et c'est le jeu du chat et de la souris constant, car Google change régulièrement ses mécanismes, et les auteurs de bidouilles s'adaptent (ou pas, certains ont abandonné). L'approche low-tech sans JS ni redirection me permettait d'y arriver sans recourir à l'artillerie lourde, mais ce changement récent me fait remettre en cause ma position. Que vais-je faire aujourd'hui ? Est-ce que je me lance dans la bataille infinie contre Google ? Ou est-ce que j'abandonne, comme beaucoup de personnes et d'évènements nous y invitent ? Et tout ça est-ce en rapport avec le fait que j'avais commencé à évoquer cette technique il y a quelques semaines/mois ici ? Je dois mettre mon chapeau d'alu ?

Je vous laisse en débattre, afin de m'inspirer.

  • # L'alternative proxy ?

    Posté par  (site web personnel) . Évalué à 4.

    Je sais pas si c'est la solution car ca rajoute un intermediaire dans la chaine:

    https://fr.wikipedia.org/wiki/Startpage

    gpg:0x467094BC

    • [^] # Re: L'alternative proxy ?

      Posté par  . Évalué à 1.

      comment se rémunère StartPage ?

      • [^] # Re: L'alternative proxy ?

        Posté par  . Évalué à 2.

        D'après Startpage :

        Revenue Model & Search Index Partner(s): Startpage makes it money via ads that are served though Google’s Ad Network. Ads are served based on search term alone and not the user’s profile or previous searches. Google does not receive any identifiable information about the user. When it comes to search results, they pull their results directly and anonymously from Google.

        Le principe général de publicité dépendant uniquement des termes de la recherche est partagé avec DDG d'après la même page.

  • # pourquoi s'acharner...

    Posté par  . Évalué à 10.

    … à utiliser google?

    Peut-être que certains (meta-)moteurs de la concurrence te permettraient d'éviter le problème, sans prise de tête et sans bidouille?

    Pour ma part, j'utilise ddg, qui utilise aussi du JS et de la redirection dans ses liens, il me semble. En théorie pour nous protéger, de mémoire, mais je t'avoue ne pas avoir creusé (j'en doute, hein, mais bon, sait-on jamais).
    Je ne doute pas qu'il en existe d'autres, d'ailleurs.

    • [^] # Re: pourquoi s'acharner...

      Posté par  (site web personnel, Mastodon) . Évalué à 10.

      Je ne vois aucun Javascript dans la version "lite" de DuckDuckGo. Et les liens sont directs.

      Il existe un mode lite chez Qwant aussi mais y'a du javascript dedans donc ça a l'air moins intéressant.

    • [^] # Re: pourquoi s'acharner...

      Posté par  . Évalué à 5.

      … à utiliser google?

      parce que ça reste le meilleur moteur et ça me fait mal de le dire.

      • [^] # Re: pourquoi s'acharner...

        Posté par  . Évalué à 4.

        Intéressant. Le meilleur selon quels critères?

        Parce que perso, je trouve les résultats de ddg largement satisfaisants. Quand je ne trouve pas sur ddg et que je cherche sur google, je ne trouve pas plus, en fait. Mais c'est peut-être le fait que, n'ayant pas assez d'infos sur moi, google ne peux pas facilement me mettre dans "la bonne bulle"?

        Déjà que depuis peu (quelques mois) ddg me mets dans la bulle "france" et ça me fait chier, je n'ose imaginer ou je finirai avec google.

        Outre ce critère, il y a aussi la syntaxe bang! que j'utilisais beaucoup, avant de prendre l'habitude d'enregistrer moi-même mes moteurs de recherche spécialisés, dont j'ai pas souvenir que google ait un équivalent?

        Je peux aussi citer la structure d'affichage des recherches, mais ça je crois que google a rattrapé son retard dessus, au moins en partie… après vérification, non, en fait, l'UI est toujours aussi foireuse (question de goûts, sûrement).

        Du coup, comment tu évalues "le meilleur"? Je n'ai ici abordé, tu l'auras remarqué, que des questions terre-à-terre, si on commence a aborder le problème de l'éthique (supposée) de ddg vs celle de google, bon… voila quoi. Mais il est probable qu'il y ait mieux.
        En fait, "le meilleur", ça dépend de chacun, et des priorités de la personne qui le proclame. Pour moi, le moteur de recherche de google est loin d'être le meilleur.

        • [^] # Re: pourquoi s'acharner...

          Posté par  (site web personnel) . Évalué à 4.

          Déjà que depuis peu (quelques mois) ddg me mets dans la bulle "france" et ça me fait chier

          C'est très facile de changer ça. Il suffit de cliquer sur le menu région juste au dessus des résultats.

          • [^] # Re: pourquoi s'acharner...

            Posté par  . Évalué à 3.

            Oui mais non. Même sur "toutes les régions", le contenu qui apparaît est, par exemple, majoritairement français, sur une recherche telle que "test".

        • [^] # Re: pourquoi s'acharner...

          Posté par  . Évalué à -5.

          meilleur?

          simple, je commence avec ddg, je ne trouve rien, je bascule directement sur google et hop, résultat.

          C'est aussi simple que ça.

          Je n'ai pas d'exemple en tête mais c'est quasi systématique dans mes recherches. :/

          • [^] # Re: pourquoi s'acharner...

            Posté par  . Évalué à 0.

            Je pourrais piper ton texte dans sed -e 's/ddg/google/' -e 's/google/ddg' que mon commentaire aurait autant d'intérêt que le tiens: une assertion péremptoire sans preuve.

            Pourrais-tu nous indiquer quels termes, je cite, font que l'on "ne trouve rien"? Ainsi nous pourrions juger…

            Pour moi, ne rien trouver, c'est arriver sur une page blanche, pour info. Trouver des résultats non pertinents, c'est autre chose, et plus compliqué à définir. D'où ma question plus haut, en fait.

            • [^] # Re: pourquoi s'acharner...

              Posté par  . Évalué à 5.

              Pour moi, ne rien trouver, c'est arriver sur une page blanche, pour info. Trouver des résultats non pertinents, c'est autre chose, et plus compliqué à définir.

              Ça va la tétracapilectomie? Renvoyer des résultat non pertinent lorsque l'on recherche quelque chose, est équivalent à ne rien renvoyer, c'est même pire car cela peut faire perdre du temps pour valider que ce n'est pas correcte. D'ailleurs cette manie que par défaut à google à corriger la requête me gène.

              Il ne faut pas décorner les boeufs avant d'avoir semé le vent

              • [^] # Re: pourquoi s'acharner...

                Posté par  (Mastodon) . Évalué à 3.

                tétracapilectomie

                Merci d'élever le niveau moyen du vocabulaire utilisé sur LinuxFR :-)

                Surtout, ne pas tout prendre au sérieux !

              • [^] # Re: pourquoi s'acharner...

                Posté par  . Évalué à 2.

                Ça va la tétracapilectomie?

                Mieux que la vasectomie, je dirais.

                Plus sérieusement, c'est bien pour ça que je te demande des exemples, parce que justement, je n'ai pas la même expérience que toi. Et peut-être que le problème viens aussi du fait que ce que toi, tu appelles non-pertinent l'est pour moi, et vice versa.

            • [^] # Re: pourquoi s'acharner...

              Posté par  . Évalué à -6. Dernière modification le 20 janvier 2021 à 10:33.

              mentaire aurait autant d'intérêt que le tiens: une assertion péremptoire sans preuve.

              Met ça sur le compte de mon ressenti alors. Je ne vais pas sur google de gaiété de coeur et ça me fait chier d'avoir à accèpter l'EULA, qui est d'ailleurs de plus en plus lent à charger, à chaque fois que je vais sur google en mode "privé".

              Ainsi nous pourrions juger…

              "Tu n'es pas un pur libriste Gilet_sans_manches, nous te condamnons à l'éxile. La sanction est irrévocable!(ta ta taaaaa!!!)"

              • [^] # Re: pourquoi s'acharner...

                Posté par  . Évalué à 1. Dernière modification le 23 janvier 2021 à 18:48.

                "Tu n'es pas un pur libriste Gilet_sans_manches, nous te condamnons à l'éxile. La sanction est irrévocable!(ta ta taaaaa!!!)"

                Je serais mal placé pour reprocher ça, vu que j'utilise moi-même plusieurs logiciels non libres sans le moindre complexe:

                • vivaldi
                • virtualbox
                • un firefox supportant les DRMs (à vérifier, ça remarque)
                • quelques VMs avec windows
                • pilotes WiFi
                • une chiée de firmwares
                • parfois les pilotes NVidia de mes vieilles 8400GS

                Bref, je serais vraiment mal placé pour reprocher a quelqu'un l'usage de logiciels non libre. Et encore, je n'ai pas abordé la chiée de services web, parce qu'au final, à ma connaissance, le code derrière duckduckgo, notamment, n'est pas libre.

                Mon point se posais uniquement sur l'absence de critique réelle (une opinion n'est pas une critique) dans les messages que je lis et qui vantent la pertinence de google vs ddg.

          • [^] # Re: pourquoi s'acharner...

            Posté par  . Évalué à 5.

            Je n'ai pas d'exemple en tête mais c'est quasi systématique dans mes recherches. :/

            C'est exactement ce que disent les gens qui trouvent que google est le moteur de recherche le plus pertinent sans jamais n'en avoir essayé un autre.

            • [^] # Re: pourquoi s'acharner...

              Posté par  . Évalué à -4.

              Je reformule:
              "C'est quasi systématique de BASCULER sur Google après au moins 3 recherches infructueuses sur DuckDuckGo."

              Bien évidemment, il arrive aussi que Google ne puisse pas me retourner ce que je souhaite mais c'est assez rare.

          • [^] # Re: pourquoi s'acharner...

            Posté par  (site web personnel) . Évalué à 2.

            Pour ce qui est des recherches standard, duckduckgo s'en sort très bien chez moi.

            Par contre quand je fais des recherches sur du développement (C/Linux) ou web (Symfony/PHP/Mysql), force est de constater que google sort des résultats que duckduckgo n'a pas.

            Pour simplifier dès que je cherche une fonctionnalité non documentée ou un bug, seul google est capable de me sortir le résultat, malheureusement pas les autres moteurs de recherche alternatifs…

    • [^] # Re: pourquoi s'acharner...

      Posté par  (site web personnel, Mastodon) . Évalué à 1.

      J'utilise Qwant par défaut, mais j'avoue n'avoir pas regardé si ça rajoute des JS et surtout si c'est louche/tordu/etc. Quand je ne trouve pas avec ce moteur, je tente ma chance avec DuckDuckGo et je ne sais pas si c'est mieux non plus.

      Ceci dit, je crois bien que j'avais vu du JS et que j'en était arrivé à utiliser QwantLite avec wget/curl et même Dillo/Links2/Lynx (oui, oui, y en a qui les utilisent)

      “It is seldom that liberty of any kind is lost all at once.” ― David Hume

      • [^] # Re: pourquoi s'acharner...

        Posté par  . Évalué à 3. Dernière modification le 19 janvier 2021 à 12:28.

        Il y a aussi le métamoteur searx ou ses clones qui permettent d'anonymiser les requêtes, framasoft ayant stoppé framabee ils listent quelques autres clones :
        https://alt.framasoft.org/framabee/

        Google ne renvoie plus de résultats à searx mais le pistage par le moteur, n'est qu'un aspect. Même si on arrive à avoir les résultats Google de façon anonyme, ces résultats, ceux qui arrivent en premier, ceux qui ont acheté des mots clefs, ceux qui font tout ce qu'il faut pour générer du traffic participent aussi au pistage. De fait on a pas accès à tout le web c'est le web vu par google. Les russes et les chinois ont bien compris les possibilités de biaiser les résultats et ont leur propres moteurs. Il y a le dark web aussi accessible par tor, c'est plutôt pour des activités illicites pour les sites en .onion, mais utilisé avec firefox pour les sites normaux cela permet de détecter facilement les sites qui vous pistent ils n'aiment pas tor. Google n'aime pas tor, les sites les mieux référencés et pétés de pubs n'aiment pas tor non plus et demandent un captcha.

        En regardant dans les préférences de searx ou des clones il y a la possibilité de sélectionner les moteurs utilisés, des moteurs généraux ou spécialisés qui vont donner des résultats différents de google. J'utilise mojeek par défaut dans firefox sans javascript, et c'est moins fréquent de tomber sur une page qui me demande d'activer le javascript, qui une fois le javascript activé affiche une liste interminable de dizaine de scripts dans uBlock origin, un pavé d'acceptation de cookie. Il m'arrive aussi plus souvent de regarder les autres pages du site. C'est quand même plutôt des résultats en anglais et puis si ma recherche est infructueuse je passe sur un autre moteur, il y en a plusieurs dans la liste de searx.

        On met souvent en avant la pertinence des résultats de google, un peu moins le nombre de fois où les mot clefs sont bien présent mais les articles pour le moins succints et pas très utiles finalement, il faut des fois en visiter beaucoup, c'est bien pour google plein de pubs vues un peu moins pour l'utilisateur. C'est d'autant plus vrai que l'on a pas une idée très précise de ce que l'on cherche, dans ce cas un moteur de recherche moins pertinent peut aussi donner des résultats intéressants.

        Un site sur lequel on peut activer le javascript pour jouer aux échecs (et gagner !) contre un programme de quelques ko, et un tuto javascript :
        https://nanochess.org/chess4.html
        http://www.ittybittycomputers.com/IttyBitty/JS/JavaScript.htm

  • # Une extension Firefox ?

    Posté par  (Mastodon) . Évalué à 7.

    En quoi cette extension répond et en quoi elle ne répond pas à tes besoins ?

    C'est mieux que rien, non ?

    Surtout, ne pas tout prendre au sérieux !

    • [^] # Re: Une extension Firefox ?

      Posté par  . Évalué à 2.

      Merci, en plus les permissions sont raisonnables. (Je suppose que si elles augmentent, le navigateur préviendra).

  • # whoogle-search

    Posté par  (site web personnel) . Évalué à 3.

    My2cents, j'utilise whoogle dans un container docker.
    C'est sensé bloquer le adware et le traçage:

    https://github.com/benbusby/whoogle-search

    • [^] # Re: whoogle-search

      Posté par  . Évalué à 10.

      C'est fou quand même d'en arriver à de telles extrémités pour se protéger d'un moteur de recherche :(

      Ah qu'elle était belle notre innocence d'il y a 15-20 ans quand BeOS était l'avenir Google était notre ami sympa qui nous délivrait des moteurs de recherche qui ne trouvaient pas grand chose, quand il n'était pas indispensable de barder son navigateur d'extensions pour essayer de se protéger des mouchards omniprésents.
      A l'époque, les popups étaient une plaie, mais un mal moins pernicieux.

      BeOS le faisait il y a 20 ans !

  • # Ecosia

    Posté par  . Évalué à 2.

    Pour ma part j'utilise depuis quelques temps ecosia.org en moteur de recherche principal car Google se fiche de plus en plus de me fournir en priorité des liens comportant tous les termes que je saisis dans la recherche au profit de liens sponsorisés / commerciaux. Je devais régulièrement faire plusieurs pages pour trouver les termes recherchés ou utiliser des guillemets pour forcer la présence de certains mots clés.
    Je retrouve un peu la pertinence des anciennes versions de Google avec ce moteur et il n'y a pas de masquage des adresses pour les résultats fournis d'après ce que j'ai pu voir là rapidement depuis mon smartphone.

  • # Résultats cachés par CSS

    Posté par  . Évalué à 4.

    Merci à tous pour vos suggestions, bien que je n'ai rien découvert de nouveau et que trouver le juste milieu entre emmerdement et laisser-faire est toujours difficile. Je n'ai pas répondu à quiconque, désolé, mais je trouve les réactions intéressantes.

    Je suppose qu'un nouveau tour de Google en CSS cache les résultats

    Aujourd'hui j'ai pris quelques minutes pour regarder encore une fois précisément ce qui avait changé dans la page pour donner cette « page blanche », et en fait c'est tout simple : au sein de la balise noscript (qui contient le meta refresh évoqué dans ce journal), il y a une balise style contenant table,div,span,p{display:none}, c'est tout. Ça doit pouvoir se bloquer à coup de règle de filtrage CSS, mais j'étais justement en train d'abandonner Adblock Plus pour une autre extension qui ne permet pas le filtrage CSS…

    Bon, tentons quand même : google.com##noscript>style, ça matche bien, mais la page reste blanche. Je suppose qu'ABP peut bloquer ainsi des éléments HTML désignés par un sélecteur CSS, mais ne bloque pas l'interprétation d'un bloc CSS désigné par un sélecteur CSS… ou un truc du genre.

    Bref, les ingés de Google ont bien joué avec celle-ci, mais je trouvais quand-même cela assez hallucinant que les utilisateurs d'un trick si « bête » et sûrement marginaux soient visés, en 2021, par de tels changements.

    • [^] # Re: Résultats cachés par CSS

      Posté par  . Évalué à 2.

      je trouvais quand-même cela assez hallucinant que les utilisateurs d'un trick si « bête » et sûrement marginaux soient visés, en 2021, par de tels changements.

      Le capitalisme de surveillance ne supporte pas que quoi que ce soit lui échappe.

  • # violentmonkey

    Posté par  . Évalué à 1. Dernière modification le 10 février 2021 à 21:12.

    Améliorations de https://greasyfork.org/scripts/19713
    (mais pas encore parfait)

    // ==UserScript==
    // @name           Remove-redirects
    // @namespace      google.com.rr
    // @description    Remove all link redirection on Google Search Results,and Google image Search!
    // @homepageURL    https://greasyfork.org/scripts/19713
    // @include        https://www.google.*
    // @grant          none
    // @version        2021.01.01
    // ==/UserScript==
    
    // Remove events listeners on a node (but not its children)
    function recreateNode(el, withChildren) {
      if (withChildren) {
        el.parentNode.replaceChild(el.cloneNode(true), el);
      }
      else {
        var newEl = el.cloneNode(false);
        while (el.hasChildNodes()) newEl.appendChild(el.firstChild);
        el.parentNode.replaceChild(newEl, el);
      }
    }
    
    // Remove upper tracking <div>
    function removeEvents(cls = 'div.tF2Cxc') {
      console.log("remove events");
      for (let node of document.querySelectorAll(cls)) {
        recreateNode(node);
        console.log(node);
      }
    }
    
    (function() {
      window.setTimeout(() => {
        // Remove top-level event trackers
        removeEvents('html');
        removeEvents();
      }, 1000);
    })();
    
    
    main.addEventListener('mousedown', ev => {
      removeEvents();
      if (ev.target.closest('a[jsaction^="mousedown:irc."] > img')) ev.stopPropagation();
      // Clean-up redirect href links
      let link = ev.target.closest('a[href^="/url"')
      if (link) {
        var a = new URLSearchParams(link.href);
        console.log(`Map from ${link.href} to ${a.get('url')}`);
        link.href = a.get('url');
      }
    });
    Object.defineProperty(window, 'rwt', { writable: false });

    Mention spécial du problème de retirer du DOM des events listeners dont on est pas l'auteur.

  • # Désactiver le CSS

    Posté par  . Évalué à 3. Dernière modification le 12 février 2021 à 18:03.

    Une fonctionnalité (peut-être méconnue) de Firefox est de désactiver le CSS. Pour ce faire, il suffit de sélectionner "No style" dans le menu "View > Page style".

    Ça a l'avantage de faire fonctionner certaines pages (dont Google, mais pas que) sans javascript, alors qu'elles resteraient "vides" avec CSS activé. Il y a notamment des sites qui utilisent javascript pour des transitions et/ou animations en modifiant le CSS, et donc sans javascript la page reste "vide". Mais en désactivant CSS le contenu devient visible.

    L'autre avantage est que beaucoup de pages deviennent plus lisibles. Le texte est affiché à la taille par défaut, et avec la couleur par défaut, donc il est plus facile à repérer. Les couleurs par défaut sont respectées, par exemple si le thème système est clair sur fond sombre. J'ai horreur que les sites m'imposent leur thème de couleur, en le redéfinissant par exemple en sombre sur fond clair (ou pire, en ne changeant soit la couleur de fond ou de texte, mais pas les deux, rendant le texte illisible). Désactiver le CSS résout tous ces problèmes.

    Le seul inconvénient est qu'il faut souvent faire défiler une bonne partie des pages, car les menus prennent souvent beaucoup de place sans CSS. Mais j'ai appris à vivre avec…

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.