YBoy360 a écrit 673 commentaires

  • [^] # Re: Si tous les gens autour de toi sont des cons ...

    Posté par  (site web personnel) . En réponse au journal Mais pourquoi flatpak ?. Évalué à 9.

    Le problème, c'est que je trouve ta description des différents modes de distribution d'application approximative et c'est un sujet qui nécessite du doigté. Pour te convaincre, il faudrait déjà tout mettre d'équerre…

    Par exemple, ton premier point technique sur Android est seulement approximativement vrai. Le SDK d'Android ressemble plus à un Framework complet qu'a la libc. Il est lui, partagé entre toutes les applications. Donc les applications ne sont pas si indépendante que ça, de plus le système d'Intent font que les applications utilise les composants d'autres applications.

    Pareil pour la sandbox de flatpak, d'où l'application peut ouvrir n'importe qu'elle fichier sans l'autorisation de l'utilisateur ? Normalement, seuls les fichiers volontairement ouvert via le file chooser sont accédés.

    Pour Steam, on sait tous que les assets représente au bas mot 98% de l'espace nécessaire à un jeu vidéo, et que ceux-ci ne partage rien avec le monde extérieur, si ce n'est la SDL ou OpenGL. Que l’interaction entre Steam et un jeu vidéo, c'est à peu près peanuts. Qu'est-ce que Steam vient faire à propos de l'efficacité de Flatpak… ça n'a juste rien à voir!

    Bref, je cherche pas à te convaincre que flatpak c'est bien, juste qu'avec ton journal, on y voit vraiment pas clair.

  • [^] # Re: Littérature

    Posté par  (site web personnel) . En réponse au journal Mais pourquoi flatpak ?. Évalué à -4.

    bidon

    pour 1, ce n'est que pour la version Windows, ça peut-être fixé, la surface est très faible….

    pour 2
    Check Point says a key vulnerability that Agent Smith relies on was patched several years ago in Android. But developers need to update their apps in order to take advantage of the added protections. Evidently, many have not.

  • [^] # Re: Si tous les gens autour de toi sont des cons ...

    Posté par  (site web personnel) . En réponse au journal Mais pourquoi flatpak ?. Évalué à 4.

    Merci, je croyais être le seul ..

  • # Littérature

    Posté par  (site web personnel) . En réponse au journal Mais pourquoi flatpak ?. Évalué à 2.

    J'aimerais avoir de la littérature sur les failles des sandbox d'Android et de Chrome, qui ne me fasse pas perdre mon temps, ne soit pas des ragots approximatif comme ce journal, qui ait moins de 5 ans, et qui n'ait pu être comblées.

    Structurellement les Sandbox (hors failles cpu Intel) sont-elles bancale? ou c'est juste le besoin de s'la raconter au comptoir ?

    On peut tous se logger en Root et lancer Gnome aussi…

  • [^] # Re: Ca part d'une bonne intention

    Posté par  (site web personnel) . En réponse à la dépêche Sortie de Datafari 4.3, moteur de recherche open source pour entreprise. Évalué à 1.

    C'est ballot de devoir se contraindre à utiliser Docker pour enrober un war.

    Surtout avec les outils de build Actuel. L'intérêt de java c'est de simplifier la distribution de sources ou de binaires..

  • [^] # Re: Est-ce-que c'est plus libre qu'avant ?

    Posté par  (site web personnel) . En réponse au journal une nouvelle framboise. Évalué à 4.

    Les GPU de nos jours sont capable d'écrire en mémoire directement, et c'est juste ce qu'il faut.

    Le fait d'initialiser le GPU avant le CPU (et avant la mémoire et le cache) permet d'avoir un affichage sans changements de contexte, comme lors du passage du bios à Grub, de Grub au Kernel, du Kernel à Xorg (si on utilise Xorg, il y aura quand même un changement de contexte, mais pas avec Wayland et autres). ARM ne spécifie pas comment doivent booter les SoC ARM, donc cette procédure est hardcodée sur le SoC hors du core ARM, que ce soit le GPU ou non. Alors pourquoi ne pas utiliser le GPU pour cette étape? Contrairement à ce qui se dit, ça ne me parait pas être "un hack immonde"… C'est bizarre, mais bon.

    Certains, comme 96Boards cherche à établir des spécifications communes aux fabriquant de SoC ARM, c'est surement cette direction qu'il faut suivre pour facilité la vie des distributions..

  • [^] # Re: conso élec, retour ?

    Posté par  (site web personnel) . En réponse au journal une nouvelle framboise. Évalué à 4.

    Non, au max c'est 1.2 ampères, par contre en fonction des périphériques USB ça peut monter. C'est un peu plus que le 3B+ par contre, niveau performance, il y a pas photo:

    https://www.tomshardware.com/reviews/raspberry-pi-4-b,6193.html

  • [^] # Re: Est-ce-que c'est plus libre qu'avant ?

    Posté par  (site web personnel) . En réponse au journal une nouvelle framboise. Évalué à 2.

    Dans un PC normal, il y a aussi le BIOS et des blobs proprios… Le BIOS permet d'avoir une séquence de boot uniforme sur plusieurs type de machines, mais il est tout aussi fermé.

    Indépendamment des blobs propriétaires, je pense par contre qu'initier la séquence de boot par le GPU n'est pas choquant sur un SoC, même au contraire, je trouve ça plutôt élégant. D'ailleurs la séquence de boot des raspberry est plutôt jolie et efficace comparée à celle d'un PC, les nouveaux bios devenant totalement imbitable…

  • [^] # Re: Révision technique rapide par Christopher Barnatt

    Posté par  (site web personnel) . En réponse au journal une nouvelle framboise. Évalué à 3. Dernière modification le 24 juin 2019 à 12:10.

    D'après TechCrunch, ce n'est pas de l'ethernet over USB 2.0, mais du vrai ethernet.

    J'avais lu un article il y a quelques mois parlant d'une version PRO avec un ASIC programmable, je ne trouve plus rien là-dessus malheureusement.

    J'ajoute par rapport au journal, il y a 2 ports HDMI …

  • [^] # Re: J'y étais

    Posté par  (site web personnel) . En réponse au journal Les 10 ans d'Hadopi. Évalué à 5. Dernière modification le 13 juin 2019 à 16:42.

    J'étais à l'assemblé national devant, puis dedans lors du second vote de la HADOPI.

    Riester est ministre maintenant..

  • [^] # Re: Polysémie

    Posté par  (site web personnel) . En réponse au journal Microsoft Love Linux ... et tout l'écosystème opensource .... Évalué à 3. Dernière modification le 13 juin 2019 à 02:43.

    Comme Dieu est amour, on peut remplacer dans ton texte amour par Dieu(x optionnellement, car il(s) semble(nt) indénombrable(s) si on veut mettre tout le monde d'accord).

    Autant ça fonctionne dans ton texte, autant pour le titre c'est un peu plus compliqué : Microsoft aime Linux, on peut remplacer "aime" par "a de l'amour pour" ou en inversant le sujet et le COD "est de l'amour pour".

    On se retrouve avec 2 possibilités, mais l'une est forcément vrai, c'est : Linux est l'Dieu pour Microsoft.

    Voila, voila, pardon famille tout ça[]

  • [^] # Re: bah ouais

    Posté par  (site web personnel) . En réponse au journal journalistes -> ça m'énerve.... Évalué à 4. Dernière modification le 11 juin 2019 à 02:27.

    Out of order c'est la capacité d'un CPU a regarder dans le cache instruction ce qu'il peut exécuter en parallèle. Par contre, l'écriture en mémoire se fait in order par l'issue stage (ou writeback).

    Si tu as
    a = x + y
    b = u +/* t

    Les 2 opérations et les load (typiquement 17 cycle si il faut loader depuis la mémoire, sans tlb misses) se feront en parallèle, mais a sera écrit en mémoire avant b et si x + y émet un overflow, le registre contenant b ne sera pas modifié, donc cette optimisation ooo n'est pas visible par le programme, et heureusement.

    Un exemple un peu plus compliqué impliquerait des branchements (des if), les CPU moderne essai de prédire la branche la plus probable. Sur les ARM, par défaut, les Switch et les if sont exécuté comme si la condition était vrai (comme si il n'y avait pas de branchement). Le pipeline chevauche le if, lorsque la condition est connu, si il faut faire le jump, alors le pipeline est reseté (plusieurs dizaines de cycles pour les CPU moderne). Sur les processeur itanium, tu n'as carrément pas de branchement, les instructions sont toutes exécuter et discardé en fonction des besoins.

    Peu importe comment fonctionne un CPU, un programme reste une suite d'instruction a exécuter dans l'ordre, peut être parallèlement, mais dans l'ordre. Ce qu'au final fait le CPU par rapport aux écritures mémoire.

  • [^] # Re: bah ouais

    Posté par  (site web personnel) . En réponse au journal journalistes -> ça m'énerve.... Évalué à 4.

    Le pipeline d'un CPU :

    1- "délivre" le résultat des instructions dans leur ordre exacte d'arrivée. Sinon c'est le bordel, mais il va essayer en interne (c.a.d. de façon invisible ou de façon transparente pour le programme exécuté), de paralléliser, d'anticiper les branchements et tout un tas de conneries comme prefectcher les instructions, ma memoire, le TLB ou que sais-je.. c'est totalement traçable, prévisible et tu peux essayer de voir l'état interne du processeur, à tout instant.

    2- exécuter un nombre d'instructions grossièrement constant par cycle.

    Ce n'est pas le cas d'une machine quantique (bien sûr, il n'y a pas de pipeline dans un machine quantique, c'est toute la différence, faisons comme si) :

    1-a tu ne peux pas observer l'état interne du pipeline d'une machine quantique, sans la stopper, et devoir recommencer le calcul
    1-b tu ne peux donc pas isoler une instruction séparément des autres, toutes les parties du problème s'exécute réellement simultanément sur plusieurs cycles (c'est l'intrication qui fait l'intérêt d'un calculateur quantique).
    1-c il n'y a pas d'opération de copie dans un calculateur quantique. Donc pas d'unité "issue" possible qui va copier l'état du registre interne du CPU classique vers la mémoire. le calcul est effectué "en place" (bonne chance pour trouver la condition d'arrêt, si tu connais pas le résultat cherché) ce qui implique 2-b ci-dessous.

    2-a le nombre de calculs par cycle n'est pas une constante
    2-b tout calcul fait à un instant donné à un impacte sur l'état du pipeline "virtuel", tout est intriqué, c.a.d. la longueur virtuelle qu'il faudrait simuler du pipeline d'un calculateur quantique est aussi long que le nombre de cycle du programme exécuté (si on modélise un ordinateur quantique avec un pipeline).

    Comme ce n'est pas la même chose, ces comparaisons sont un peu tirées par les cheveux.

  • [^] # Re: avoir des qbits c'est bien, mais il faut encore qu'ils ne soient pas en décohérence

    Posté par  (site web personnel) . En réponse au journal journalistes -> ça m'énerve.... Évalué à 9.

    On en est même très loin pour 72 : Google annonce juste avoir disposé 72 Qbits les un à côté des autres, avoir stocké un résultat puis relu ce résultat avec un taux d'erreur faible. C'est très bien, mais ça résoud très peu d'aspect du problème pour avoir quelque chose d'exploitable.

  • [^] # Re: bah ouais

    Posté par  (site web personnel) . En réponse au journal journalistes -> ça m'énerve.... Évalué à 10. Dernière modification le 10 juin 2019 à 07:22.

    Le problème, c'est quand les PR s'en mêlent. Là tu comprends qu'il n'y a aucun regard critique de la part de la presse.

    Combien d'articles ont répété qu'IBM avait déjà commercialisé un ordinateur quantique ? Combien disent qu'intel a déjà un CPU quantique ? (Ils ont des photos, ça oui)

    On ne sait même pas si il est possible d'en faire pour notre civilisation, la plupart des journalistes comprennent pas l'intérêt du calculateur quantique, mais ils t'annoncent sans aucun filtres toutes ces conneries.

    Certains informaticiens ne sont pas mieux lotis, un stagiaire m'a annoncé qu'il attendait le GPU quantique..

    Déjà utiliser le terme ordinateur, pour désigner ces machines, (ou calculateur) prouve que personne ne comprends vraiment le gap qu'il y a avec un ordinateur classique. Ordinateur renvoie a l'idée instructions ordonnancées ce qui est vraiment on ne peut plus trompeur pour une machine quantique.

  • [^] # Re: Performance

    Posté par  (site web personnel) . En réponse au journal Moi, expert C++, j'abandonne le C++. Évalué à 1.

    Tu veux dire faire de l'AOP (version générale du Proxy)?

    ça se fait en Java, avec AspectJ par exemple. C'est vrai que ce n'est pas simple.

  • [^] # Re: Performance

    Posté par  (site web personnel) . En réponse au journal Moi, expert C++, j'abandonne le C++. Évalué à 1.

    Je pense que tu connais déjà, c'est moyen "propre" (je ne l'utilise pas des masse), il y a l'annotation Delegate directement en Groovy.

    @TupleConstructor
    class SelectOptionList {
        @Delegate
        List<SelectOption> selectOptions
    // . . .
    }

    SelectOptionList s'utilise comme une liste.

  • # C'est pas mal, mais

    Posté par  (site web personnel) . En réponse au journal La spécialité N.S.I. de la réforme du lycée ( épisode 2 ). Évalué à 1. Dernière modification le 23 mai 2019 à 04:40.

    2 remarques :

    1 - Pourquoi ne pas parler de semi-conducteur, d'algèbre booléenne, ou d'électronique? Un peu H.S. mais la physique et la chimie ne sont pas suffisamment étudiées, trop de filières ne dispensent aucune forme de culture scientifique, c'est dommage.

    2 - 1/3 pour la pratique, c'est un bon début, mais moi j'aurais mis 2 / 3.

    L'idée du logo était pas mal à l'époque (des dinosaures), je faisais des supers trucs graphiques avec, même si les possibilités étaient limitées, ça permettait de pratiquer en se faisant plaisir. Le plaisir d'apprendre en retour fait que je me rappellerai de ces 2 cours même des dizaines d'années plus tard.

    Aujourd'hui il y a le RPi, qui pourrait servir de support pour les TP, et le prochain RPi disposera d'un ASIC programmable (pour l'IA et autres, Vivement!!).

    C'est difficile de rester succinct avec tout ce qu'il est possible d'apprendre.

    C'est p-e une mauvaise idée d'utiliser le RPi, car cela imposerai le Python, ce qui ne serait pas forcement une bonne chose. La pratique peut aussi nuire à l'ouverture d'esprit.. Si il fallait utiliser le RPi (personnellement je serais à fond pour), il faudrait les bonnes mise en garde sur les choix que cela implique.

  • [^] # Re: Sale temps et Qwant

    Posté par  (site web personnel) . En réponse au journal [HS] Microsoft ♥ Linux - Episode V "Qwantanamera". Évalué à 8.

    Les besoins de Qwant sont quand même loin des besoins des GAFAM, mais au-delà de ça, comment font les Baidu ou Yandex, sans les GAFAM ?

    Il existe Amazon, Apple, Orange, SFR, Free … le cloud de MS tient en partie grâce à Orange et SFR…

    Puis pourquoi partir TOUJOURS défaitiste ? Il n'est vraiment pas possible en Europe de faire son(ses) propre Data Center ? Pourtant c'est encore de loin la meilleure solution à long terme.

    MS ne va pas louer ses data center au prix coûtant sur la durée. Si leur moteur de recherche pompe sur Bing 60% des résultats, pourquoi ne pas utiliser Bing directement? Qu'espèrent-ils à long terme ?

    Pourquoi choisir un concurrent direct comme partenaire privilégié ?

    Être pieds et poings lié à MS, c'est comme signer un pacte avec le diable, c'est pour la vie et au-delà. Que ce soit dans les JV, la téléphonie mobile, les partenaires rapproché de MS ont toujours, sans exception terminé empaillé à leur profit.

  • [^] # Re: Sale temps et Qwant

    Posté par  (site web personnel) . En réponse au journal [HS] Microsoft ♥ Linux - Episode V "Qwantanamera". Évalué à 0.

    J'ajoute un truc, si, l'index peut contenir des données personnelles de ceux qui utilisent Qwant pour la recherche interne dans leur entreprise.

  • [^] # Re: Sale temps et Qwant

    Posté par  (site web personnel) . En réponse au journal [HS] Microsoft ♥ Linux - Episode V "Qwantanamera". Évalué à 10.

    Ce qui me gène le plus n'est pas qu'ils utilisent le cloud de Microsoft, ils n'en ont pas eu besoin jusqu'à maintenant, alors bon, je ne vois pas qu'elles explication j'aurais à donner là dessus. Puis entre Scaleway, OVH et autres t'as quand même pas mal de choix, qui aurait été sans doute bien plus en respect avec leur positionnement sur le respect de la vie privée..

    Ce qui me gène vraiment, alors que c'est écrit sur les pages de résultat (je ne sais pas comment j'ai fait pour rater ça), c'est qu'ils réutilisent les résultats de Bing et qu'ils sont dépendants d'eux pour leur régit publicitaire… Donc ils enrichissent Bing. Tes recherches, ton IP, vont chez Bing.

    Donc Qwant == Yahoo == SE de Facebook == Bing recarrosser.. Super!

    Concernant le respect de la vie privée, Microsoft est encore pire que Google. Que ce soit Skype, Office 360, LinkedIn, même Github, ou toutes les participations qu'ils ont dans des sociétés tierces, pour moi ils n'ont strictement rien à envier à Google sur la connaissance de ta vie privée.

  • # Sale temps et Qwant

    Posté par  (site web personnel) . En réponse au journal [HS] Microsoft ♥ Linux - Episode V "Qwantanamera". Évalué à 4.

    à vrai dire ça me déçoit énormément cette annonce de Qwant. Je suis un utilisateur de longue date, pour moi c'est fini. Je ne recommanderai plus Qwant.

    Ce qui me gène le plus, et que je ne savais pas, c'est que la régie publicitaire de Qwant était gérée par Microsoft. Donc en gros, Microsoft capte toutes les recherches de Qwant (et sans doute beaucoup plus, comme ce qu'ils font avec leur participation Facebook, leur clavier virtuel Windows 10 100 % connecter et autres), et il faut accepter ça via un billet de Tristan Nitot parce qu'il est cool et que ça passe parce que c'est lui ?

    Bon bah, Next!

  • # Feuille de route jusqu'à la libération finale

    Posté par  (site web personnel) . En réponse au journal J’ai installé Mageia 7 au lieu de manifester. Évalué à 4.

    La roadmap pour la Mageia 7, c'est évidement quand ce sera prêt, mais il y a quand même des dates pour la RC1 et la version finale (je précise au passage que la Mageia Beta 3 dispose du Kernel 5.1, c'est quand même bon à prendre).

    Donc, pour celles et ceux qui sont intéressés, voici cette roadmap (en Anglais, je ne connais pas trop les équivalents en Français qui soit agréable à lire, puis ça me permet de faire du copier coller (donc moins d'erreurs)) :

    • RC target release around week 19 (May 6th - May 12th) "when its ready"
    • Release Freeze: Monday May 13th, 12:00 UTC (or ~1 week after RC release)
      • nothing gets submitted unless release critical fixes.
    • Final Release iso builds starts…
    • Final release ~week 21-22 (May 20th - June 2nd) depending on release quality… "when its ready"

    Voila, il y a plus qu'a attendre, je précise que la gestation fut longue, et que les dates ci-dessus concerne à priori l'année 2019.

  • [^] # Re: posix

    Posté par  (site web personnel) . En réponse au journal Shebang #!/usr/bin/env sh : testé et approuvé. Évalué à 2.

    Hmmm, merci pour le conseil, c'est récent, car :

    $ cat test.sh
    #!/usr/bin/env -S bash --posix
    echo toto
    $ ./test.sh   
    /usr/bin/env: invalid option -- 'S'
    Try '/usr/bin/env --help' for more information.
    $ uname -a
    Linux nuc-stats 3.14.43-desktop-1.mga4 #1 SMP Thu May 21 21:25:55 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux

    mais sur ma machine, mga7, ça passe.

  • [^] # Re: posix

    Posté par  (site web personnel) . En réponse au journal Shebang #!/usr/bin/env sh : testé et approuvé. Évalué à 2.

    D'ailleurs, comme
    #!/usr/bin/env bash --posix

    ne fonctionne pas, tu dois faire

    #!/usr/bin/env bash
    
    set -o posix