Cher journal,
Toi qui est un vieux comme moi et qui a connu la grand époque du journal «login:». Tu as sans doute entendu parler de ce fameux «RISC-PC» qui devait être une révolution car non basé sur un processeur x86.
Le RiscPC était fabriqué par la société britannique Acorn, qui est en fait une partie de la société ARM (Acorn Risc Machine !). Et le processeur utilisé était bien sûr un processeur ARM.
À l'époque, le RiscPC n'a jamais réussi à vraiment concurrencer le PC (x86). ARM s'est contenté d'envahir le marché de l'embarqué pour le dominer complètement aujourd'hui. Rien que ça.
Et bien réjouis toi cher journal, car une société a décidé de relancer le RiscPC. Mais pas avec un processeur ARM, avec un processeur RISC-V !
SiFive a décidé de produire un processeur aux performances compatible avec les performances d'un ordinateur de bureau d'aujourd'hui le U740. Le processeur est monté sur une carte mère nommée HiFive unmatched proposée en précommande très prochainement pour une somme de $665 d'après le site venturebeat. Ce qui n'est pas négligeable, mais qui est déjà nettement moins cher que leur précédente solution permettant de faire tourner Linux à plus de 3000€.
On avait une solution RISC-V pour Linux low-cost avec le kendryte K210. On avait une solution high cost avec le SiFive U540. Voici maintenant une solution «correct» avec le processeur Sifive U740.
Le U740 est un 4+1 core RISC-V de 64bits. La datasheet n'est pas encore disponible sur le site officiel mais ça ne saurait tarder à mon avis.
Alors cher journal, es-tu prêt à faire la révolution du PC pour $665 ?
Pas sûr, en tout cas c'est une initiative à suivre.
# quel forceur ce Martoni
Posté par Anonyme . Évalué à 1.
Déjà l'embarqué c'est pas uniquement du low-power.
Puis ARM est très populaire dans ce marché mais ne le domine pas complètement. Y a toujours eu d'autres ISA (dont x86) et sa popularité décroit avec l'émergence de Risc-V et la libération de mips.
Les perfs d'un processeur AMD ou Intel actuel pour desktop sont quand même bien au-delà. Si tu avais parlé des perfs d'un laptop x86 d'entrée de gamme j'aurais moins sourcillé (même si cette année il y a eu d'énormes progrès) mais là c'est vraiment trop gros comme affirmation.
[^] # Re: quel forceur ce Martoni
Posté par SpaceFox (site web personnel, Mastodon) . Évalué à 7.
Si on parle d'un petit ordinateur de bureau (et pas d'un Ryzen 7 ou d'un Core i7), c'est crédible.
CanardPC Hardware dans son dernier numéro a pu faire des mesures sur quelques machines ARM destinés à ce type d'usage, et en particulier sur la machine fournie par Apple aux développeurs pour les tests du futur Mac ARM. Et les résultats sont impressionnants, loin des brouettes que l'on pourr supposer.
(ils ont aussi installé Windows sur des vieux Raspberry Pi, et là c'est bien aussi lentissime qu'attendu 😁)
La connaissance libre : https://zestedesavoir.com
[^] # Re: quel forceur ce Martoni
Posté par Psychofox (Mastodon) . Évalué à 4.
Petit ordinateur de bureau, c'est vague, ça va du raspberry pi au core i3 en passant par du atom, les chromebook à base de arm ou des celeron/pentium/a8/a10 et ils ont des niveaux de perfs très divers.
Bref, ça manque de précision.
[^] # Re: quel forceur ce Martoni
Posté par SpaceFox (site web personnel, Mastodon) . Évalué à 6.
Pour le seul cas du Mac ARM :
Le reste dans le numéro 46 de CanardPC Hardware, 6,90 € chez votre marchand de journaux (qui je crois est encore ouvert malgré le confinement).
La connaissance libre : https://zestedesavoir.com
[^] # Re: quel forceur ce Martoni
Posté par jseb . Évalué à 2. Dernière modification le 30 octobre 2020 à 09:45.
Je n'ai pas le numéro en question, mais j'ai vu quelques images d'une partie des benches.
Pour ceux-ci il s'agissait d'une comparaison de performances de codage video: exécuté en hard par le DTK, et en soft par les autres.
Bien entendu, le DTK excellait.
Je n'ai pas retrouvé les benches en question, c'était sur un site dédié au mac je crois.
Discussions en français sur la création de jeux videos : IRC libera / #gamedev-fr
[^] # Re: quel forceur ce Martoni
Posté par Jona . Évalué à 4.
"DTK" est donc le nom du Mac conçu spécialement pour les développeurs : https://en.wikipedia.org/wiki/Developer_Transition_Kit_(2020)
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 4.
Ce qu'on peut faire sur n'importe quel gamme d'ordi et qui ne représente rien du tout puisqu'avec ce genre de test un SoC d'entrée de gamme poutrera un flagship dix fois plus puissant.
Je vois pas l'intérêt de publier ce genre de résultat, à part pour tromper les crédules. Niveau crédibilité c'est aussi pourri que les journalistes tech qui relayent les rumeurs et les leaks douteux façon tabloids.
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 1.
Déjà ces valeurs ne veulent rien dire, y a pas d'unité. C'est un score de benchmark synthétique, pas une tâche réelle. Y a rien de quantifiable.
Ensuite on parle d'un gros SoC comparé à celui du journal et pourtant selon leur test il ne fait que l'équivalent d'un vieux processeur haut de gamme qui se fait désormais humilier par celui d'un laptop actuel à 500 balles (et là les tests sont nombreux et plus rigoureux qu'un simple score).
Tu ne fais que prouver mon point : ce n'est pas du tout comparable à un desktop actuel.
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 1.
Complètement.
Pour moi un "ordinateur de bureau" c'est pas un mini-PC avec des composants de tablette ou de laptop conçus pour du nomade, c'est un ordi avec un processeur de gamme desktop optimisé pour la performance et non la consommation.
C'est déjà téléphoné quand il n'y a aucun espoir que ce quadcore peu rapide fournisse la même puissance que les derniers né des gammes mobiles en x86 (même en gamme relativement basse AMD propose actuellement de l'hexacore ou du quadcore avec SMT). J'ai pas été voir de tests de leur précédente devboard mais vu les specs c'est impossible que ce soit du même niveau.
Ça veut pas dire que ce Syfive n'est pas suffisant pour bon nombre d'activités, seulement que ça joue pas dans la même cour que les processeurs x86 récents.
Sinon ça sert à rien de prendre Apple en exemple, les biais de ces comparatifs sur ce genre de matériel ultra fermé ont déjà été débattus ultérieurement. Tant qu'on pourra pas y faire tourner un autre OS pour isoler le hard du soft, ça n'est que mélanger des choux et des carottes.
[^] # Re: quel forceur ce Martoni
Posté par YBoy360 (site web personnel) . Évalué à 2. Dernière modification le 31 octobre 2020 à 00:06.
Apple va lancer l'année prochaine des iMac basés sur l'ISA d'ARM, donc il s'agit bien de desktop. Ils utilises Gcc, llvm, Webkit … Qu'est-ce qui empêche de comparer ça à un Raspberry PI, ou à un x86 ?
En quoi un benchmark sous Windows, ou avec n'importe quel binaire est-il plus ouvert ?
Aujourd'hui, tu as les performances d'un "Desktop" x86 (i7, i9), dans un boîtier de Nuc. Intel ne peut rien y faire de par la nature de leur ISA. Elle est la moins efficace de toutes. Le surcoût est au minimum de 30 % de transistor supplémentaire pour les étapes fetch/decode par rapport à de l'ARM.
Que va tu dires lorsque Microsoft va lancer des processeurs ARM, lorsque Google va faire de même, tu crois qu'ils vont se cantonner aux smartphones et tablettes ?
Un petit test du dernier CPU Microsoft : Surface Pro X review, TheVerge. C'est juste leur 1er CPU maison.
De plus, il me semble que le jeu d'instruction RISC-V est utilisé par IBM pour leurs stations de travail…
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 4.
À chaque fois qu'on parle de CPU vous ressortez la même chose, on dirait que personne ici ne comprend qu'une méthodologie de test correcte c'est une équation à une seule inconnue. Si vous laissez des variables supplémentaires, le résultat n'a plus aucun sens.
Si tu veux comparer du soft, tu le fais sur le même hardware. Si tu veux comparer du matériel tu le fais avec le même environnement software. C'est simple.
Le problème étant que c'est impossible de décorréler les deux avec ce matériel Apple donc y a aucune comparaison objective possible.
Arrêtez de ressortir toujours les mêmes exemples et arguments bidons qui finissent en discussions stériles. Vous êtes des VRP Apple ou quoi !?
La différence est que les tests sur Windows sont généralement intra ISA. Quand on compare deux ISA, on utilise un OS commun avec des builds reproductibles, càd un Linux ou BSD.
De plus Microsoft ne vend pas de matériel x86 donc y a pas de risque que leur OS trafique ces résultats.
Les binaires de bench n'ont qu'une valeur indicative intrinsèque. Un testeur sérieux utilisera une palette d'applications réelles qui lui permettra de constater si tel ou tel soft favorise tel ou tel matériel.
Vous avez fumé la moquette les gars. Regardez les specs et les perfs d'un i7, i9, R7 ou R9 desktop de cette année. Regardez aussi ce qui est sorti récemment en laptop. Aucune chance que cette puce faites pour les contraintes d'une tablette leur arrive à la cheville. C'est comme comparer une console de salon avec un PC gaming.
Déjà Intel est à la bourre niveau process de lithographie, regarde surtout ce que fait AMD en ce moment.
La taille du die, la conso, le rendement on s'en fiche un peu pour du desktop. Même le process de gravure est étudié pour optimiser les performances au détriment de la conso.
Déjà si The Verge c'est ta référence on est mal. Cet article n'est pas un "test", y a aucun chiffre, aucune méthodologie, aucune comparaison. Rien que le début part mal quand ils parlent de Intel en oubliant complètement que c'est désormais AMD qui mène la course en x86 depuis quelques temps. Ça pue le fanboyisme.
Ensuite là encore on parle pas du tout d'une puce desktop. Il y a un fossé à combler entre un netbook d'entrée de gamme et une workstation.
"C'est juste leur 1er assemblage maison" serait plus juste. Ils ont seulement utilisé des briques provenant de ARM et d'un designer de GPU/VPU (d'ailleur lequel?). C'est ce que font les taiwanais et les chinois depuis au moins 10 ans.
Ça ne tiendra jamais la distance face au travail du géant Qualcomm qui lui a une licence architecte et des designs bien plus optimisés depuis des années.
Merci pour le fou-rire. Désolé mais c'est bien la preuve que tu ne sais vraiment pas de quoi tu parles et que t'as même pas la curiosité de chercher. Petit indice : OpenPower.
[^] # Re: quel forceur ce Martoni
Posté par YBoy360 (site web personnel) . Évalué à 1.
Ha bon? pour avoir travaillé 7 ans dans l'optimisation CPU, je peux te dire que personne ne s'empêche de faire des bench entre différents OS, sur différentes ISA …
ça n'a pas toujours été le cas, en plus d'ARM, Windows a supporté l'Itanium et autres.
Regarde les évolutions en performance en 2 ans dans le monde ARM. ils sont peut-être loin concernant l'arithmétique flottante, mais à part application gourmande en FLOP on peut prédire l'année prochaine un CPU au niveau d'un i5, voir i7.
Je voulais dire RISC, l'architecture RISC, pas forcément RISC-V ou OpenPower. En 2000, que ce soit les SPARC, les powers ou les MIPS, c'était ça les Workstations. Il n'y a qu'IBM qui perdure :
Power9
Phoronix
J'hésite à te coller l'étiquette "je travaille chez ESI Group sur des clusters Intel" ou "je travaille chez Intel tout court" …
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 0.
Sans base commune, aucun moyen de comparer.
Si vous aimez vous torcher avec la méthode scientifique dans ta profession c'est votre problème mais faut pas venir nous montrer vos résultats biaisés pour appuyer des croyances.
Et il supporte ARM depuis longtemps, tu ne m'apprends rien. Le seul problème c'est que Windows n'est pas dispo partout ce qui fait qu'on le réduit à certaines ISA.
Prédit ce que tu veux, moi je parle du présent et je réagi sur vos affirmations non fondées. ARM a évolué je n'en doute pas mais x86 aussi et appuyer son argumentation sur les soi-disant performances des boites noires d'Apple c'est du pur sophisme.
La prochaine fois tu te relira mieux avant de poster.
Mais soit, je vois pas ce que ça a à voir vu que le modèle CISC n'existe plus en interne et que ARM n'est techniquement plus du RISC.
Pas la peine de poster des liens vers des choses dont on parle régulièrement ici depuis des années.
Donc pour toi si on est opposé aux "tests" bidons on est forcément pro-Intel. Désolé mais contrairement à toi je suis agnostique, j'attends des résultats concrets (ce qu'on trouve avec Risc-V, OpenPower, x86 et plein de SoC ARM) et pas de la hype marketing fournie par des pseudo-journalistes.
[^] # Re: quel forceur ce Martoni
Posté par YBoy360 (site web personnel) . Évalué à 3.
Du calme… Pas la peine de monter sur tes grands chevaux, je dis juste que l'archi x86 est moins efficace, relis mon premier message.
On verra les benchs de l'A14X (ou je sais pas quoi), par rapport à l'Intel.
Pour ta preuve "scientifique", on optimise pas de la même façon CATIA, Oracle et du HPTC avec du MPI. Tu te bases sur un binaire certifié dans un cas, sur une plateforme donnée, de l'autre tu peux customiser ce que tu veux. Les clients de DS ou d'Oracle n'ont pas accès aux sources. Il compare un tout, en customisant qq paramêtres. Le calcul scientifique, c'est différent.
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 1.
Je monte sur mes grands chevaux parce que vous brisez les noix à systématiquement prendre en argument des comparatifs foireux sur ces iBidules pour dire que ARM devient plus performant. Des comparatifs ARM vs x86 vs Tartempion existent déjà pour d'autres gammes d'utilisation et ces tests sont bien plus fiables.
On verra rien du tout puisque c'est une grosse boite noire qui ne permet pas de conduire un comparatif sérieux et que comme remarqué dans d'autres discussions ultérieures les Mac à base d'Intel ne sont vraiment pas ce qu'on trouve de mieux pour tester ces CPU puisque ces machines ont de gros problèmes de thermal throttling contrairement aux machines concurrentes qui ne tournent pas sur OSX.
Et encore une fois, c'est AMD qui lead x86 en ce moment, osef d'intel qui patauge.
Quand tu optimises un système, tu compares bien les variations sans changer d'autres paramètres hard ou soft, non ? sinon c'est pas possible de mesurer l'impact individuel de chaque changement. Ici c'est la même chose : tu peux pas comparer les perfs brutes de différents CPU/GPU si tu changes d'autres paramètres en même temps.
À part les ingénieurs d'Apple, personne ne peut donc évaluer ce que leurs processeurs ont réellement dans le ventre face à la concurrence puisque l'environnement est clos et possède ses propres optimisations qui faussent toute mesure absolue. L'entreprise jouait déjà sur cet obscurantisme avec ses iPhone et iPad.
[^] # Re: quel forceur ce Martoni
Posté par groumly . Évalué à 6.
D’un autre côté, savoir si le cpu serait 10% plus rapide avec un software different, ou dans un boîtier différent, on s’est cogne un peu, vu que ce serait pas en vente sur le marché de toutes façons.
La question c’est grosse modo: comment est ce que ce cpu arm se place face aux machines actuelles? Que ça soit du au hard ou au soft importe peu au final (surtout que bon, c’est largement le même soft, hein, macOS reste macOS, on va pas enculer les mouches).
Est ce que c’est suffisamment proche pour qu’on y perde pas grand chose au final? Quelle marge de manœuvre a Apple pour rattraper le retard? Qu’est ce qu’on gagne d’autre (batteries/bruit des putains de ventilos)?
Linuxfr, le portail francais du logiciel libre et du neo nazisme.
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à -2.
La réponse étant : Vu le nombre d'inconnues, on ne peut pas avoir de certitudes donc c'est inutile de prendre ce produit comme exemple de cpu ARM.
Le reste de tes questions c'est pas le sujet et de toute façon c'est déjà tout décidé par Apple, peu importe que les raisons soient dans l'intérêt de leur clientèle ou non.
[^] # Re: quel forceur ce Martoni
Posté par groumly . Évalué à 7.
Ah bon?
On peut pas lancer une compilation d’un même projet avec la même version de clang/swiftc et voir combien de temps ça prend?
On peut pas lancer l’encodage de la même vidéo avec les mêmes encodeurs, et voir comment de temps ça prend?
On peut pas lancer le même programme en mode émulation, et voire combien de temps ça prend?
Ou un rendu 3D, ou des animations dans Uikit et mesurer les fps, ou quoi que ce soit qui utilise le cpu et mesurer si ça va aussi vite, moins vite ou plus vite?
Tu nous dit que c’est littéralement impossible de mesurer les performances d’un mac commun face à un pc spécifique, et déterminer lequel va le plus vite, lequel consomme le moins, quel autre compromis performance on peut trouver?
L’os est le même, le runtime est le même. Les optimisations sont différentes, mais dans un cas, ils connaissent la plateforme depuis 15ans, dans l’autre ils l’ont créée y’a 10 ans, je suis convaincu que s’il y a une optimisation hard à trouver, ils l’ont trouvée d’un côté ou de l’autre.
C’est sur, l’implémentation concrète est techniquement différente, mais j’ai vraiment du mal à voir comment tu contrôle pour ca, vu qu’on tente de comparer à travers des archi différentes, évidemment que l’implémentation est différente.
Parce que les performances du cpu, c’est pas decide par apple non plus?
Donc, en fait, autant ne pas savoir, vu qu’Apple avait un but en tête avant de se lancer dans un projet aussi trivial que designer ses propres cpu. J’ai du mal à comprendre la logique je t’avoue.
Une vraie culture de scientifique assoiffé de connaissances, ma foi. Hacker du mois!
Linuxfr, le portail francais du logiciel libre et du neo nazisme.
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à -2.
Tu peux toujours faire mumuse sur leur plate-forme de dev, mais pas sur le reste de leur matériel ARM. Puis cette couche OS ne permet toujours pas de mesurer les perfs du hard pour le comparer dans les mêmes conditions que les autres acteurs.
Tu as lu la discussion ou tu veux juste troller ? On parle pas de Mac "commun" (ce que je comprend comme x86), on parle de leur matériel basé sur ARM. Y a aucun problème de mesure avec leur matériel x86 vu qu'il est accessible pour d'autres OS.
Tu parles de personnes qui sont pas fichus de mettre une solution de refroidissement adéquat pour le CPU ou qui vendent des laptops avec des claviers de mauvaise conception dont bon nombre d'utilisateurs se plaignent et qui ne sont pas corrigés.
Tout me porterait plutôt à penser qu'ils sabotent déjà leur gamme x86 pour forcer leurs captifs à basculer sur leur nouvelle solution ayant davantage d'intégration verticale.
Brider les perfs d'un côté pour combler le manque de perf de la prochaine solution est un scénario totalement plausible quand on peut constater qu'ils sont pret à fournir des MÀJ de la mort pour forcer le renouvellement.
C'est surtout que osef total gros ! Apple c'est l'une des rares sinon la seule boite qui fait des SoC ARM sans fournir au minimum une stack Linux. Pour constater l'évolution d'ARM, faut oublier ce fabricant là et consacrer son temps sur d'autres.
C'est vraiment fatigant de devoir répéter les mêmes choses à chaque fois qu'on parle de ce sujet.
[^] # Re: quel forceur ce Martoni
Posté par YBoy360 (site web personnel) . Évalué à 0.
T'es vraiment obtus, ce n'est pas foireux de comparer différentes plateforme pour connaître la plus rapide et d'en déduire les performances du CPU. On ne te demande pas une analyse exhaustive de l'impacte de chaque instruction. Si la même application, compilée par le même développeur s'exécute aussi vite sur ARM MacOSX que sur un i5 Windows 10, et que les résultat sont ceux attendu, alors l'ARM d'Apple est aussi rapide. Sinon tu suggères que Windows pénalise l'i5. Bien sûr que l'on aimerait tester ça sous Linux, mais ce n'est pas la question.
T'apprends rien à personne, oui, il faut procéder avec méthode, on fait de la dichotomie pour faire de l'optimisation, en analysant ce qui se passe dans le CPU, le GPU, et en ne changeant qu'un paramètre à la fois, merci. Je vois pas à quoi répond ce genre de remarque. Dans la plupart des benchmark que j'ai dû optimiser, sans changer l'OS, on était en compétition avec d'autres plateformes et le prix des stations dépendait des perfos, il n'y a rien d'académique là dedans. Et le client lui, comme tout le monde à part toi, déduit du benchmark les perfo du CPU.
Justement, le but est de mesurer les perfo, pas les méthodes pour y parvenir. Si les applications utilisent des hack d'Apple tant pis si tu comprends pas ce qui se passe. Mais comme dit plus haut, il n'y a rien de magique. Surtout, ce que je ne comprends pas dans cette remarque, c'est qu'au pire, Apple ne fait qu'exploiter son CPU, à te lire, on a l'impression qu'il "accélère" les choses en trichant, ça n'a AUCUN sens…
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à -1.
Faut savoir. Je répond à toi qui me dit que vous faites pas comme ça dans ta branche. Là on tourne en rond.
Pas de ma faute si tes clients sont des gros pigeons.
Mais justement ça c'est de l'optimisation ! Ça ne permet absolument pas d'affirmer que tel CPU est équivalent à tel autre de la concurrence comme vous le faites !
Sachant qu'en plus iOS/OSX ça tourne sur un nombre restreint de machines bien définies, l'optimisation y est logiquement plus présente.
Pourtant ça reste aussi une possibilité pour gonfler les chiffres. Les benchs peuvent très bien subir un traitement prioritaire par l'OS, faisant fi des limites de frequence/tension, de consommation, d'enveloppe thermique, de gestion de la mémoire ou de gouverneur qui s'appliqueraient normalement pour conserver un usage et une durée de vie acceptable sur le long terme.
C'est déjà hyper facile de fausser des résultats sur des PC en les boostant avec différents paramètres d'overclocking. Ça peut même souvent arriver de manière involontaire sans faire attention, voire à l'insu de l'acheteur avec les réglages d'usine (Ya plein de cas récents de fabricants de carte-mère pour x86 qui activent par défaut une option d'OC ou qui augmente les tensions, les fréquences ou les durées de turbo au delà des specs).
C'est tout le problème de cet environnement fermé. On ne peut rien infirmer ou affirmer avec certitudes.
[^] # Re: quel forceur ce Martoni
Posté par YBoy360 (site web personnel) . Évalué à 4. Dernière modification le 01 novembre 2020 à 09:09.
Pfff, déjà, arrête de prendre les gens de haut en te prenant pour le Saint-Père, c'est très malsain. Ta vérité n'est pas universelle.
Et ? Tu crois vraiment que sur la plupart des benchs CPU l'OS à un impacte ? Le fait de maîtriser sa plateforme ne va pas multiplier les perfo comme les petits pains…
Elle est bonne celle là, "l'Overclocking", c'est donc le seul argument que tu as pour que l'OS optimise le bench … C'est énorme.
Tout cet échange pour en arrivé là. Les bras m'en tombe…
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 2.
La tienne encore moins mon gars. Et c'est pas en faisant un combat de punchlines que tu vas prouver quoi que ce soit.
Il y a TOUJOURS un impact, reste à en connaitre les proportions sur ce matériel et le problème justement c'est qu'on peut pas faire de réelles mesures isolées. C'est ce que je me tue à dire ici depuis des années.
T'es gentil et tu relis l'extrait que tu cites au lieu de choisir des bouts de phrase qui t'arranges.
Si t'es pas capable de comprendre ce qu'on te répond, abstiens-toi.
Comment veux-tu que je ne te prenne pas de haut avec ce genre de réponse ?
[^] # Re: quel forceur ce Martoni
Posté par YBoy360 (site web personnel) . Évalué à 2.
Ooops, non je comprends pas ce qu'est l'overclocking, ni comment on configure son bios, je n'ai jamais joué à des jeux vidéo, jamais modifier du code sur des benchs face à du NVidia/Intel (en fait si, mais toi jamais apparemment)…
En gros c'est le seul argument que t'as (j'en aurais bien d'autres), parce que le reste de ta diatribe, c'est uniquement rabaisser les autres.
Je vais prendre le temps de répondre intégralement à ton précédent message :
Vas-y que j'étale ma confiture… Comme tu dis, ça permet de gonfler les chiffres, mais de pas de beaucoups, sauf sur 2 références appréciées des gamers. Mais même pour ces références, les gains ne sont pas si important.
Non, sur les CPU modernes, ce n'est pas simple, tu prends les derniers AMD, Ryzen 3?00 (encore plus avec les 3?50 X), tu ne peux quasiment pas changer les paramètres du FSB, ni de façon importante les fréquences du CPU.
Les gains sont marginaux (prouve moi l'inverse, sans utiliser de solutions WaterCooling ou autres), même en ayant un système instable avec WaterCooling. Encore plus pour les hauts de gamme.
Et ça n'apporte que peu de performances. Prouve moi les gains. S'ils arrivent à 20 % je te pais un soda.
Parce que les BIOS, ou les firmware de ta carte mère, ils sont ouverts ?? Les firmwares des CPU font tous ça et tu n'as pas accès à ces couches logiciels, sur du Intel, comme de l'ARM. Le throttle, le boost de fréquence pour un bench mono-threadé, ou changer d'autres paramètre associé à un process, c'est ce que font de base tous les utilisateurs un peu averti (gamers bas du front)! Pas besoin de faire son propre CPU pour jouer sur ces paramètres.
Mon point de vue, c'est que si les CPU d'Apple supporte bien l'O/C, tant mieux pour eux. C'est pas les premiers à le faire, donc, ton bel argument n'a aucune valeur.
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 1.
Je parle pas que du hardware, je parle aussi du comportement de l'OS qui peut très bien changer à la volée (mettre une priorité d'execution insane sur la tâche, lui assigner un ou des cœurs exclusifs, jouer sur les différents caches, etc.).
Si seulement t'avais un peu mieux lu au lieu d'écrire que j'étale ma confiture.
Ouai donc là tu dis que t'es juste en train de troller.
En même temps le "FSB" change aussi la fréquence des bus PCIe… ce qui n'empèche pas des constructeurs de le gonfler comme avec les tensions.
Sur Zen de toute façon les gains se font majoritairement au niveau de la vitesse de l'Infinity Fabric.
Même si c'est 10% ça ne change pas le propos. La somme de tous les petits gains HW et SW artificiellement crées falsifient le résultat.
Tu ne peux rien prouver donc n'exige rien en retour.
Comment un firmware peut savoir que je lance spécifiquement un bench ? Ça n'a aucun sens ce que tu dis. Je parle de changer le comportement normal pour passer temporairement en mode "bench"
Les utilisateurs oui, quand le firmware leur permet de le faire, pas l'OS quand il détecte qu'un bench est lancé. Elle est ici la subtilité.
Non encore une fois tu n'as pas lu. Mon argument était que des changements peuvent être faits à l'insu de l'utilisateur et dans des proportions qu'on ne retrouve que chez les compétiteurs qui se foutent de la dissipation, des dégats sur le long terme ou d'avoir un système utilisable pour d'autres tâches à côté.
L'overclocking n'était qu'un exemple de ce qu'il est possible de faire pour changer un résultat de benchmark, pas un argument en lui-même.
Sérieusement, t'es pénible.
[^] # Re: quel forceur ce Martoni
Posté par YBoy360 (site web personnel) . Évalué à 3. Dernière modification le 02 novembre 2020 à 08:31.
Je comprends bien ce que tu veux dire, mais changer la fréquence, ça se voit, surtout sur un CPU fanless. Tu peux mesurer la consommation, la fréquence des bus, avec des outils externes. Je fais une réponse globale à tout tes messages, en gros pour moi, tu confonds benchs GPU et CPU, je dis pas que tu as complètement tords, je m'explique :
Certains drivers de GPU propriétaires ont des profiles en fonction de l'application que tu utilises, tu peux vraiment changer le comportement du pipeline et les performances pour 3 raisons (et demi) :
Les instructions exécutées par le pipeline ne sont pas accessibles à l'utilisateur final (on peut compiler dans un language intermédiaire, mais tu ne peux pas débugger ou tracer les compteurs HW associés aux unités), sur les cartes ayant de la RAM dédiée. L'utilisateur code des shaders, qui sont traduits par un compilateur dont on a pas les sources, il est possible de procéder à de nombreuses optimisations, pas générique, qui fournissent un résultat correcte. ÇA c'est de la triche.
Le GPU dispose de très nombreuses unité de calcul, idem, on a pas accès aux détails de ce qu'il se passe, hors l'implémentation des transistors et la localité des unités de calcul, font que tu as une énorme marge de manœuvre en terme de fréquence des unités et de désactivation d'unités.
Le switch de contexte sont bien moins nombreux, donc ça permet d'avoir un contexte qui soit bien plus complexe et qui porte plus d'info de customisation entre les applications.
Enfin, la demie raison, c'est qu'avec les anciennes API, avant DX10 et Vulkan, les drivers étaient de grosses machines à état, le potentiel d'optimisation était énorme…
Maintenant pour les bench CPU, le contexte est totalement différent, même si tu n'as pas accès aux sources de l'OS et du compilateur, tu as accès aux instructions, aux compteurs HW et tu peux analyser et tracer très facilement ce que tu veux.
Alors bien sûr, tu peux faire plein de micro-optimisations, comme (je vais te donner des idées) :
Tu peux faire tout cela, en effet, l'OS peut aussi changer le CAS de la mémoire directement, ou la fréquence du CPU…
Mais on peut aussi faire cela sous Linux! Alors que sur un Bench GPU, avec un driver propriétaire, tu ne peux rien faire.
Je veux bien admettre qu'Apple joue à ce petit jeux, mais je crois que personne ne se prive de le faire, et il n'y a pas grand chose de magique dans les benchs CPU, contrairement aux benchs GPU.
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 2.
Bien sûr mais y a-t-il au moins une poignée de tests qui vérifient ça ?
Pareil, pour l'instant j'ai vu aucun test qui vérifie si ces compteurs sont bien exposés sur ce système.
Effectivement et dans ce cas un testeur consciencieux va s'assurer que ces paramètres d'optimisation soient les mêmes pour toutes les machines à comparer. C'est tout l'intérêt d'utiliser un OS unique dans un tel protocole de test.
La triche serait trop grillé chez les différents concurrents puisqu'ils ne sont pas exclusifs à un couple matériel+OS.
Apple est dans un cas particulier favorable à ce genre de triche.
[^] # Re: quel forceur ce Martoni
Posté par fearan . Évalué à 5.
Oui, et pas qu'un peut; bien évidement ça va dépendre du bench, mais pour peux que tu joues avec les threads, la gestion mémoire, l'inhibition ou non de certaine vulnérabilités, l'activation ou le bypass de certaines instructions, oui ton système d'exploitation va avoir un impact; rien que le scheduler va déterminer combien de fois tu va switcher de contexte;
Si t'as jamais passé les services de windows ou linux au peigne fin pour savoir quoi virer, t'être arrangé pour que les softs 'indispensables' mais inutile soient endormis sur disque, coupé l'antivirus pour que le logiciel un peu limite passe de saccadé à fluide c'est que tu as toujours eu une machine trop puissante.
Regarde l'utilisation cpu de ta machine au repos; tu verra que c'est pas 0% du CPU; si ton système interrompt sans arrêt ton bench, il va être pourri, si ton os laisse le bench travailler tout seul sans l'interrompre ses résultat seront meilleur
sous linux pour faire des bench reproductible, il y a plusieurs recommandations :
https://easyperf.net/blog/2019/08/02/Perf-measurement-environment-on-Linux
tiens et sur un même OS, suite à une petit faille sur certains procs
https://www.zdnet.com/article/linux-performance-before-and-after-meltdown-and-spectre-fixes/
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: quel forceur ce Martoni
Posté par Nicolas Boulay (site web personnel) . Évalué à 4.
Oui, c'est le seul avantage évident pour le RISC vs CISC. Mais c'est tout. Typiquement, le code x86 est globalement plus compact que le code ARM même Thumb. Cela change tout sur l'efficacité du cache L1 code. Cela compense l'utilisation d'un décodeur plus gros.
"La première sécurité est la liberté"
[^] # Re: quel forceur ce Martoni
Posté par Kannagichan . Évalué à -1.
Pas vraiment le x86 à des instruction de 1 à 15 bytes (la moyenne est de 3,5 bytes) donc légèrement moins qu'un RISC , et bien plus qu'un thump ;)
Sinon l'autre avantage est que l'ARM peut décoder 8 instructions , le x86 est bloqué à 4 :)
Donc non seulement le RISC peut abaisser sa pipeline (donc être plus performant) , mais aussi prendre moins de transistor :)
[^] # Re: quel forceur ce Martoni
Posté par Nicolas Boulay (site web personnel) . Évalué à 3.
Il suffit de compiler en ARM et en x86 pour voir quel binaire est le plus gros. Le RISC a toujours été plus gros que les codes CISC. L'itanium est l'exemple extrême qui lui a couté cher.
"La première sécurité est la liberté"
[^] # Re: quel forceur ce Martoni
Posté par groumly . Évalué à 8.
la vache, pour quelqu’un qui a posté pas moins de 4 messages pour se plaindre du manque de rigueur sur les benchs, tu manques vachement de rigueur avec ton vocabulaire.
“un desktop est un ordi avec un cpu de gamme desktop, optimisé pour la performance”. Ok, donc déjà la définition fait référence à la définition, et en plus ça contredit la définition déjà acceptée qui est “ordinateur conçu pour être utilisé sur un bureau, fixe”.
Un raspberry pi est un ordinateur de bureau, ne t’en déplaise.
https://fr.wikipedia.org/wiki/Ordinateur_de_bureau?wprov=sfti1
Linuxfr, le portail francais du logiciel libre et du neo nazisme.
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à -1.
Pas vraiment non. Les gammes de processeurs sont nommées Desktop d'abord par opposition avec les gammes Server puis avec les gammes Mobile.
On est sur un site relativement technique dans un journal qui l'est. Tout le monde n'a pas toujours la même définition des choses.
C'est pareil que pour les termes "ordinateur" ou "PC".
Le problème que je vois dans la définition que tu donnes c'est que bien que monté sur un circuit format ITX, le SoC lui-même n'est pas conçu pour ce genre d'usage. Comme pour les RaspberryPi et autres clones, c'est par nature une carte de développement pour des systèmes embarqués de puissance modeste, pas un ordinateur de bureau au sens propre.
Les mini-PC sont d'ailleurs davantage utilisés en HTPC : des ordinateurs de meuble télé plutôt que de bureau.
[^] # Re: quel forceur ce Martoni
Posté par martoni (site web personnel, Mastodon) . Évalué à 3.
Sans vouloir insulter ton intelligence bien sûr. Ne penses tu pas qu'un ordinateur avec un écran, un clavier et une souris permettant de faire de la BUREAUtique, de «surfer» sur le web et regarder des vidéos peut être considéré comme un «ordinateur de bureau» ?
J'ai plus qu'une balle
[^] # Re: quel forceur ce Martoni
Posté par jyes . Évalué à 4.
En même temps, sur le web « moderne » ces activités demandent presque un PC de gaming ! C’est beaucoup trop exigeant pour définir un PC de bureau ;-) .
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à 0.
Je pense que ça dépend de chacun, pour moi c'est poussif comme dénomination étant donné que je ne considère pas un laptop ou un Rpi en tant que tel.
Vu la tronche de la carte, je dénommerai ça comme étant un mini-PC de développement.
La définition que tu donnes est pour moi celle d'un PC dans le sens actuel du terme, comme je l'ai dit je considère un ordinateur de bureau comme plus spécifique.
[^] # Re: quel forceur ce Martoni
Posté par Christophe "CHiPs" PETIT (site web personnel) . Évalué à 1.
https://www.raspberrypi.org/products/raspberry-pi-400/?resellerType=home
[^] # Re: quel forceur ce Martoni
Posté par Anonyme . Évalué à -1.
bah oui, c'est un Personal Computer.
Je vois pas ce que tu veux dire avec ce lien. Fais des phrases.
[^] # Re: quel forceur ce Martoni
Posté par Christophe "CHiPs" PETIT (site web personnel) . Évalué à 1.
La fondation Raspberry vient de sortir un modèle de Pi 4 dans un clavier, qui permet de faire pour moins de 100€ et qui est donné comme bon pour faire de la bureautique de base, de la navigation sur le web et du développement "simple".
Effectivement, il n'a pas les performances d'une machine dotée d'un Core i9 de bureau, mais la machine complète coûte une fraction du prix du processeur (et sans doute moins que le boîtier ou la solution de refroidissement nécessaire à la grosse machine), le tout en ne consommant qu'une grosse dizaine de watts.
# archimedes
Posté par BAud (site web personnel) . Évalué à 2.
3,141592…
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.