Aller au contenu

Qui c'est qui a la plus grosse ?


Wault

Messages recommandés

Tu sais, la R290 (non X) ne brille pas dans les benchs fasse à une HD7950, pourtant, en passant de l'une à l'autre, je peux te dire que j'ai vraiment senti la différence.

Je ne sais pas si c'est une question de stabilité des FPS ou une simple optimisation sur les filtres, mais - et surtout au prix où elle est tombée en ce moment - la R290(X) est une carte absolument sans conteste "meilleure" que les HD79x0.

Donc, je reste optimiste pour la R3x0.

 

Bon, ceci dit, si on veut avoir l'impression d'avoir un PC de merde, il suffit d'utiliser la dernière démo nVidia en partenariat avec Capcom : Monster Hunter Online : http://www.guru3d.com/files-details/monster-hunter-official-benchmark-download.html

Attention, en plus d'être mortellement optimisé nVidia, c'est aussi relativement instable.

 

J'ai lancé le bench qui force la résolution à 1280x720 avec MSAA 4x.

 

R290 Tri-X aux fréquences d'origine : 957/1250 :

mho_benchmark%202015-01-08%2023-31-38-65

 

 

 

R290 Tri-X à 1094/1414 :

mho_benchmark%202015-01-09%2019-23-37-39

 

 

Lien à poster
  • Réponses 1 k
  • Créé
  • Dernière réponse

Meilleurs contributeurs dans ce sujet

Meilleurs contributeurs dans ce sujet

Messages populaires

Il parait effectivement que suite à la pandémie les ruptures de stocks en carte graphique sont légions en ce moment... il semble m^me complqiué d'en obtenir... ou sinon comme tu dis à des prix de fous

Salut, Je profite de l'endroit pour tenter de répondre à Ben Kenobi qui (me) demande dans la Chatbox si on peut comparer mon nouveau MacBook Pro M1 Pro 14" avec un PC actuel. Difficile à dir

Images postées

  • 7 mois après...

Hé hé, je vois que j'avais écris "... je reste optimiste pour la R3x0."

Sachant que les R3x0 sont devenu en réalité les Fury (X) je dois bien avoué que je suis bien tombé de haut.  :-(

 

Ayant donc gardé ma R290 Tri-X, :D , je suis passé sous Windows 10, et j'ai relancé 3DMou.

Ah oui, mon CPU est désormais sous Corsaire H105 (un mini-watercooling), donc je peux pousser ses fréquences, même si je ne l'ai pas fait pour ce test.

 

http://www.3dmark.com/3dm/8398590

9178 points
Graphics Score      12025
Physics Score        8648
Combined Score    3420
 

En gros, j'ai "gagné" quelques points en score graphique et à priori rien perdu en perf CPU en changeant d'OS.

Pour le moment, tout roule, surtout que j'ai l'impression d'avoir un peu gagné en perf dans Witcher III.

 

Ne me reste plus qu'à essayer d'autre benchs et de trouver des tests DX12. :p

 

 

EDIT : là où c'est rigolo, c'est que je suis quand-même tout juste un poil en-dessous des spec "Gamer" recommandées pour l’Oculus Rift, selon 3DMark ! :lol:

 

 

 

 

 

EDIT 2 : J'ai refait le test en poussant mon CPU à 4,7GHz (coef x20 et à bus à 235MHz => RAM DDR3 à 1880MHz au lieu de 1866). Bon ça chauffe terriblement, mais ça tient suffisamment longtemps pour passer la première phase de Prime95, ce qui est assez représentatif en ce qui me concerne. Et puis j'ai la tour ouverte en ce moment.

 

http://www.3dmark.com/3dm/8410695

9500 points :-p
Graphics Score      12477
Physics Score        8900
Combined Score    3534
 
 
Aussi, j'hésite à laisser tous mes résultats en haut du tableau, car même s'ils sont intéressants pour comparaison, ça donne l'impression que je m'amuse tout seul. :/
Lien à poster
  • 5 mois après...

Salut les aminches !

 

Pour noël, je me suis fait plaisir en achetant une R290 Vapor-X pour 205€ à peine ("neuve" mais reconditionnée) !

Et je me suis depuis, lancé dans le Crossfire, avec ses joies et ses déceptions.

 

La Vapor-X (1030/1400) : https://www.techpowerup.com/gpu-specs/sapphire-tri-x-r9-290-oc.b2706
2920-front.jpg
(Lien site du vendeur :  11227-04_R9_290_Vapor-X_TRI-X_4GBGDDR5_D)

 

La Tri-X (957/1250) : https://www.techpowerup.com/gpu-specs/sapphire-tri-x-r9-290.b2755
2755-front.jpg
(Site du vendeur :11227-03_R9_290_TRI-X_4GBGDDR5_DP_HDMI_2)

 

Le CPU reste le FX8350 à 4675MHz (coef20, BUS à 233, RAM DDR3 à 1866).

 

Les résultats aux fréquences d'origine, avec la Vapor-X à 1030/1400 et la Tri-X à 957/1250

La Tri-X monte à 73°C, la Vapor-X à 82°C.

http://www.3dmark.com/3dm/10639334

12553
Graphics Score     22340
Physics Score       8997
Combined Score   3400
Graphics Test 1    106.77 fps
Graphics Test 2    89.09 fps
Physics Test         28.57 fps
Combined Test    15.82 fps

 

 

En passant les deux cartes à 1030/1400, je dois monter le voltage et le power-limit, donc la Tri-X prend 5°C de plus, mais les perfs augmentent sensiblement.

La Tri-X monte à 78°C, la Vapor-X à 84°C.

http://www.3dmark.com/3dm/10639504

12874
Graphics Score     23482
Physics Score       9028
Combined Score   3434
Graphics Test 1    111.75 fps
Graphics Test 2    93.98 fps
Physics Test         28.66 fps
Combined Test    15.97 fps

 

Ce que ne montrent pas ces résultats, c'est que l'on gagne aussi en FPS minimum.

Pour ce que j'ai pu constater dans la démo d'intro de ce test, là où ça tombait à 29FPS auparavant, ça reste à 32-33FPS ! :]

 

Bon, me reste à vérifier que le Crossfire est stable sous Assassin's Creed Unity.

Ce jeu est une véritable plaie pour les cartes AMD.

Vapor-X Seule : 29FPS

CF aux fréquences d'origines : 37FPS

Youpi !  x_X

 

Par contre, dans Far Cry 4, les performances étaient réellement très bonnes en CF.

J'ai pu jouer en une résolution supérieur et faire du downsampling grâce à ça.

 

 

 

Dernière chose, ma carte mère me dit que les ports PCI-E chauffent trop ! :-s

Forcément, avec deux cartes qui soufflent à mort dessus.

J'ai ajouté un ventilo, et je laisse donc ma tour ouverte, mais je suis bien content d'avoir passé le CPU en watercooling.

 

Je pense que mes prochaines cartes graphiques seront d'ailleurs watercoolées.

Tant pis pour le porte-monnaie, je piocherai dans les économies pour les études de ma fille. :-p

Lien à poster
  • 5 ans après...

Salut à tous,

Longue pause pour ce thread, n'est-ce pas ?
5 ans !
Je me demande ce qui a bien pu en être la cause... (regarde sa fille de 6 ans et sa bague au doigt...)

Bref. J'ai décidé de faire un petit point même si je n'ai pas de matériel de OUF, c'est quand-même une évolution notable.

 

Tout d'abord question carte graphique, je suis passé il y a trois ans déjà à une Vega64 LC :
Version Sapphire :
https://www.sapphiretech.com/en/consumer/21275-00-radeon-rx-vega64-8g-hbm2-lc
https://www.techpowerup.com/gpu-specs/radeon-rx-vega-64-liquid-cooling.c2992

2992-front.jpg

 

 

Sur les photo, elle fait vraiment pavé, mais vrai elle fait bien plus classe que les designs des R290 du précédent threads, même si je les trouve relativement réussis.
Le fait qu'elle soit en acier/aluminium, que sais-je, au lieu du plastique, y est pour beaucoup.

Bon, question bruit, comme le ventilo de l'AIO est plutôt petit la carte est audible quand elle chauffe.
Beaucoup moins que les Vega64 classique qui étaient des turbines parait-il, mais la version LC n'est pas silencieuse. Jouant au casque, cela ne me dérange pas.

Un point frustrant est que le turbo de ma carte est indiqué à 1750MHz alors que la carte ne l'atteint jamais, sauf en OpenCL.
En réalité, elle tourne @ stock autour de 1450Mhz, et undervoltée, je parviens à 1600-1650MHz mais avec surchauffe.

 

Du côté du CPU, je suis passé en 2017 à un Ryzen 1700X@3,8Ghz sur une CrossHair VI Hero avec DDR4@3200CL14.
Et je suis désormais depuis 2020 sur un Ryzen 3800X sur une ROG Strix X570-E Gaming avec DDR4@3600CL15.

 

Passer du FX3850@4,650Ghz au 1700X@3,8Ghz a tout simplement doublé les performances.
Je suis passé d'un 8 coeurs / 8 threads , à un 8 coeurs /16 threads et la différence de fréquence était compensée par l'IPC du Ryzen qui est bien meilleure.

Résultats ancien CPU-Z : le multithread passe de 9 200 à 19 500 points
http://valid.x86.fr/bjul4d
http://valid.x86.fr/whq94g

Et croyez-moi, la meilleure réactivité du système était sensible déjà sous le bureau Windows !

Le passage au 3800X il y a un an n'était pas forcément une bonne affaire, mais il m'a permis de refiler le 1700X à mon frère qui avait aussi un FX3850.
Le gain entre un 3800X et un 1700X est minime (10-15%). Il aurait fallu que je passe à un 5800X pour que ce soit sensible, je pense.

Mais l'écart de perf est quand-même là grâce aux 400-500Mhz de plus.
Scores nouveau CPU-Z :
https://valid.x86.fr/ixzhpg
https://valid.x86.fr/0zk7c8

Comparaison UserBenchMark :
https://www.userbenchmark.com/UserRun/21610479
https://www.userbenchmark.com/UserRun/30387432

 

Enfin, du 3DMark, où l'on constate qu'une Vega64 LC est équivalente à un crossfire de R290 OC. ^_^
Le Crossfire de R290 Overclockées à 23 850 contre la VegaLC @ stock à 23 790, c'est parlant. :-)

https://www.3dmark.com/compare/fs/13467019/fs/12902559/fs/14304204/fs/20434368/fs/22571333

816187649_Screenshot_2021-03-05Result.thumb.png.fe7fef4b9f0b6cda67b0f7b5aff83b24.png

 

Remarques :
- Les fréquences indiquées sont fausses. 3Dmark n'a jamais réussi à récupéré correctement les fréquences de mes CPU et GPU overclockés.

- les scores de la Vega évoluent, en fonction de l'OC, des programmes en parallèle et des pilotes. C'est juste pour un ordre d'idée.

Bon, depuis, j'ai stabilisé les perfs de la Vega LC à 26 000 points environ. Je ne sais pas vraiment, j'utilise surtout le bench TimeSpy désormais.

On peut aussi quand-même voir la différence entre le 1700X overclocké @3,85Ghz à 19 900 points (63FPS) et le 3800X @ stock à 23 000 points (73FPS) qui est relativement minime.

 

Enfin, j'ai aussi fait l'acquisition d'un écran QWHD (2560x1440) 144Hz Freesync2 HDR, le Samsung C27HG70
https://www.samsung.com/fr/monitors/gaming/qled-gaming-monitor-with-richer-and-clear-gameplay-27-inch-lc27hg70qquxen/
C'est amusant, je viens de voir qu'ils l'ont aussi mis dans Business monitors mais que toutes les images de la fiche indiquent bien "gaming monitor". :-D

Très rapidement :
- courbure : honnêtement, je ne sais pas si c'est mieux ou pas, mais ça ne dérange absolument pas, ni en bureautique, ni en jeu, ni en visionnage d'animés. D'ailleurs, la nouvelle version du moniteur a une courbure bien plus marquée.

- 144Hz : LA raison pour laquelle j'ai gardé cet écran => difficile de repasser en 60Hz après tellement ça parait saccadé !  ^_^
- HDR : l'écran n'est qu'à la norme HDR600, or il parait qu'il faut au moins HDR1000 pour être impressionné. Moi j'aime bien car les couleurs HDR sont bien "vibrantes", mais :
    - peu de jeux implémentent le HDR correctement
    - c'est meilleur que du HDR transcodé en SDR mais de peu. J'ai lancé une vidéo HDR avec le lecteur qui passait directement les couleurs à ce moniteur, et un autre lecteur qui passait les couleurs transcodées sur un moniteur SDR, en parallèle : c'est meilleur sur le Samsung. Honnêtement c'est déjà très bon en transcodage, mais on voit bien que les blancs sont surchargés et qu'il y a moins de détails en général.
- Freesync2 : je ne l'utilise pas. Pour moi, le tearing est moins gênant que le reverse-ghosting induit par FreeSync. C'est dommage et ça m'énerve, mais voilà voilà.

Je suis sur le point de mettre à jour le firmware dans une version (1025) trouvée sur Reddit. On va bien voir, ça a l'air "legit"... De toutes façons, le firmware que j'ai actuellement (1023), je ne l'ai trouvée que sur la version Coréenne du site Samsung, les versions FR et US du site ne la proposent pas.

 

Voilà, n'hésitez-pas si vous avez des questions même si je doute qu'il y en ait ; un Ryzen 5800X et une Radeon 6800XT auraient été plus intéressants, mais ils sont en rupture de stock et à des prix de folie. x_X
Je voulais une 6800XT pour Noël dernier. Ce sera peut-être mais même pas sûr, pour Noël 2021.

Lien à poster

Il parait effectivement que suite à la pandémie les ruptures de stocks en carte graphique sont légions en ce moment... il semble m^me complqiué d'en obtenir... ou sinon comme tu dis à des prix de fous.

En plus j'ai ouïe dire que les mineurs de bitcoins font la razzia sur les stocks pour leur business...  et pour les revendre à des prix de oufs aussi... bref on est dans un monde de malade (sans mauvais jeu de mot)...

Ca ne fait pas avancer le thread mais bon ... :desole:

  • Like 1
Lien à poster
  • 11 mois après...

Salut,

Je profite de l'endroit pour tenter de répondre à Ben Kenobi qui (me) demande dans la Chatbox si on peut comparer mon nouveau MacBook Pro M1 Pro 14" avec un PC actuel.

Difficile à dire, car il faudrait déjà 1/ que les services et apps de Benchmarking cessent de comparer les pommes :) et les poires (aucune allusion) en sortant des chiffres qui ne reflètent pas vraiment la réalité : de gros chiffres sortis du contexte d'une utilisation réelle ne veulent pas dire une sensation de grosses perfs. C'est bien joli, mais à quoi ça sert dans une situation professionnelle ? Ensuite, 2/ ces apps ne calculent pas les mêmes trucs selon que l'on est sur PC ou sur Mac, et sur ce dernier, on a maintenant 2 types d'architecture : Intel et Apple Silicon. Bref, va donc savoir si la CG est super véloce ou pas... Tout est intégré sur la Puce SOC (ARM) de mon MacBook Pro

Mais bon, je peux sortir des chiffres bruts (du chapeau de chez GeekBench), tout en pensant que cela ne vous dira pas grand chose si vous n'avez pas de Mac comme le mien.

En espérant que vous pourrez interpréter ce qu'il y a dans ces liens :

GeekBench 5 — Single Core et Multi core scores https://browser.geekbench.com/v5/cpu/12936305

Cela situe le processeur juste sous le Intel Core i9-11900 en single et au-dessus de l'Intel Xeon E5-2698 v4 en Multi

GeekBench 5 — Metal Score https://browser.geekbench.com/v5/compute/4306907

GeekBench 5 — OpenCL score : https://browser.geekbench.com/v5/compute/4306914

Lien de téléchargement GeekBench, au cas où vous voudriez tester sur vos PC, histoire de https://www.geekbench.com/download/

 

Au plaisir de vous lire... un de ces jours

 

 

  • Like 1
Lien à poster

×
×
  • Créer...