Aller au contenu

Qui c'est qui a la plus grosse ?


Wault

Messages recommandés

  • Réponses 1 k
  • Créé
  • Dernière réponse

Meilleurs contributeurs dans ce sujet

Meilleurs contributeurs dans ce sujet

Messages populaires

Il parait effectivement que suite à la pandémie les ruptures de stocks en carte graphique sont légions en ce moment... il semble m^me complqiué d'en obtenir... ou sinon comme tu dis à des prix de fous

Salut, Je profite de l'endroit pour tenter de répondre à Ben Kenobi qui (me) demande dans la Chatbox si on peut comparer mon nouveau MacBook Pro M1 Pro 14" avec un PC actuel. Difficile à dir

Images postées

C'est relativement "normal" car le test CPU de 3DMark2005 n'est pas franchement "sûr". C'est confirmé par plusieurs résultats dans le tableau qui ne sont pas "logiques".

Pour tester plus efficacement un processeur multi-coeurs, ou une machine multi-processeurs, il faut utilisé le test CPU de 3DMark2006, je pense.

J'attends ton complément d'informations pour mettre la page à jour. ^_^

Lien à poster

Résultats du Dell (mêmes caractéristiques :D)

3DMark 2006 : 855

SM 2.0 = 277

SM 3.0 = 325

CPU = 1492

En ce qui concerne le "Quad" core feat Realizm :

3D Mark = 220

SM02 = 101

SM03 = gère pas

CPU : 954

Comme sous 3D Mark 2005, il y a un problème de driver, lié au fait que la carte est une 3Dlabs et pas une ATI/Nvidia. A noter que c'est une bécanne pro. dont l'objectif est d'afficher des images en 3D (avec les lunettes à la con).

Ha oui, après vérif, c'est apparemment pas un quadri-coeur (j'en connais un qui s'est fait niquer en achetant ça 2000 euros...)

Lien à poster

Voilà, j'ai enfin mis les tableaux à jour.

Dites-moi s'il y a des erreurs.

Petite description technique de la WildCat Realizm 500 sur http://postproduction.digitalmedianet.com/articles/viewarticle.jsp?id=35547-0 :

Realizm 500 specs

* Full programmability

* VPU technology

* Full programmability and floating-point capabilities through entire graphics processing pipeline

* Seamless 32- to 16-bit and 16- to 32-bit conversion with zero overhead

* PCI Express architecture

* Optimized dual-display acceleration

* SuperScene multisampling full-scene antialiasing support

* Texture sizes up to 4K x 4K

* Dedicated isochronous channel

* Orthogonal, compiler friendly SIMD array

* Independent dual 400 MHz 10-bit DACs

Supported APIs

* OpenGL 2.0 OpenGL Shading Language

* Microsoft DirectX ® 9.0 with High Level Shader Language (HLSL, VS 2.0, PS 2.0)

Programmability Features

* Support for OpenGL Shading Language and DirectX 9 HLSL full floating-point programmability

* Optimized floating-point precision at each pipeline stage (36-bit vertices, 32-bit pixels, 16-bit back-end pixel processing)

16 programmable 36-bit floating-point vertex shaders supporting:

* Up to 1 K instructions

* Up to 32 light sources

* Subroutines, loops, and conditionals

* 48 programmable 32-bit floating-point fragment shaders supporting:

Up to 256 K instructions

Subroutines, loops, and conditionals

Programmable pixel shader with 16 programmable 16-bit shaders

Support

The Wildcat Realizm 500 supports Microsoft Windows 2000 and XP in both 32- and 64-bit versions, as well as the AMD Opteron 64-bit processors. Intel Longhorn CPU support is coming.

The Wildcat Realizm 500 features two analog or digital video output ports and supports the following configurations:

* One or two analog display devices

* One or two single-link digital display devices

* One single-link digital display device and one analog display device

* Stereo Sync Support

* VESA-standard frame sequential stereo

* 3-pin,mini-DIN connector provides connection to LCD shutter glasses or other stereo shutter devices.

Lien à poster
  • 2 semaines après...

Mon père s'est acheté un nouveau jouet : un HP pavilion DV6585... un portable, quoi...

Dedans, il y a un Core2Duo T7300 à 2GHz, 2Go de ram et une GeForce 8400GS (avec 128Mo de mémoire dédiée + de la partagée si besoin), le tout sous Vista (que je n'aime pas, mais alors pas DU TOUT).

Bien entendu, je me suis senti obligé de bencher tout ça :oups

Au passage, la nouvelle façon de présenter les scores par 3DMark via internet, je trouve ça moyen.. mais bon, passons.

Les scores, donc:

3DMark 05 :

Score :

05scoreuh7.jpg

Details :

05detailsul8.jpg

3DMark 06 :

Score :

06scoreqa4.jpg

Details :

06detailsgs5.jpg

Voilà voilà ^^

Le Core2Duo offre grosso modo le double des points par rapport à mon 3800+ monocore, ce qui est logique.

Par contre, je pensais pas que la 8400GS se prendrait une telle claque. Ok, c'est dans un portable, et il n'y a que 128Mo de mémoire vidéo (je connais pas les fréquences désolé), mais le résultat me parait quand même faible pour une GeForce de série 8, même bas de gamme...

Lien à poster

Tableaux mis à jour.

Comme indiqué dans les tableaux, le bus de la 8400GS est en 64bits or la plupart des autres cartes ont des bus 128 et 256bits.

Si ton père a l'intention de jouer avec, c'est foutu. Ou alors il devra se contenter de jeux peu récents. :D

Tiens au fait, tu lui as fait essayer TimeLeap ? :)

Lien à poster

De toutes manières je préfère le terme "entrée de gamme" plutôt que "bas de gamme" que je réserve aux arnaques comme l'étaient les 9100 "lelele" que mon frère et moi-même avions achetées à l'époque (fréquences très inférieures et RAM de mauvaise qualité).

En l'occurence, la 8400GS de ton père semble avoir des performances "normales" pour sa catégorie, qui visait l'entrée de gamme justement, pour contrer les HD2400 d'ATi, je crois.

Lien à poster

Je viens de trouver un petit benchmark OpenGL :

http://www.ozone3d.net/benchmarks/fur/index.php#download

On trouve sur le forum officiel des résultats que je trouve intéressants :

http://www.ozone3d.net/smf/index.php/topic,784.0.html

(EDIT : le lien cliquable ne marche pas, faire un copier-coller)

En particulier, on y voit une X1950XT à 1700pts, donc la mienne est bien dans la moyenne, puisqu'overclockée à 681/1035 elle fait 1740pts.

Mais surtout, on y voit que les HD2900XT sont quand-même beaucoup plus performantes que les 8800GTX ! Ce qui est le contraire de ce qu'on constate pourtant dans les tests des cartes sur les sites spécialisés (même si j'avoue n'avoir jamais fait trop attention aux scores spécifiques aux jeux OpenGL comme Prey ou Quake IV).

C'est là que j'aimerais être capable d'analyser le code de la démo, et les hadwares des GPU pour comprendre.

Lien à poster

Vas-y !

Tout ce que tu risques, c'est qu'on se foute de toi jusqu'à la nuit des temps. :devil

Mheu non, allez, on n'a qu'une 6600Gt dans les tableaux, ce qui est étonnant puisque je croyais que beaucoup de monde en avait !? :?

Si tu as le courage de télécharger les deux 3DMarks et de lancer les tests, ce sera cool. :D

Lien à poster

En fait, moi j'ai perdu beaucoup des résultats de la 9600XT, de la 9800PRO ; et je me suis rendu compte qu'on n'a pas fait tous les tests avec la 6800GT, la X800PRO, et même la 7800GS... :)

Je croyais faire des screenshots à chaque fois, mais ce n'était pas le cas. Ou alors, je ne notais pas assez de détails (cadençages, CPU utlisé, etc).

Bha !

Par contre, il serait temps qu'ils nous sortent un 3DMark 2008 parce que les grosses cartes actuelles font tourner le 2006 presque trop vite. :D

Lien à poster

Nouvelle mise à jour de ma config : j'ai conservé la 7600GT, mais changé processeur et carte mère.

AMD Athlon 64 X2 3600+ (Brisbane, socket AM2) : 1.9 GHz, L1 2x128 Ko, L2 2x512 Ko

ASUS M2N-X (nForce 520)

Pour le moment, j'utilise cette config aux fréquences d'origine (560/700 pour la 7600GT).

3DMark05 :

3DMark05_x2-3600_1900_7600gt_560.png

3DMark06 :

3DMark06_x2-3600_1900_7600gt_560.png

Je testerais l'overclocking CPU et GPU plus tard, mais j'ai des doutes sur les capacités de la carte-mère à supporter une montée en fréquences : le chipset dispose d'un refroidissement passif et affiche facilement 40°C au repos et peut atteindre 50°C en charge...

Lien à poster

Tableaux mis à jour.

Merci à vous. :D

Es-tu sûr de toi, Armand LeHess ?

Parce que le score du CPU est étonnament élevé pour un PIV 3,2 !?

L'autre du tableau ne fait "que" 676 points, ce qui est logique avec le P IV 3GHz qui fait dans les 500pts.

An Alach, normalement ton processeur devrait être à 2GHz, pas 1,9GHz. Tu l'underclockes exprès ?

Lien à poster

Salut à Vous!

Je reviens poster suite à mon upgrate de mon CPU. Je suis passé de l'Athlon X2 3800+ à un Opteron 170. Celui est cadencé d'origine à 2000Mhz, mais le mien tourne à 2950Mhz (je suis instable à 3Ghz, ptet à cause de mon alim :D). Et comme je viens de remarquer que je n'avais pas donner de score avec ma 7900GS@580/770 (au lieu des 475/700). Voici donc mon score sous 3DM05 sous Vista Ultimate :

3d05qm8.jpg

Lien à poster

Bon, ok : qu'est-ce que c'est que ce score de fou pour le CPU ? O.o

Refais-nous vite un test CPU sous 3DMark2006, parce que c'est irréel !

Pour arriver à un score pareil il te faudrait théoriquement un quadri-coeur, ou bien un bi-opteron 170 (qui serait alors nommé Opteron 270 et pas 170, donc bref).

Si ça fait pareil sous 3DMark06, vu que sur http://www.amdcompare.com/fr-fr/opteron/Default.aspx il est écrit que c'est un processeur sur socket 939, je cours m'en acheter un ! :)

Tu utilises de la RAM DDR2 classique ?

Je suppose que non, il te faut sûrement de la ECC registered ou un truc du genre, non ?

En tout cas, voilà un score qui fait rêver ! Merci FreD! :D

Lien à poster

×
×
  • Créer...