Aller au contenu

Qui c'est qui a la plus grosse ?


Wault

Messages recommandés

Ha la la, pauvre UniKorn ! :)

C'est clair que ces salopards qui attirent avec un prix faussement bas sur le site web, ça commence à devenir gonflant (GrosBill en particulier est coutumier du fait).

Bon, à part ça, j'ai fait un petit bench de la HD3870 de mon frère, overclockée à 820/2500 (au lieu de 777/2250) :

score final = 9690

shaders2 = 4334

shaders3 = 4750

score CPU = 2117 (bi-Opteron 254 à 2,8GHz)

A noter que la carte passe le test "shader particles" (une sorte d'explosion en pixels) que ne passaient pas les X1000, ce qui avait provoqué une certaine polémique à l'époque sur leur compatibilité DX9.

HD3870_820_2500-BiOpteron254_2800MHz-XP64.jpg

Mon CrossFire est désormais battu. :cry

D'ailleurs, en parlant de mon crossfire, je n'arrive plus à obtenir des résultats aussi importants qu'avant. :?

J'ai des problèmes depuis que j'ai essayé la HD3870 (sans succès) sur mon ordi. :)

J'ai pourtant bien désinstallé les pilotes proprement (bien obligé d'ailleurs) et les jeux tournent, mais il y a parfois des trucs étranges.

Bha ! Tant que je ne tombe pas sur un jeu devenant totalement injouable, je vais rester tel que à : 675/2088 + 668/2035).

N'empêche que je me demande s'il n'y a pas un problème de synchronisation des fréquences des deux cartes (peut-être les pilotes s'attendent-ils à certaines fréquences de fonctionnement précises, d'où peut-être des problèmes avec mes fréquences overclockées...). Mais je ne vois pas trop comment le savoir.

EDIT : j'ai modifié le fichier XSL pour que le crossfire apparaisse grisé quand les fréquences sont overclockées (comme pour les autres cartes). :D

Lien à poster
  • Réponses 1 k
  • Créé
  • Dernière réponse

Meilleurs contributeurs dans ce sujet

Meilleurs contributeurs dans ce sujet

Messages populaires

Il parait effectivement que suite à la pandémie les ruptures de stocks en carte graphique sont légions en ce moment... il semble m^me complqiué d'en obtenir... ou sinon comme tu dis à des prix de fous

Salut, Je profite de l'endroit pour tenter de répondre à Ben Kenobi qui (me) demande dans la Chatbox si on peut comparer mon nouveau MacBook Pro M1 Pro 14" avec un PC actuel. Difficile à dir

Images postées

J'ai trouvé mon bonheur juste à coté de chez moi, il va falloir être un peu patient.

J'ai finalement opté pour une ZOTAC GeForce 8800GTS - 512MB GDDR3 AMP! Edition

8800GTS-512DDR3-AMP-card&box%20gsmall.jpg

http://www.zotac.com/gf8800GTS.htm

C'est une version légèrement surcadencée pour 330€.

J'ai fini par laisser tombé montgallet, pas un seul prix ne correspondant à celui affichés, à part pour ceux qui sont honnête dès le départ, donc plus cher.

La marque ZOTAC me faisait un peu peur au début, mais une rapide recherche permet de voir que ce sont les cartes GeFORCE correspondant à SAPHIRE pour les radeons, je suis donc plutôt confiant (à part pour le refroidissement peut être).

Lien à poster

EDIT: Bon bah, je trouve pas comment supprimer un message, alors je le laisse sous le compte de Wault ^^

Salut,

ne suivant plus trop l'actu des cartes graphiques, c'est quoi la différence entre une gts 640 et une gts 512 ?

Merci

Lien à poster

Mais qui c'est si c'est pas Wault alors ?

Sinon, la GTS 512 bénéficie d'un nouveau chipset (le GTS V2.0) gravé plus finement, donc plus performant et moins consommateur.

En gros, une GTS 512 est plus puissante qu'une GTS 640, voire parfois qu'une GTX ou ULTRA dans les résolutions moyennes.

Son rapport qualité/prix est moindre que la GT, mais elle, supporte les hautes résolutions.

J'attends quelques tests sur mon 24'' et j'en reparle.

Lien à poster

Tiens !? Je me demande qui a usurpé mon identité ! O.o

Comment a-t-on pu OSER!!! :grr

Puisque c'est comme ça, je quitte le forum, na ! :D

(et une baffe au premier qui dit "enfin !")

Bha, finalement, j'aurais pu poser la question moi-aussi, car il est vrai que je m'y perds avec les "nouvelles" cartes nVidia.

UniKorn, merci pour les précisions.

Je résume pour voir si j'ai compris :

Premières carte 8800 : GTS 320 < GTS 640 < GTX < Ultra

Puis sont arrivées les GT ; Et enfin les GTS 512.

Ce qui nous donne au final : GTS 320 < GTS 640 < GT 512 < GTS 512 <= GTX < Ultra

En gros, et sans compter les versions OC d'origine et les versions 256Mo des GT parce que hein.

Y a bon ?

Lien à poster
  • 2 semaines après...

Nouvelle CG, nouveau résultat 3DMarks06

PNY 8800 GTS 512 Mo d'origine

Technologie du bus PCI Express

Mémoire 512 Mo

Interface mémoire GDDR3 256 bits

Horloge du coeur (MHz) 650 MHz

Fréquence mémoire (réelle) 970 MHz

Horloge du shader (MHz) 1625 MHz

3DMark Score 9582 Marks

SM 2.0 Score 4464 Marks

SM 3.0 Score 4429 Marks

CPU Score 2151 Marks

Je ne sais pas si ma CM ou mon proco bride, mais les résultats me paraissent faible.

Lien à poster

Tableau mis à jour. :)

Je ne trouve pas que les résultats soient particulièrement anormaux !? :?

Même si, effectivement, à fréquences quasiment égales, la GTS 320 OC de FreD! semble étonnamment plus puissante...

Mais il y a peut-être une différence d'OS qui peut jouer.

Et surtout, j'ai constaté qu'avec 3DMark2006, la fréquence processeur influe sur les résultats soit-disant uniquement graphiques, donc les 3GHz de FreD! (et de Carambar d'ailleurs) doivent quand-même faire une différence fasse à tes 2,4GHz.

Et puis 520 points de plus qu'une HD3870 aux fréquences d'origine, c'est quand-même pas mal (je ne connais pas la différence de prix, sachant que la HD3870 a coûté 210 euros).

Il n'y a pas beaucoup de jeux qui vont t'obliger à baisser la qualité graphique, hé hé. :D

Lien à poster

Tu ne crois pas si bien dire, j'ai des températures infernales... Enfin ça n'explique pas les perfs en soi, sinon ça se saurait :D

Je crois aussi que le processeur à 3 GHz peut expliquer la différence. Tu as bien fait ton bench, comme moi, en 1280*1024 ? Sinon l'explication est là.

Je connais un gars qui me dit faire 13.500 points et des poussières avec quasiment la même config que moi, avec un léger o/c (3,4 GHz pour le proce, et une GTS 640, o/c à je ne sais plus combien).

Lien à poster

Oui, en 1280, parce que de toutes façons, celà n'est pas changeable sous 3DMark06.

Pc-inpact donne un score de 11000 et des bananes avec ma carte, d'où mon étonnement.

EDIT > J'ai testé UT3 en 1920*1200 en full, ça n'a pas bronché. Je n'avais pas FRAPS sous la main, mais la température n'a pas dépassé les 72°.

Faut que j'essaie avec un jeu plus gourmand, mais Crysis ne me fait pas envie. La démo de Bioshock peut-être.

Lien à poster

La démo de Timeshift devrait faire bien mal si tu montes en résolution.

Celle de Witcher aussi, les cut-scenes en particulier.

Bioshock n'est pas si gourmand que ça, surtout la démo (quoique en 1920, je suppose que si quand-même...).

Mais franchement, à part si tu t'amuses à tout mettre en 1920 avec FSAA 16x, je ne vois pas trop quel jeu pourrait faire réellement peiner ta configuration (à part la démo de Crysis, surtout avec le bug du FSAA, hé hé) !?

Lien à poster

Carambar > Crysis n'est pas une référence pour moi. les jeux Crytek sortent avec 1 an d'avance sur le matos, c'était déjà le cas avec Far Cry.

Je préfère tester sur des jeux un peu moins gourmand en FULL.

De mon coté, je suis à 52° en idle, je testerai rapidement la température en haute résolution, mais 83° ne me font pas peur, j'ai vu plus sur les forums.

Lien à poster

Je citais Crysis simplement parce que c'est ce jeu qui fait le plus monter la température, même si ma carte fleurte avec les 80° avec d'autres jeux.

Ceci dit, Crysis est parfaitement jouable sur une 8800 GT 512, tout à fond, y compris avec le tweak "very high, looks like DX10 on WinXP"... en 1024 sans AA :D => 45 fps en moyenne.

Faudra que j'en reparle en l'essayant sur mon 19 pouces, tiens...

Lien à poster

Je ne l'ai pas encore essayé, mais il est si mauvais que ça, Vista ?

Je ne me souviens pas d'un tel rejet à l'époque de Windows Me... Pourtant, il avait une sacrément mauvaise réputation.

[message subliminal : ceci est une tentative de détournement de thread initiée par momo, et reprise au rebond par Carambar]

Ah ouais, pour la température de ma 8800GT en pleine charge, j'ai installé RivaTuner, et je le laisse gérer la température, ça change tout !

Mes réglages du ventilateur en "auto" :

29

100

55

20

110

0

100

Bon, ça fait un peu plus de bruit, mais ça ne monte jamais à plus de 58% pour un gain de 22°.

Lien à poster

×
×
  • Créer...