Wault 6 Posté(e) le 8 janvier 2008 Auteur Partager Posté(e) le 8 janvier 2008 Ha la la, pauvre UniKorn ! C'est clair que ces salopards qui attirent avec un prix faussement bas sur le site web, ça commence à devenir gonflant (GrosBill en particulier est coutumier du fait). Bon, à part ça, j'ai fait un petit bench de la HD3870 de mon frère, overclockée à 820/2500 (au lieu de 777/2250) : score final = 9690 shaders2 = 4334 shaders3 = 4750 score CPU = 2117 (bi-Opteron 254 à 2,8GHz) A noter que la carte passe le test "shader particles" (une sorte d'explosion en pixels) que ne passaient pas les X1000, ce qui avait provoqué une certaine polémique à l'époque sur leur compatibilité DX9. Mon CrossFire est désormais battu. :cry D'ailleurs, en parlant de mon crossfire, je n'arrive plus à obtenir des résultats aussi importants qu'avant. :? J'ai des problèmes depuis que j'ai essayé la HD3870 (sans succès) sur mon ordi. J'ai pourtant bien désinstallé les pilotes proprement (bien obligé d'ailleurs) et les jeux tournent, mais il y a parfois des trucs étranges. Bha ! Tant que je ne tombe pas sur un jeu devenant totalement injouable, je vais rester tel que à : 675/2088 + 668/2035). N'empêche que je me demande s'il n'y a pas un problème de synchronisation des fréquences des deux cartes (peut-être les pilotes s'attendent-ils à certaines fréquences de fonctionnement précises, d'où peut-être des problèmes avec mes fréquences overclockées...). Mais je ne vois pas trop comment le savoir. EDIT : j'ai modifié le fichier XSL pour que le crossfire apparaisse grisé quand les fréquences sont overclockées (comme pour les autres cartes). Lien à poster
UniKorn 2 Posté(e) le 8 janvier 2008 Partager Posté(e) le 8 janvier 2008 J'ai trouvé mon bonheur juste à coté de chez moi, il va falloir être un peu patient. J'ai finalement opté pour une ZOTAC GeForce 8800GTS - 512MB GDDR3 AMP! Edition http://www.zotac.com/gf8800GTS.htm C'est une version légèrement surcadencée pour 330€. J'ai fini par laisser tombé montgallet, pas un seul prix ne correspondant à celui affichés, à part pour ceux qui sont honnête dès le départ, donc plus cher. La marque ZOTAC me faisait un peu peur au début, mais une rapide recherche permet de voir que ce sont les cartes GeFORCE correspondant à SAPHIRE pour les radeons, je suis donc plutôt confiant (à part pour le refroidissement peut être). Lien à poster
Wault 6 Posté(e) le 8 janvier 2008 Auteur Partager Posté(e) le 8 janvier 2008 EDIT: Bon bah, je trouve pas comment supprimer un message, alors je le laisse sous le compte de Wault ^^ Salut, ne suivant plus trop l'actu des cartes graphiques, c'est quoi la différence entre une gts 640 et une gts 512 ? Merci Lien à poster
UniKorn 2 Posté(e) le 8 janvier 2008 Partager Posté(e) le 8 janvier 2008 Mais qui c'est si c'est pas Wault alors ? Sinon, la GTS 512 bénéficie d'un nouveau chipset (le GTS V2.0) gravé plus finement, donc plus performant et moins consommateur. En gros, une GTS 512 est plus puissante qu'une GTS 640, voire parfois qu'une GTX ou ULTRA dans les résolutions moyennes. Son rapport qualité/prix est moindre que la GT, mais elle, supporte les hautes résolutions. J'attends quelques tests sur mon 24'' et j'en reparle. Lien à poster
Wault 6 Posté(e) le 9 janvier 2008 Auteur Partager Posté(e) le 9 janvier 2008 Tiens !? Je me demande qui a usurpé mon identité ! O.o Comment a-t-on pu OSER!!! :grr Puisque c'est comme ça, je quitte le forum, na ! (et une baffe au premier qui dit "enfin !") Bha, finalement, j'aurais pu poser la question moi-aussi, car il est vrai que je m'y perds avec les "nouvelles" cartes nVidia. UniKorn, merci pour les précisions. Je résume pour voir si j'ai compris : Premières carte 8800 : GTS 320 < GTS 640 < GTX < Ultra Puis sont arrivées les GT ; Et enfin les GTS 512. Ce qui nous donne au final : GTS 320 < GTS 640 < GT 512 < GTS 512 <= GTX < Ultra En gros, et sans compter les versions OC d'origine et les versions 256Mo des GT parce que hein. Y a bon ? Lien à poster
Carambar 18 Posté(e) le 9 janvier 2008 Partager Posté(e) le 9 janvier 2008 D'après les tests que j'ai lus, la GTS 512 fait jeu égal, voire dépasse la GTX dans certains cas. Lien à poster
UniKorn 2 Posté(e) le 9 janvier 2008 Partager Posté(e) le 9 janvier 2008 Wault > En gros, c'est tout à fait ça. La GTX est quand même plus puissante, mais elle a comme défaut sa consommation, son prix et surtout sa longueur. Lien à poster
Carambar 18 Posté(e) le 9 janvier 2008 Partager Posté(e) le 9 janvier 2008 Quant aux perfs, elles sont vraiment très proches (la GTX gagne d'une courte tête) : http://www.presence-pc.com/tests/8800-GTS-512-22742/16/ Dans Crysis, la GTS 512 est souvent devant la GTX : http://www.presence-pc.com/tests/8800-GTS-512-22742/11/ ...sauf en montant en résolution avec AA activé. Lien à poster
LemonSyDe 0 Posté(e) le 9 janvier 2008 Partager Posté(e) le 9 janvier 2008 Le bus 256 Bits bride la bête Lien à poster
UniKorn 2 Posté(e) le 19 janvier 2008 Partager Posté(e) le 19 janvier 2008 Nouvelle CG, nouveau résultat 3DMarks06 PNY 8800 GTS 512 Mo d'origine Technologie du bus PCI Express Mémoire 512 Mo Interface mémoire GDDR3 256 bits Horloge du coeur (MHz) 650 MHz Fréquence mémoire (réelle) 970 MHz Horloge du shader (MHz) 1625 MHz 3DMark Score 9582 Marks SM 2.0 Score 4464 Marks SM 3.0 Score 4429 Marks CPU Score 2151 Marks Je ne sais pas si ma CM ou mon proco bride, mais les résultats me paraissent faible. Lien à poster
Wault 6 Posté(e) le 21 janvier 2008 Auteur Partager Posté(e) le 21 janvier 2008 Tableau mis à jour. Je ne trouve pas que les résultats soient particulièrement anormaux !? :? Même si, effectivement, à fréquences quasiment égales, la GTS 320 OC de FreD! semble étonnamment plus puissante... Mais il y a peut-être une différence d'OS qui peut jouer. Et surtout, j'ai constaté qu'avec 3DMark2006, la fréquence processeur influe sur les résultats soit-disant uniquement graphiques, donc les 3GHz de FreD! (et de Carambar d'ailleurs) doivent quand-même faire une différence fasse à tes 2,4GHz. Et puis 520 points de plus qu'une HD3870 aux fréquences d'origine, c'est quand-même pas mal (je ne connais pas la différence de prix, sachant que la HD3870 a coûté 210 euros). Il n'y a pas beaucoup de jeux qui vont t'obliger à baisser la qualité graphique, hé hé. Lien à poster
Carambar 18 Posté(e) le 21 janvier 2008 Partager Posté(e) le 21 janvier 2008 Il y a peut-être aussi la question de la résolution ? Le bench, c'était en 1280*1024, ou une résolution plus adaptée à un 24 pouces ? Lien à poster
UniKorn 2 Posté(e) le 21 janvier 2008 Partager Posté(e) le 21 janvier 2008 Pas faux ! J'attends un jeu en 1920 pour donner plus d'infos. Carambar > Ta GT, tu la nourrie au nucléaire pour avoir un tel score ? Lien à poster
Carambar 18 Posté(e) le 21 janvier 2008 Partager Posté(e) le 21 janvier 2008 Tu ne crois pas si bien dire, j'ai des températures infernales... Enfin ça n'explique pas les perfs en soi, sinon ça se saurait Je crois aussi que le processeur à 3 GHz peut expliquer la différence. Tu as bien fait ton bench, comme moi, en 1280*1024 ? Sinon l'explication est là. Je connais un gars qui me dit faire 13.500 points et des poussières avec quasiment la même config que moi, avec un léger o/c (3,4 GHz pour le proce, et une GTS 640, o/c à je ne sais plus combien). Lien à poster
UniKorn 2 Posté(e) le 21 janvier 2008 Partager Posté(e) le 21 janvier 2008 Oui, en 1280, parce que de toutes façons, celà n'est pas changeable sous 3DMark06. Pc-inpact donne un score de 11000 et des bananes avec ma carte, d'où mon étonnement. EDIT > J'ai testé UT3 en 1920*1200 en full, ça n'a pas bronché. Je n'avais pas FRAPS sous la main, mais la température n'a pas dépassé les 72°. Faut que j'essaie avec un jeu plus gourmand, mais Crysis ne me fait pas envie. La démo de Bioshock peut-être. Lien à poster
Wault 6 Posté(e) le 23 janvier 2008 Auteur Partager Posté(e) le 23 janvier 2008 La démo de Timeshift devrait faire bien mal si tu montes en résolution. Celle de Witcher aussi, les cut-scenes en particulier. Bioshock n'est pas si gourmand que ça, surtout la démo (quoique en 1920, je suppose que si quand-même...). Mais franchement, à part si tu t'amuses à tout mettre en 1920 avec FSAA 16x, je ne vois pas trop quel jeu pourrait faire réellement peiner ta configuration (à part la démo de Crysis, surtout avec le bug du FSAA, hé hé) !? Lien à poster
Carambar 18 Posté(e) le 23 janvier 2008 Partager Posté(e) le 23 janvier 2008 UniKorn, pas de problèmes de températures sur ta 8800 ? Sur la démo de Crysis, la mienne atteint 83°C (44° en idle). Je sais, c'est dans les limites, mais on est en hiver, et j'ai rajouté des ventilos à la tour... Je redoute l'arrivée de l'été. Lien à poster
UniKorn 2 Posté(e) le 23 janvier 2008 Partager Posté(e) le 23 janvier 2008 Carambar > Crysis n'est pas une référence pour moi. les jeux Crytek sortent avec 1 an d'avance sur le matos, c'était déjà le cas avec Far Cry. Je préfère tester sur des jeux un peu moins gourmand en FULL. De mon coté, je suis à 52° en idle, je testerai rapidement la température en haute résolution, mais 83° ne me font pas peur, j'ai vu plus sur les forums. Lien à poster
Carambar 18 Posté(e) le 23 janvier 2008 Partager Posté(e) le 23 janvier 2008 Je citais Crysis simplement parce que c'est ce jeu qui fait le plus monter la température, même si ma carte fleurte avec les 80° avec d'autres jeux. Ceci dit, Crysis est parfaitement jouable sur une 8800 GT 512, tout à fond, y compris avec le tweak "very high, looks like DX10 on WinXP"... en 1024 sans AA => 45 fps en moyenne. Faudra que j'en reparle en l'essayant sur mon 19 pouces, tiens... Lien à poster
Drakir 0 Posté(e) le 26 janvier 2008 Partager Posté(e) le 26 janvier 2008 Bon juste pour dire que j'ai commandé un Core 2 Duo E8400, voilà, vous pouvez commencer à overclocker vos machin... :devil Je vais enfin voir ce que donne une 8800GT avec autre chose qu'un Atlhon64 3500+ :oups /me ---->[] Lien à poster
Manochke 0 Posté(e) le 29 janvier 2008 Partager Posté(e) le 29 janvier 2008 Et tes freins? :or Lien à poster
momo 18 Posté(e) le 31 janvier 2008 Partager Posté(e) le 31 janvier 2008 http://blog.seattlepi.nwsource.com/microsoft/archives/130626.asp Lien à poster
Carambar 18 Posté(e) le 31 janvier 2008 Partager Posté(e) le 31 janvier 2008 Je ne l'ai pas encore essayé, mais il est si mauvais que ça, Vista ? Je ne me souviens pas d'un tel rejet à l'époque de Windows Me... Pourtant, il avait une sacrément mauvaise réputation. [message subliminal : ceci est une tentative de détournement de thread initiée par momo, et reprise au rebond par Carambar] Ah ouais, pour la température de ma 8800GT en pleine charge, j'ai installé RivaTuner, et je le laisse gérer la température, ça change tout ! Mes réglages du ventilateur en "auto" : 29 100 55 20 110 0 100 Bon, ça fait un peu plus de bruit, mais ça ne monte jamais à plus de 58% pour un gain de 22°. Lien à poster
stranger 2 Posté(e) le 1 février 2008 Partager Posté(e) le 1 février 2008 ouais les réglages par défaut des pilotes Nvidia sont à chier ^^ Lien à poster
Evangelion 0 Posté(e) le 8 février 2008 Partager Posté(e) le 8 février 2008 Ma femme viens de s'acheter une superbe machine sur laquelle je vais vérifier les résultats. Pour info c'est un Core 2 Q6600 2,4 Avec 4 Go de DDR2 800, 8800 GT 512 Mo.... A suivre pour les résultats . Lien à poster
Messages recommandés