Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4248 connectés 

 

 

Quelle est la marque de votre 7600?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  16  17  18  ..  103  104  105  106  107  108
Auteur Sujet :

[Topic Unique] GeForce 7600 GT : La nouvelle bombe Nvidia

n°4712468
R95
Posté le 17-03-2006 à 22:10:51  profilanswer
 

Reprise du message précédent :
Par contre le ventirad d'origine de la POV ne doit pas ressemblé à celui la,
http://materiel.net/details_150812P.html

mood
Publicité
Posté le 17-03-2006 à 22:10:51  profilanswer
 

n°4712523
jeerin93
Posté le 17-03-2006 à 22:36:25  profilanswer
 

En effet, mais peut-être que comme ce sont les premiers modèles, ils ont pas pris le temps de mettre leurs propres stickers. En parlant du ventirad c'est vraiment dommage, je suis sûr qu'ils auraient pu faire un truc plus silencieux à l'image du ventilo des GTX. Mais bon.
 
J'ai refait des tests, avec cette fois-çi le proco aux fréquences d'origine, à savoir 2400Mhz, et je n'ai eu aucun problème de stabilité, et aucun artefact bien evidemment, avec la CG O/C @ 600/800. Donc selon moi c'est bien l'alim qui traîne. J'obtiens les résultats suivants :
 

  • 560/700 :


_3DMark03 : 12559
_3DMark05 : 5884
 

  • 600/800 :


_3DMark03 : 13663
_3DMark05 : 6426
 
Soit +1104 points pour le 03 et +542 points pour le 05, et un gain théorique d'envrion 11%.
 
Si quelqu'un pouvait me dire comment afficher les fps dans Splinter Cell 3 ce serait sympa. Pour l'instant j'ai joué vite fait comme ça à ce jeu et voilà ce que j'en ai conclu :
 
_Tout à fond, en 1024x768 filrage trilinéaire, et AAx4, c'est parfaitement jouable, et assez fluide.
_Tout à fond, en 1024x768 filrage trilinéaire, en HDR, c'est un peu plus fluide (à peine perceptible), et plutôt joli (c'est la première fois que je vois de l'HDR, depuis le temps  :whistle: ), heureusement, l'aliasing n'est pas trop poussé dans ce jeu.
_En 1280x1024, le framerate se prend une claque, contrairement à mon ancienne X800XT.  
 
Bon je n'ai testé que ce jeu, mais il paraît clair que cette carte n'est pas faite pour les hautes résolutions, et ce n'est pas une surprise, car elle n'est pas destinée pour. Donc pour l'instant je suis très satisfait de mon achat, car les perfs sont bien là, la carte ne chauffe pas, et pour moi qui ne joue qu'en 1024, cette carte semble parfaite pour mon usage.


Message édité par jeerin93 le 18-03-2006 à 00:01:59
n°4712769
chattkille​r
Posté le 18-03-2006 à 00:14:07  profilanswer
 

pour les fps prend fraps!

n°4712776
jeerin93
Posté le 18-03-2006 à 00:18:35  profilanswer
 

Ca marche pas sous COD2 :/ . Et je crois que y'a une ligne de commande pour pouvoir afficher les fps sous Splinter cell.

n°4712794
chattkille​r
Posté le 18-03-2006 à 00:36:53  profilanswer
 

si sa marche sous cod2 je lai!
telecharge la nouvelle version...:)

n°4712807
jeerin93
Posté le 18-03-2006 à 00:49:48  profilanswer
 

C'est la combien? Moi j'ai dl la gratuite.

n°4712841
jeerin93
Posté le 18-03-2006 à 01:19:54  profilanswer
 

C'est bon j'ai dl la dernière version en shareware. J'ai juste testé SC3. Bon ben avec la CG @600/800, on a au pire aucun gain, au mieux 5 fps en plus. Mouai..., à mon avis c'est plus pour faire joli à 3DMark ce petit O/C. Peut-être sur d'autres jeux le gain peut atteindre 10 fps mais j'en doute personnellement. J'ai également testé Battlefield 2, Prince Of persia 3, et cette carte supporte apparemment très bien l'antialiasing, en 1024 du moins. Je n'ai remarqué en fait aucune différence de perfs ou de qualité entre ma X800XT et cette carte, c'est ce que j'espérais, je suis donc ravi. Ah si j'ai le HDR maintenant. Mouai...Faudrait que je vois ce que ca donne dans Far Cry. En parlant de HDR, la carte semble également très bien le supporter, parce que je ne remarque aucune perte de framerate avec ce mode dans Splinter Cell. Pour le peu que je joue, je pense que je n'ai pas à regretter l'achat d'une 7800GT, voire d'une 7900GT, et surtout la dépense de 50 à 100€ de plus que je ne peux de toute façon pas me permettre. 230€ pour une CG c'est déja énorme. Mon proco m'a couté moins cher...  :whistle:  
 
Y'a pas à chier, c'est la nouvelle référence milieu de gamme. Au moins, plus besoin de bidouiller sa GTO² pour avoir de vraies performances. Mais une chose est claire à mes yeux, aucun intérêt pour les possesseur de 6800GS/X800GTO² et autres cartes milieu de gamme du même accabi de la remplacer par cette 7600GT. Je pense que c'est l'upgrade idéale à la 6600GT ou à une nouvelle config orientée jeu pour pas "trop" cher.

n°4713210
cougar83k
qui s'y frotte s'y pique
Posté le 18-03-2006 à 11:57:35  profilanswer
 

je viens juste de recevoire ma 7600gt xfx-xxx
quelque photot et un petit test 3dmark 05 et 06 a froid avec le ventilo d'origine et sans overclock  
core:590mhz
mem:800mhz
 
 
la detection automatique de frequence des drivers ne marche pas chez moi  
 :??:  :??:  :??:  :??:  :??:  
 
 
7600 GT pas pris en charge pas rivatuner :pfff:  :pfff:  
photots:
 
 
http://img56.imageshack.us/img56/3367/dsc000102wg.jpg
 
 
 
http://img239.imageshack.us/img239/3576/dsc000110sl.jpg
 
 
http://img56.imageshack.us/img56/2637/dsc000126xb.jpg
 
 
http://img239.imageshack.us/img239/555/dsc000132tw.jpg
 
 
http://img239.imageshack.us/img239/5682/dsc000156mx.jpg
 
 
http://img56.imageshack.us/img56/576/dsc000145ks.jpg
 
 
http://img56.imageshack.us/img56/7562/dsc000183zn.jpg
 
 
 
maintenant 3dmark
 
2005:6408 points
 
2006:3300 points
 
le tous d'origine bien sur
 
 [:arank'thnar]  [:arank'thnar]  [:arank'thnar]  
 
c' est une tres bonne cartes milieu de gamme pour pas trop cher  
 
xfx pour c est perf d 'origine , pov pour sont bundle et club3d pour sont prix sont les 3 marques a privilegier [:killer666zz]
 
     [:aloy]  pour le jeux starchip troopers il est vraiment nul de chez nul       [:alfinfrance]


Message édité par cougar83k le 18-03-2006 à 22:02:39
n°4713579
Geekly
Tartine de foutre.
Posté le 18-03-2006 à 15:04:33  profilanswer
 

god is dead a écrit :

Bah si tu parles de températures extrêmes, genre azote liquide, utile en cas d'o/c de folie oui.
Mais en air cooling standart, accessible au commun de mortels, ton o/c max sera le même en stock cooling ou avec un zalman (à peu de choses prés). Toutes les cartes que j'ai eu avaient le même comportement en o/c à 80° ou à 50° :spamafote:


 
Pour tout te dire, j'ai eu entre les mains 3*6600 GT, 1 7800 GS, 2*X800 GTO² et une 7800 GTX, et à chaque fois quand j'ai changé le ventilo pour un Zalman ou un AC j'ai toujours obtenu des gains d'o/c.


Message édité par Geekly le 18-03-2006 à 15:08:39
n°4714442
cougar83k
qui s'y frotte s'y pique
Posté le 18-03-2006 à 22:14:10  profilanswer
 

la detection automatique de frequence des drivers ne marche pas chez moi   :pt1cable:
 
la 7600GT n a rien a craindre de la X1800gto
"La GeForce 7600GT est toujours seule sur son créneau pour le moment, et la X1800GTO, qui lui passe devant d'une courte tête n'est toujours pas disponible et commence à être référencée dans les 270 €, ce qui ne suffira pas pour être réellement compétitive"
 
ATI a besoin de se reveiller aussi non il vont se faire racheter par  [:udotjohn]  
 
valeur de la bourse:
 
1 mois : http://tinyurl.com/ed9um  
 
2 ans : http://tinyurl.com/g2xas


Message édité par cougar83k le 18-03-2006 à 22:45:08
mood
Publicité
Posté le 18-03-2006 à 22:14:10  profilanswer
 

n°4714536
lord_neoba​hamut
Posté le 18-03-2006 à 23:19:28  profilanswer
 

J'éspere pas je ne veux surtout pas de monopole comme avec microsoft les prix vont augmenter énormement :(

n°4714571
jeerin93
Posté le 18-03-2006 à 23:37:19  profilanswer
 

Z'ont intérêt à se bouger le cul sérieux chez Ati, sinon va y'avoir du chomage  :o
 
J'ai refait des test avec Atitool, décidément il sait pas ce qu'il veut, un coup il me trouve des artefacts au bout de 2 mn, un coup après 5 mn toujours rien...
 
Je vais tester la methode rodage, car je suis sûr que ma CG peut aller assez loin en O/C. Donc je vais faire ca le plus calmement possible, genre 10mhz/20mhz (Core/RAM) tous les 3-4 jours, avec 30 mn d'Atitool à chaque passage, et quelques 3DMark. On verra où ca me mènera, en espérant voir un résultat dans les jeux, car c'est bien là l'intérêt tout de même.


Message édité par jeerin93 le 18-03-2006 à 23:41:40
n°4714615
Geekly
Tartine de foutre.
Posté le 19-03-2006 à 00:29:45  profilanswer
 

Le rodage ça existe pas... :o

n°4714747
jeerin93
Posté le 19-03-2006 à 03:49:38  profilanswer
 

Et t'es qui toi pour l'afirmer avec autant de certitude? Le grand manitou des GPU, l'architecte de Matrix? Le rodage c'est pas une idée farfelue venue de nullepart, alors certes, j'ignore si ca va m'apporter quoi que ce soit, mais j'ai pas la prétention de dire que ca fonctionne à 100% contrairement à toi qui afirme le contraire sans aucune réserve.  :kaola:

n°4714772
Geekly
Tartine de foutre.
Posté le 19-03-2006 à 05:08:19  profilanswer
 

Je suis pas architecte chez Matrix, mais j'ai lu ça : :o
 
http://forum.hardware.fr/hardwaref [...] 3466-1.htm
 
ET CA :
 
http://forum.hardware.fr/hardwaref [...] 5425-1.htm
 
Regarde bien les posts et surtout ceux de SH4 Origon X, tu verras par toi-même... ;)
 
PS : :kaola: d'abord, et na... :D
 
Et [HS OFF].


Message édité par Geekly le 19-03-2006 à 05:08:38
n°4714882
god is dea​d
Demain, j'arrête de poster.
Posté le 19-03-2006 à 10:28:42  profilanswer
 

jeerin93 a écrit :

Et t'es qui toi pour l'afirmer avec autant de certitude? Le grand manitou des GPU, l'architecte de Matrix? Le rodage c'est pas une idée farfelue venue de nullepart, alors certes, j'ignore si ca va m'apporter quoi que ce soit, mais j'ai pas la prétention de dire que ca fonctionne à 100% contrairement à toi qui afirme le contraire sans aucune réserve.  :kaola:


Non je confirme aussi, le rodage c'est dans la tête.  
Sur tout le matos que j'ai eu (c a d bcp), j'ai atteind le max d'o/c dés la premiére tentative.
Les limites seront les mêmes, avec ou sans "rodage".  
Si ton cpu/gpu ne peut pas monter plus haut qu'une certaine limite dés le premier o/c, il en sera de même avec "rodage" :spamafote:
Et je dirais même qu'avec le temps, l'o/c peut devenir instable.  
Tu peux trés bien faire tenir ton cpu/gpu a une certaine fréquence au début, pour voir cette fréquence devenir instable plus tard; c'est exactement ce qu'il m'arrive avec mon cpu, qui tenait trés bien 3.6ghz, et qui maintenant ne dépasse pas le 3.4, pourtant je n'ai rien changé  [:columbo2]
L'inverse n'est jamais vrai par contre, c a d pouvoir augmenter la fréquence du premier o/c max grâce au "rodage".


Message édité par god is dead le 19-03-2006 à 10:31:04
n°4714897
jeerin93
Posté le 19-03-2006 à 10:39:37  profilanswer
 

Ben alors on peut pas se fier à Atitool dans ce cas, parce qu'un coup j'ai un O/C qui me fout des artefacts au bout 2 mn, un coup ce même O/C n'en détecte pas  :heink:
 
Et puis tu t'es pas dit que c'était parce que t'avais fait un gros O/C dès le début que cet O/C s'avérait instable au bout d'un moment, et que ca allait en descendant plutôt que le contraire? Je dis ça j'en sais rien, mais ca peut être une possibilité.
 
au fait en parlant d'O/C, au bout d'un moment, même sans avoir d'artefact avec Atitool, l'écran se fige plusieurs secondes, vous pensez que ceci peut être du à l'alimentation (un 12V bien faiblard à 11.80-11.85)?

Message cité 1 fois
Message édité par jeerin93 le 19-03-2006 à 10:49:44
n°4714934
god is dea​d
Demain, j'arrête de poster.
Posté le 19-03-2006 à 11:18:09  profilanswer
 

jeerin93 a écrit :

Ben alors on peut pas se fier à Atitool dans ce cas, parce qu'un coup j'ai un O/C qui me fout des artefacts au bout 2 mn, un coup ce même O/C n'en détecte pas  :heink:
 
Et puis tu t'es pas dit que c'était parce que t'avais fait un gros O/C dès le début que cet O/C s'avérait instable au bout d'un moment, et que ca allait en descendant plutôt que le contraire? Je dis ça j'en sais rien, mais ca peut être une possibilité.
 
au fait en parlant d'O/C, au bout d'un moment, même sans avoir d'artefact avec Atitool, l'écran se fige plusieurs secondes, vous pensez que ceci peut être du à l'alimentation (un 12V bien faiblard à 11.80-11.85)?


Atitool est tout sauf fiable, en fait il n'existe aucun logiciel vraiment fiable.
La méthode "manuelle" reste la plus probante, même si elle est longue.
Si l'écran se fige ça vient sans doute du core trop o/c, une mémoire trop o/c aura pour symptôme des défauts d'affichage (artefacts). L'alim est aussi une possiblité, mais ne te fie jamais aux valeurs relevées par logs, elles sont fausses.
Mon o/c était 100% stable durant quelques mois, j'ai effecuté tous les tests possibles, RAS, mais il est devenu instable depuis peu, sans raison particuliére, et ça me l'a fait sur d'autres configs différentes. Donc j'en conclue que, avec le temps, l'o/c initial max stable peut devenir instable, le contraire n'est jamais vrai par contre :)


Message édité par god is dead le 19-03-2006 à 11:22:09
n°4714946
jeerin93
Posté le 19-03-2006 à 11:27:18  profilanswer
 

C'est ce que j'ai finis par en conclure, à propos d'Atitool. Ca reste par contre un bon moyen de faire chauffer la carte, pour savoir à combien on est en full avec tel ou tel système de refroidissement par exemple. J'ai des pointes à 63° O/C avec le Zalman@5V, j'suis très satisfait des températures de cette carte.
L'écran se fige en effet lorsque j'O/C le core, et que je laisse la RAM à 800 (à 700 ca fait la même chose). Par contre j'ai remarqué que le phénomène se produisait plus souvent pour un même O/C lorsque j'overclockais mon proco en même temps, c'est pourquoi je soupsonne l'alim.
 
Je vais faire tourner 3DMark05 en boucle toutes options à fond pour valider mon O/C dans ce cas.
 
Le fait que l'O/C devient instable, alors qu'il l'était, c'est pas un signe de déterioration, même très légere, du matériel? Parce que bon si on O/C et qu'au bout de quelques mois, la carte finit par nous pondre des artefacts aux fréquences d'origine, spa cool quoi  [:alph-one]


Message édité par jeerin93 le 19-03-2006 à 11:28:42
n°4714979
theboss347​5
Posté le 19-03-2006 à 11:54:07  profilanswer
 

le rodage c est une mega legende urbaine jamais verifiee.tout au plus elle est nee de coincidences heureuses chez certains.

n°4715095
jeerin93
Posté le 19-03-2006 à 13:08:29  profilanswer
 

Bon j'ai refait quelques tests, histoire de pouvoir se faire une idée :
 

  • 3400+@2640Mhz et GPU@560/700 :


_3DMark05 : 5932
 

  • 3400+@2640Mhz et GPU@590/800 (Fréquences XFX XXX) :


_3DMark05 : 6454
 
Avec les derniers drivers 84.21, tout par défaut.

n°4715146
hcpowa
Posté le 19-03-2006 à 13:39:20  profilanswer
 

jeerin93 a écrit :


  • 3400+@2640Mhz et GPU@590/800 (Fréquences XFX XXX)



 
Donc la club3d passe facile les fréquences d'une Xfx xxx pour un coùt moindre.
Première club3d et pas décu

n°4715187
chattkille​r
Posté le 19-03-2006 à 14:03:28  profilanswer
 

tu pe pas monter plus haut?

n°4715191
hcpowa
Posté le 19-03-2006 à 14:04:25  profilanswer
 

j'arrive à 627/880 avec un léger point jaune dans le cube sous atitool mais pas d'artefacts dans 3dmark 2005.

n°4715193
chattkille​r
Posté le 19-03-2006 à 14:05:29  profilanswer
 

et tu fait combien a cette o/c?

n°4715296
jeerin93
Posté le 19-03-2006 à 15:10:47  profilanswer
 

Bon j'ai refait quelques tests, avec Atitool, et 3DMark05.  
 
Une chose est sûr, Atitool est assez hasardeux car un coup il me détecte un artefact au bout de 2 mn avec la RAM à 820Mhz, et un autre coup il me trouve un artefact au bout de 4mn30 avec la RAM à 840Mhz...En mettant la RAM à 800Mhz, il ne me détecte aucun artefact au bout d'une demi heure.
Pour ce qui est du core, que ce soit avec Atitool ou 3DMark, à 620Mhz, l'écran se fige à certains moments. A 615 plus aucun problème. Le max pour le core est donc de 615Mhz, soit 55Mhz, ce qui n'est vraiment pas énorme face aux 100Mhz que certaines CG peuvent prendre.  
 
Voici comment j'ai donc procédé pour refaire mon O/C :
 
_Tous mes tests sont fait avec le proco@2640Mhz
_je fais un scan artifact sous Atitool en relevant le temps que met celui-çi pour trouver un artefact.
_je fais un 3DMark05 en 1280x1024 AAx4 et Aniso x16, et regarde si je ne vois pas d'artefact.
_Une fois ceci fait, je fais tourner en boucle 3DMark 5 fois de suite avec les mêmes réglages et regarde si je ne vois toujours pas d'artefact.
_je laisse les paramètres par défaut dans le driver.
 
En respectant le procédé décrit, j'arrive à 615/840 (le max autorisé par le driver, après y'a riva tuner, mais bon je visais les 825 donc c'est déja bien), artefact detecté par Atitool au bout de 4mn30, et aucun artefact sous 3DMark05.
 
Voila le score que j'obtiens :
 
3400+@2640Mhz, 615/840 :
 
_3DMark05 : 6737
 
Ben c'est pas mal je trouve. Après, à vue d'oeil, comme ça, je ne sens vraiment pas la différence dans les jeux entre 560/700 et 615/840 donc je commence à douter de l'intérêt d'O/C ou même d'acheter un modèle O/C. Je vois bien une différence de perfs avec mon proco, mais pour ce qui est du GPU, pas vraiment, y'a peut-être bien une réelle différence mais je ne la perçois pas.


Message édité par jeerin93 le 19-03-2006 à 15:12:14
n°4715313
god is dea​d
Demain, j'arrête de poster.
Posté le 19-03-2006 à 15:16:56  profilanswer
 

Bah tu gagnes "que" 12/13% d'aprés 3dk, ça fait jolie, mais en pratique, ce n'est pas évident.
D'ailleur là tu vois la différence parce que tu as un indice final, qui te permet de différencier.
Mais lance 3dk sans qu'il te donne le score, tu verras si tu fais la différence, sans o/c et avec o/c :p
Idem qd tu joues, pour voir la différence à "l'oeuil nu" (sans FRAPS), il faut un o/c important.


Message édité par god is dead le 19-03-2006 à 15:19:01
n°4715351
jeerin93
Posté le 19-03-2006 à 15:29:06  profilanswer
 

Ben ouai, c'est pas comme activer des pipes sur une GTO² c'est sûr. Autant je voyais grave la différence entre X800Pro et X800Pro@XT, autant là je vois que dalle. Mais en même temps c'est pas trop grave dans la mesure où les perfs d'origine sont bien là. A la base, j'ai pas pris un 3400+ pour O/C, justement j'ai pris un 3400+ pour pas avoir à O/C, même si je le fais pour faire joli dans les benchs, je remets tout par défaut en utilisation courante, c'est un peu pareil pour la 7600GT, je l'ai pas prise pour O/C non plus.  
 
En conclusion je regrette pas une seconde d'avoir pris la POV à 230€ comparé à la XFX XXX au même prix ou un peu plus cher, car les jeux (que j'ai d'ailleurs essayé) déchirent, car garantie 3 ans, car passe en XXX, aussi car Starship troopers beurk, et que pas de différence concrète entre 560/700 et 590/800. Après chacun voit midi à sa porte.
 
Il est clair que la Club3D semble être un choix judicieux pour ceux qui contrairement à moi s'en foutent du bundle, d'autant plus qu'elle est garantie 2 ans.


Message édité par jeerin93 le 19-03-2006 à 15:29:49
n°4715807
Requin94
Posté le 19-03-2006 à 20:00:26  profilanswer
 

Niveau o/c ca donne quoi ces p'tites bettes ? :D
 
Ca pourrait atteindreles perfs d' une 7800gt avec un zalman vf-700cu at artic silver 5 ?


---------------
Feed-back
n°4715821
jeerin93
Posté le 19-03-2006 à 20:07:48  profilanswer
 

Arrête de rêver  :lol:

n°4715824
Requin94
Posté le 19-03-2006 à 20:10:44  profilanswer
 

jeerin93 a écrit :

Arrête de rêver  :lol:


On sais jamais [:dawao]


---------------
Feed-back
n°4715838
Requin94
Posté le 19-03-2006 à 20:18:09  profilanswer
 

Et en o/c, ca pourrait etre a la hauteur d'une 7800GS ?


Message édité par Requin94 le 19-03-2006 à 20:18:16

---------------
Feed-back
n°4715840
MEI
|DarthPingoo(tm)|
Posté le 19-03-2006 à 20:19:17  profilanswer
 

Oui je pense qu'a 650/1700 c'est p'tet raisonnable de penser ça... Mais bon en AA4X + Aniso 16X et 1600 peut-être pas quand même.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°4715846
jeerin93
Posté le 19-03-2006 à 20:23:15  profilanswer
 

Bien sûr que si on sait, c'est la même architecture, sauf que d'un côté t'as 20 pipes et 7 vertex, et de l'autre 12 pipes et 5 vertex. Alors certes les fréquences sont bien gonflées sur la 7600GT, seulement voilà elle a un bus 128bits, là où la 7800GT a un bus 256 bits. Autrement dit, en dessous et en 1024x768 sans filtres, on verra pas beaucoup de différence, mais quand on active les filtres et/ou qu'on monte en résolution, l'écart devient très marqué. Même O/C, une 7600GT ne peut pas atteindre la 7800GT, du moins en haute résolution et/ou avec filtres. C'est pas pour rien que c'est une carte mileu de gamme.  
 
Ca aurait été bien de lui mettre un bus 256 bits à cette carte, je pense qu'elle aurait eu de bien meilleures perfs, ils ont du ne pas le faire peut-être pour une raison de coût, ou alors pour pas trop faire de l'ombre au haut de gamme, et ne pas tenter les consommateurs qui en veulent à se tourner vers cette carte, j'en sais rien.
 
En gros, elle est du niveau d'une 6800Ultra, ce qui est déja très très bien. Mais encore une fois, pas sûr qu'elle s'en sorte aussi bien que cette dernière dans les hautes résolutions et filtres. Par contre elle s'en sort bien mieux avec l'HDR et le PS3.0.

n°4715852
jeerin93
Posté le 19-03-2006 à 20:25:12  profilanswer
 

MEI a écrit :

Oui je pense qu'a 650/1700 c'est p'tet raisonnable de penser ça... Mais bon en AA4X + Aniso 16X et 1600 peut-être pas quand même.


 
J'ai pas encore vu une seule 7600GT atteindre les 650/850 sur le forum, mais en même temps on n'est pas encore très nombreux! En tout cas celui qui atteint ces fréquences sera un ptit chanceux je pense. Mais ce n'est pas impossible.

n°4716208
ze_neosush​i
Posté le 20-03-2006 à 00:00:16  profilanswer
 

entre une 7600gt P.O.V a 230€ et une MSI a 215 € , vous me conseillez quoi ?? (sachant que les jeux livrés avec ne me branchent pas spécaialement de toutes les facons :))

n°4716238
choupette1​2
Posté le 20-03-2006 à 00:22:45  profilanswer
 

vous jouez en quelle resolution maintenant ?
depuis le lcd, je joue en 1280*1024 et ça me va tres bien comme resolution couplé a une 6600gt 128, c'était une carte terrible :)
et aussi, j'ai remarqué que l'o/c n'apporte pas grand chose, parlez pas de 3d mark, faites ça avec les jeux pour vraiment comparer.
en tout cas une chose est sur, en passant de la 6600gt a la 7600gt, je vais gagner pas mal a lockOn, c'est une certitude ;)
 
sur ce bien le bonsoir chez vous.


Message édité par choupette12 le 20-03-2006 à 00:24:40
n°4716243
choupette1​2
Posté le 20-03-2006 à 00:26:37  profilanswer
 

entre une 7600gt P.O.V a 230€ et une MSI a 215 €.
sincerement, c'est kif kif bouriko lol
 
je prends la moins cher et je replace le zalman en 5v et tiens bon.

n°4716250
Geekly
Tartine de foutre.
Posté le 20-03-2006 à 00:30:48  profilanswer
 

Y'a pas 3 ans de garantie chez POV ?

n°4716266
ze_neosush​i
Posté le 20-03-2006 à 00:45:38  profilanswer
 

si , il y'a effectivement 3ans, mais chez MSI c'est 2 ans, plus la troisieme année où il y'a les transports et la main d'oeuvre a payer (sauf sur les composants)

n°4716278
theboss347​5
Posté le 20-03-2006 à 00:56:50  profilanswer
 

a prendre une 7600gt et peu importe le bundle,alors une club3d a 199 euros est le meilleur choix de tres loin.ca fait la carte a 207in,difficilement battable ;)
 
en plus club3d c est garantie 2 ans


Message édité par theboss3475 le 20-03-2006 à 00:59:35
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  16  17  18  ..  103  104  105  106  107  108

Aller à :
Ajouter une réponse
 

Sujets relatifs
Ma Nouvelle Config!XFX GeForce 7900 GTX 512MB DDR3 - Extreme Edition
aie aie aie big probleme sur nouvelle DFI ultra DRbesoin d'avis pour une nouvelle config...
GeForce 7900 GTX ou GeForce 7800 GTx2Upgrade nouvelle CG mais le reste ?
[Topic unique] Alimentations compatibles pour MSI Diamondavis nouvelle config
avis nouvelle config.Problème dans le panneau Nvidia (Fréquences)
Plus de sujets relatifs à : [Topic Unique] GeForce 7600 GT : La nouvelle bombe Nvidia


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)