Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2179 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  32  33  34  ..  223  224  225  226  227  228
Auteur Sujet :

[Topic Unique] 8800 GTS 320 mo

n°5402209
boolette
Posté le 08-03-2007 à 01:52:46  profilanswer
 

Reprise du message précédent :
Et en french ça done koi angelusdeus ??  :)  :)

mood
Publicité
Posté le 08-03-2007 à 01:52:46  profilanswer
 

n°5402304
angelusdeu​s
BlobUmad
Posté le 08-03-2007 à 09:14:09  profilanswer
 

rooh s'pas compliqué comme anglais là  [:petrus75]  
j'ai acheté un cable vga pour rien moi, 20€ de perdu  :sweat:  
fin bon
 
 

Citation :


HOURRA !  
J'ai une 8800gts avec deux lcds SyncMaster 940bw de samsung.  
Leurs résolutions natives sont 1440x900. Ma carte graphique a continué malgré tout à les mettre en 1280x1024. J'ai demandé l'appuie tech de nvidia par mail, ils ont répondu (rapidement) et m'ont demandé de créer un timing perso. Cela N'A PAS FONCTIONNÉ. J'avais beau créer le timing perso et le tester, cela échouait. Déception. donc j'attendais de leur part une réponse et j'ai décidé de faire plus de recherche.  
Cela fonctionnne maintenant.  
Voici ce que j'ai fait pour obtenir un bon fonctionnement…  
 
1. NVIDIA Control Panel > Affichage > Gérer les synchronisation personnalisées.  
2. Click à la fois sur "Traiter comme un HDTV" et sur "Autoriser les modes non esposé par l'affichage"  
3. Click [Créer...]  
4. Sous Valeur du Mode d'Affichage personnalisé:  
    Pixels Horizentaux du bureau:  1440  
    Lignes Verticales du bureau:  900  
    Fréquence de rafraichissement GDI:  60  
    Bits par pixel:  32  
    (Ne PAS cocher entrelacer)  
5. Click [Avancé>>]  (d'ailleurs c'est où je ne suis pas allé quand NVIDIA m'a mailé)  
6. Sous "Paramètres d'arriere plan":  
    Norme de Synchronisation:  DMT  
    Fréquence de rafraichissement souhaité:  60  
    (Le reste des champs sont grisés)  
7. Sous "Parametres au premier plan"  
    Type de mise à l'échelle:  Affichage(Aucun)  
8. Click [Test]  
9. Click [OK]  
 
J'espere que cela fonctionnera pour tout le monde. J'ai été frustré avec ma nouvelle carte graphique de marque qu'elle ne fonctionne pas correctement...


 
voilà, traduit, bon y'a surment des erreurs de temps mais bon [:petrus75]

n°5402415
Benj50
Posté le 08-03-2007 à 10:23:10  profilanswer
 
n°5402448
angelusdeu​s
BlobUmad
Posté le 08-03-2007 à 10:45:17  profilanswer
 


ué  :sweat:

n°5403735
macadam33
Posté le 08-03-2007 à 21:50:47  profilanswer
 

angelusdeus a écrit :

rooh s'pas compliqué comme anglais là  [:petrus75]  
j'ai acheté un cable vga pour rien moi, 20€ de perdu  :sweat:  
fin bon
 
 

Citation :


HOURRA !  
J'ai une 8800gts avec deux lcds SyncMaster 940bw de samsung.  
Leurs résolutions natives sont 1440x900. Ma carte graphique a continué malgré tout à les mettre en 1280x1024. J'ai demandé l'appuie tech de nvidia par mail, ils ont répondu (rapidement) et m'ont demandé de créer un timing perso. Cela N'A PAS FONCTIONNÉ. J'avais beau créer le timing perso et le tester, cela échouait. Déception. donc j'attendais de leur part une réponse et j'ai décidé de faire plus de recherche.  
Cela fonctionnne maintenant.  
Voici ce que j'ai fait pour obtenir un bon fonctionnement…  
 
1. NVIDIA Control Panel > Affichage > Gérer les synchronisation personnalisées.  
2. Click à la fois sur "Traiter comme un HDTV" et sur "Autoriser les modes non esposé par l'affichage"  
3. Click [Créer...]  
4. Sous Valeur du Mode d'Affichage personnalisé:  
    Pixels Horizentaux du bureau:  1440  
    Lignes Verticales du bureau:  900  
    Fréquence de rafraichissement GDI:  60  
    Bits par pixel:  32  
    (Ne PAS cocher entrelacer)  
5. Click [Avancé>>]  (d'ailleurs c'est où je ne suis pas allé quand NVIDIA m'a mailé)  
6. Sous "Paramètres d'arriere plan":  
    Norme de Synchronisation:  DMT  
    Fréquence de rafraichissement souhaité:  60  
    (Le reste des champs sont grisés)  
7. Sous "Parametres au premier plan"  
    Type de mise à l'échelle:  Affichage(Aucun)  
8. Click [Test]  
9. Click [OK]  
 
J'espere que cela fonctionnera pour tout le monde. J'ai été frustré avec ma nouvelle carte graphique de marque qu'elle ne fonctionne pas correctement...


 
voilà, traduit, bon y'a surment des erreurs de temps mais bon [:petrus75]


 
cool, j'ai le pbm avec les 97.94 tout est flou, parcontre les 96.xx dedié 8800 eux sont bons ...
 
donc ça vient des drivers moisi nvidia ...

n°5403971
Profil sup​primé
Posté le 09-03-2007 à 00:33:36  answer
 

Euuh il y a des problèmes avec les drivers nvidia sur un seul écran??

n°5404363
sign
Posté le 09-03-2007 à 11:37:07  profilanswer
 

Bonjour
 
J'ai le choix de prendre soit de l'ASUS ou de l'XFX en 8800 GTS 320
Que me conseillez vous?
Sachant que je les ais au même prix  
 
Salutation
 
Merci de vos réponses

n°5404397
Himura
Sugoy !
Posté le 09-03-2007 à 11:55:35  profilanswer
 

J'ai pas entendu beaucoup de bien du SAV XFX.
A priori je dirais ASUS :)

n°5404404
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 09-03-2007 à 11:59:17  profilanswer
 

Pascal_TTH a écrit :

Je suis d'accord avec toi pour jouer en résolution native. Mais :
- se priver d'un 24 pouces en 1980x1200 et retomber sur un 22 1680x1050 parce qu'on a peur que la VGA ne soit pas à la hauteur, c'est le genre d'erreur qu'on regrette.  
- ici, il ne parle que de WoW. Je ne sais pas si une 8800 320 Mo peut faire tourner tous les jeux en 1920x1200.
 
Si je n'avais pas eu le budget pour une 8800 GTX et un 24 pouces, j'aurais quand même pris un 24 pouces quitte à faire des compromis avec les jeux. Je comprends aussi que des gens préfèrent faire le contraire. Je pense qu'on change quand même plus vite de VGA que d'écran et vu la CG avec le 2407WFP à 599 €.
 
Je confirme que c'est pas génial en interpolé mais je trouve déjà que même en 1920x1200 sans AA (ou simplement en AA 2x), c'est pas top. Quand le budget impose des limites, tout le monde ne fait pas les mêmes compromis.
 
-> Omek : prend un 24 pouces...  :ange:  

Spoiler :

Après, ça peut servir d'excuse (si besoin est) pour changer de VGA, l'inverse, ça passe moins bien  :D


Rien à voir ce que je dis, toi tu dis que si ca passe pas en 1920*1200 tu passes en 1680*1050 aa 4x interpollé, ce que je veux dire c'est que ce choix n'a aucun interêt car
1/ c'est moche
2/ c'est pas plus rapide (voir moins)

n°5404411
Himura
Sugoy !
Posté le 09-03-2007 à 12:04:24  profilanswer
 

Himura a écrit :

J'ai pas entendu beaucoup de bien du SAV XFX.
A priori je dirais ASUS :)


Après quelques recherches...le SAV ASUs a l'air bien naz aussi :lol:

mood
Publicité
Posté le 09-03-2007 à 12:04:24  profilanswer
 

n°5404452
oraclesse
Posté le 09-03-2007 à 12:40:42  profilanswer
 

question est ce que vous ramer sous cod 2 avec ttes les options à fonds (texsture à max)
ma config e6600 + 8800gts + corsaire 5400, moi oui !
par contre des que je met les texture en high mais pas en extra je suis fluide 50 fps

n°5404457
god is dea​d
Demain, j'arrête de poster.
Posté le 09-03-2007 à 12:43:10  profilanswer
 

Si tu joues en 1920 oui, si tu joues en 1024 non :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5404476
oraclesse
Posté le 09-03-2007 à 12:51:55  profilanswer
 

resolution 1280/1024

n°5404482
vince+
Posté le 09-03-2007 à 12:55:16  profilanswer
 

bah 320 mo c'est un peu light pour mettre les textures aux max...

n°5404486
oraclesse
Posté le 09-03-2007 à 12:56:05  profilanswer
 

mes score 3dmark avec e6600 @ 3.1ghz
2005 : 16500
2006 : 8900
2003 : 26500
mais call of duty2 fluide en1280/1024 avec synv ok; aa4x; antistropic ok; reflet monde à fond; ombre activé; mais quand je vais dans l'option des textures si je met tout en extra çà rame je ne suis pas fluide 25fps

n°5404492
vince+
Posté le 09-03-2007 à 12:58:57  profilanswer
 

et bien fallait prendre le modèle gts avec 640 mo là tu serait fluide en mettant les textures au max

n°5404493
oraclesse
Posté le 09-03-2007 à 13:00:38  profilanswer
 

lol si tu me fais un chèque de 400€ pkoi pas :)

n°5404548
netimel
Posté le 09-03-2007 à 13:35:02  profilanswer
 

Intéressant ce que tu dis (chute des perfs avec les filtres à fond). Le tout est de savoir si cette perte de perf est clairement liée à la mémoire limitée (Le jeu n'étant pas particulièrement très gourmand).
Dans le doute, je pense de plus en plus attendre, ne pas foncer sans réfléchir et donc économiser les 80 euros de différence entre la 320mo et la 640mo. Je pense qu'aujourd'hui 512Mo est la norme pour assurer un peu son avenir avec sa CG, donc option sur la 640Mo !

n°5404573
oraclesse
Posté le 09-03-2007 à 13:50:31  profilanswer
 

A mon avis pour ceux qui veulent faire peter les filtres @ fond il faut opter pour une 640 mo, car il ya la théorie et la pratique, et en pratique 320mo pour profiter des textures ce n'est pas suffisant. Bref la 320mo reste une bonne carte rapport /qualité prix. Mais à mon avis et ça n'engage que moi elle est déja limite pour la def 1280/1024 avec filtre à fonds. Alors faut trouver le bon compromis : activer les filtres pour 1280/1024 ou jouer en 1600/1200 sans activations de filtres. Ceci étant dis j'ai teste par exemple cod 2 en 1600/1200 avec tout à max sauf les texture qui sont resté en high au lieu d'extra, je chute que de 5-8 fps voir allé 10 fps. Conclusion c'est les textures qui mangent les mo supplementaires donc 640 mo est le bon choix à mon avis.
Autre constat sur un autre jeux c'est dark messiah, fluide ss texture à max, des que celle ci sont au max c'est la cata.
Sinon est ce que vous pouvez faire le test avec cod2 1280/1024 tout à fonds, texture en extra et me faire part de vos impression et de vos fps pour comparer, et faire le test avec la meme resolution mais les texture en "high" merci

n°5404582
netimel
Posté le 09-03-2007 à 13:56:50  profilanswer
 

Merci oraclesse, tu réponds ainsi à une question que je me pose depuis plusieurs semaines. Je sais maintenant que pour profiter raisonnablement des filtres sur mon écran 1680X1050 : c'est la 640Mo que je dois choisir. Même si la limite n'est pas très claire entre les deux versions, je préfère ne pas prendre de risques afin de ne pas le regretter ensuite. Et à plus de 300 euros la carte, je juge que l'on ne dois pas prende le moindre risque. C'est mon avis sur la question.

n°5404590
twistou
Les cons, ça ose tout ...
Posté le 09-03-2007 à 14:02:51  profilanswer
 

netimel a écrit :

Merci oraclesse, tu réponds ainsi à une question que je me pose depuis plusieurs semaines. Je sais maintenant que pour profiter raisonnablement des filtres sur mon écran 1680X1050 : c'est la 640Mo que je dois choisir. Même si la limite n'est pas très claire entre les deux versions, je préfère ne pas prendre de risques afin de ne pas le regretter ensuite. Et à plus de 300 euros la carte, je juge que l'on ne dois pas prende le moindre risque. C'est mon avis sur la question.


 
+1  :jap:  
 
Je me posais la même question ... :D

n°5404621
sniper 46
Posté le 09-03-2007 à 14:22:16  profilanswer
 

[:aloy]  
 
Regarde un minimum les tests du 8800Gts 320 Mo disponible sur le net un peu partout avant de dire que cette carte ne suffit pas pour joué en 1280*1024 avec tous les détails à fond.
Pour information, c'est haut dessus du 1600*1200 que l'écart entre la version 640 et 320 apparaît réelement.
 
En 1680*1024 Dans la plupart des jeux (presque tous même...) même avec filtre activé, il n'y a presque "aucune différence" entre la version 320 et 640 Mo.
Les seuls jeux ou tu verras la différence, c'est Doom 3 avec les textures très hautes qualité, et Half life 2 et Oblivion avec le pack texture haute qualité...
Et pis bon avec mes pilotes mieux optimisé qu'ils sortiront petit à petit afin d'optimiser la 320 Mo, peut-être que la différence sera réduite.
 
http://www.tt-hardware.com/modules [...] &sid=10180
 
Ici, un test assez complet entre une 8800Gts 320/640 Mo, dans la plupart des jeux actuels, presque aucune différence en 1680*1024.
 
Alors, bon sortir quant 1280*1024 la 8800Gts 320 Mo à du mal avec les filtres à donf ....  :whistle:  
 

Citation :

et en pratique 320mo pour profiter des textures ce n'est pas suffisant.


 
Tout dépent de l'optimisation dans le jeux, même Oblivion ne consomme pas 320 Mo avec tout à fond en 1280*1024 ou un peu plus (je crois qu'il donne 250 Mo par là )

Message cité 1 fois
Message édité par sniper 46 le 09-03-2007 à 14:23:27
n°5404625
mac fly
Posté le 09-03-2007 à 14:24:32  profilanswer
 

oraclesse a écrit :

A mon avis pour ceux qui veulent faire peter les filtres @ fond il faut opter pour une 640 mo, car il ya la théorie et la pratique, et en pratique 320mo pour profiter des textures ce n'est pas suffisant. Bref la 320mo reste une bonne carte rapport /qualité prix. Mais à mon avis et ça n'engage que moi elle est déja limite pour la def 1280/1024 avec filtre à fonds. Alors faut trouver le bon compromis : activer les filtres pour 1280/1024 ou jouer en 1600/1200 sans activations de filtres. Ceci étant dis j'ai teste par exemple cod 2 en 1600/1200 avec tout à max sauf les texture qui sont resté en high au lieu d'extra, je chute que de 5-8 fps voir allé 10 fps. Conclusion c'est les textures qui mangent les mo supplementaires donc 640 mo est le bon choix à mon avis.
Autre constat sur un autre jeux c'est dark messiah, fluide ss texture à max, des que celle ci sont au max c'est la cata.
Sinon est ce que vous pouvez faire le test avec cod2 1280/1024 tout à fonds, texture en extra et me faire part de vos impression et de vos fps pour comparer, et faire le test avec la meme resolution mais les texture en "high" merci


Mais qu'est ce que tu racontes  :pt1cable:  ... j'ai un 21" crt et je jouais déja en 1600*1200 avec mon ex 7900gt 256mo@715/900 avec quasiment tout à fond (ça dépendait des jeux)
 
Avec ma GTS 320mo c'est fluidasse à mort dans les memes conditions et tout à fond dans la totalité de mes jeux.Au pire quand on se trouve en situation de saturation des 320mo de ram graphique il suffit de ne pas mettre "a fond" l'AA ou qques autres options en fonction du jeux concerné -> un peu d'AA par ci par là en 1600*1200 c'est bien, autant tout mettre à fond pour le plaisir de dire qu'on est à fond -et que ça sature la ram graphique- , je trouve cela particulièrement TRES RIDICULE dans le sens ou de l'AA 2x ou 4x ça suffit amplement en 1600*1200 et graphiquement parlant la différence est négligeable :pt1cable:
 
EDIT: et puis oblivion meme en très haute résolution marche très bien avec les 320mo de la GTS -> http://www.hardware.fr/articles/64 [...] 0-gts.html


Message édité par mac fly le 09-03-2007 à 14:29:52
n°5404696
god is dea​d
Demain, j'arrête de poster.
Posté le 09-03-2007 à 15:03:28  profilanswer
 

Même sous les jeux les plus gourmands en ram, le manque de ram se fait sentir en 1600 généralement, pas en 1280.
 
cod2:
http://www.clubic.com/article-6953 [...] 20-mo.html
 
Obli, or pack 512mo, tourne pareil sur une 320 que sur une 640, peu importe la réso, à 1fps près.
 
Les tests existent, vous achetez en connaissance de cause... ou pas :spamafote:


Message édité par god is dead le 09-03-2007 à 15:14:17

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5404717
twistou
Les cons, ça ose tout ...
Posté le 09-03-2007 à 15:13:34  profilanswer
 

sniper 46 a écrit :

[:aloy]  
 
http://www.tt-hardware.com/modules [...] &sid=10180
 
Ici, un test assez complet entre une 8800Gts 320/640 Mo, dans la plupart des jeux actuels, presque aucune différence en 1680*1024.


 
 :??:  Ben quand on lit ce qui est dit pour FEAR, HL² ou même en conclusion. On n'est pas forcément très rassuré pour les jeux à venir ... :(  

n°5404723
god is dea​d
Demain, j'arrête de poster.
Posté le 09-03-2007 à 15:16:17  profilanswer
 

FEAR et Hl2 c'est du passé hein :o
 
Zetes marrant, je vois pas comment une carte à 300 euros pourrait roxxer avec les jeux à venir.
Pour ça faut une 8800gtx, et encore.
Aucune raison qu'elle soit lamentable pour autant, donc profitez du présent et achetez en fonction des jeux et de votre écran (pour çà faut s'en référer aux tests), si une gts 320 ne convient pas à votre utilisation ben faut taper plus haut.  
Spas compliqué :o

Message cité 1 fois
Message édité par god is dead le 09-03-2007 à 15:23:24

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5404732
twistou
Les cons, ça ose tout ...
Posté le 09-03-2007 à 15:23:39  profilanswer
 

god is dead a écrit :

FEAR et Hl2 c'est du passé hein :o


Pour faire les tests, c'est plus pratique que d'utiliser les jeux du futur ..  :D  
Plus sérieux, je répondais à notre ami sur le lien qu'il nous donnait.

n°5404738
god is dea​d
Demain, j'arrête de poster.
Posté le 09-03-2007 à 15:25:25  profilanswer
 

Mais je ne vois pas le lien entre FEAR, HL2 (dx9) et jeux futurs (dx10).


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5404743
_fox_
Bijour tout le monde ...
Posté le 09-03-2007 à 15:28:17  profilanswer
 

C'est une carte qui est fait pour toucher plus de monde grace a son prix.
Je me rappel quand j'ai changer ma GeForce 2 pour une Radeon 9600 Pro, j'ai mis quand meme 250€ dans une carte et je savais que c'était pas la meilleur mais faut la tune est etre raisonable aussi. Et sur le moment les jeux du moment tournaient a fond mais avec peu de filtres.
Cette radeon a durée longtemps mais au fil des années je faisais des restrictions sur les options graphiques.
 
Le plus important c'est de pouvoir jouer convenablement.

n°5404747
oraclesse
Posté le 09-03-2007 à 15:29:06  profilanswer
 

tu me fait rire God, moi je me base par rapport au concret et les jeux que je teste et pas qu'aux sites internet , leur cg sont hyper hoptimisés, les marques leur envoient leur meilleurs produits.
J'essai de donner des impressions concrete à mes collegues gamers pour pas qu ils soient déçu par rapport à leur attentes c tout .

n°5404751
twistou
Les cons, ça ose tout ...
Posté le 09-03-2007 à 15:30:45  profilanswer
 

god is dead a écrit :

Mais je ne vois pas le lien entre FEAR, HL2 (dx9) et jeux futurs (dx10).


On ne sait rien des jeux en dx10, on ne peut faire que des supputations, ce qui me gêne, c'est que des jeux comme FEAR ou HL² ont montré en dx9 que la mémoire jouait un rôle important déjà quand il sont sortis. Ce qui nous amene à penser que les jeux qui vont sortir seront encore plus gourmand et que si 320 suffit dans 80% aujourd'hui, je reste très pensif pour ce qui est de 2007/2008 et qu'assurer avec 640 dès maintenant ne me semble pas idiot.

n°5404811
netimel
Posté le 09-03-2007 à 15:53:02  profilanswer
 

oraclesse a écrit :

tu me fait rire God, moi je me base par rapport au concret et les jeux que je teste et pas qu'aux sites internet , leur cg sont hyper hoptimisés, les marques leur envoient leur meilleurs produits.
J'essai de donner des impressions concrete à mes collegues gamers pour pas qu ils soient déçu par rapport à leur attentes c tout .


J'ai plutôt tendance à croire un vrai gamer comme oraclesse qui a vraiment testé en condition de jeu réelle que des tests de labo qui vallent ... ce qu'ils vallent.
Je ferais remarqué que cette carte est destinée à faire tourner les jeux de DEMAIN (style Crysis) et donc sans aucun doute plus gourmants que des "vieux" jeux qui dorment dans le fond de mes tirroirs. Inutile de me dire que Quake3 tourne bien à fond sur une 320mo, je ne joue pas aux jeux déjà joués.
Vous avez donc probablement tous raison aujourd'hui, mais demain c'est demain et personne n'en vient. Donc il faut PREVOIR et assurer un minimum pour les futures jeux qui ne cessent de s'améliorer et donc de consommer des ressources en terme de textures. Voilà pourquoi je miserai quand même plutôt sur la version 640Mo.  ;)

n°5404875
uNReaLx77
üNReaL
Posté le 09-03-2007 à 16:24:18  profilanswer
 

a quoi sert les option "find max core and memory" dans ATItool ?
Quand je le fais, ca ne s'arrete pas, il monte les frequence jusqu'a ecran bleu se fou.
ca sert a rien donc ? puisqu'il ne trouve rien !
 

netimel a écrit :

J'ai plutôt tendance à croire un vrai gamer comme oraclesse qui a vraiment testé en condition de jeu réelle que des tests de labo qui vallent ... ce qu'ils vallent.
Je ferais remarqué que cette carte est destinée à faire tourner les jeux de DEMAIN (style Crysis) et donc sans aucun doute plus gourmants que des "vieux" jeux qui dorment dans le fond de mes tirroirs. Inutile de me dire que Quake3 tourne bien à fond sur une 320mo, je ne joue pas aux jeux déjà joués.
Vous avez donc probablement tous raison aujourd'hui, mais demain c'est demain et personne n'en vient. Donc il faut PREVOIR et assurer un minimum pour les futures jeux qui ne cessent de s'améliorer et donc de consommer des ressources en terme de textures. Voilà pourquoi je miserai quand même plutôt sur la version 640Mo.  ;)


 
Ca depend pour qui, ne connaissant pas les perf de ces carte sous DX10, je prefere mettre un minimum d'argent pour des perf raisonnable, pour moi la 320Mo est plus une carte de transition en attendant que vista et les jeux DX10 se mettent mieux en place histoire de voir ce que ca dit.
j'attend plutot les modele 8900 et ATI (surtout les jeux)

Message cité 1 fois
Message édité par uNReaLx77 le 09-03-2007 à 16:28:14
n°5404890
ftp381
ça fûme!
Posté le 09-03-2007 à 16:32:11  profilanswer
 

uNReaLx77 a écrit :

a quoi sert les option "find max core and memory" dans ATItool ?
Quand je le fais, ca ne s'arrete pas, il monte les frequence jusqu'a ecran bleu se fou.
ca sert a rien donc ? puisqu'il ne trouve rien !


 
il faut que tu définisses préalablement les valeurs max que ATI ne dois pas dépasser pour la GDR et pour le GPU.
ensuite dans l'onglet scan for artifact (dans setting) tu mets le curseur sur "more artefact detected ; less o/c" et là il s'arrêtera aux 1ers signes d'erreurs GPU ou GDR...

n°5404892
sniper 46
Posté le 09-03-2007 à 16:32:25  profilanswer
 

oraclesse a écrit :

tu me fait rire God, moi je me base par rapport au concret et les jeux que je teste et pas qu'aux sites internet , leur cg sont hyper hoptimisés, les marques leur envoient leur meilleurs produits.
J'essai de donner des impressions concrete à mes collegues gamers pour pas qu ils soient déçu par rapport à leur attentes c tout .


 
Quant un Testeur / Rédacteur, que ça soit site web ou magazine reçois une carte de test par un constructeur ou fournisseur, c'est exactement la même carte que tu auras dans le commerce.
Les cartes reçus sont les mêmes que celle que tu as entre les mains, il n'y a pas de version hyper optimisée, ni de meilleur produit...   en terme de performance d'origine.  
 
Je ne vois pas trop en quoi tes impressions sont concrettes, dire qu'il 8800Gts ne suffit pas en 1280*1024, faut pas non plus abusé  :sleep:
Tu te focalise sur un seul jeux ... regarde plutot un panel de jeux. Et tu verras que la version 320 Mo est une bonne carte, pour des performances jusqu'au 1680*1050.
 


Message édité par sniper 46 le 09-03-2007 à 16:43:55
n°5404907
uNReaLx77
üNReaL
Posté le 09-03-2007 à 16:37:55  profilanswer
 

il y a plus de chance que les carte de test envoyé soit moins bien fini que les version vendu, que le contraire.
D'ailleur on peut quelque fois noter des scores inferieur sur les test internet par rapport a ce des consomateurs
 

ftp381 a écrit :

il faut que tu définisses préalablement les valeurs max que ATI ne dois pas dépasser pour la GDR et pour le GPU.
ensuite dans l'onglet scan for artifact (dans setting) tu mets le curseur sur "more artefact detected ; less o/c" et là il s'arrêtera aux 1ers signes d'erreurs GPU ou GDR...


Merci


Message édité par uNReaLx77 le 09-03-2007 à 16:39:43
n°5404908
oraclesse
Posté le 09-03-2007 à 16:37:58  profilanswer
 

ecoute le debat n'est pas la. je parle d'un constat par rapport à mon cas perso je partage juste un avis et une impression

n°5404910
ftp381
ça fûme!
Posté le 09-03-2007 à 16:40:16  profilanswer
 

et si les cartes sont plus optimisées ce n'est pas sur les fréquences car cela se voit... il reste quoi ? les temps de latence mémoire ?
ça fait un peu léger non ?
 
qu'elles soient assemblées nickel ça c'est envisageable (voire même avec de la vrai pâte thermique et un serrage aux petits oignons :D).

n°5404911
god is dea​d
Demain, j'arrête de poster.
Posté le 09-03-2007 à 16:40:28  profilanswer
 

oraclesse a écrit :

tu me fait rire God, moi je me base par rapport au concret et les jeux que je teste et pas qu'aux sites internet , leur cg sont hyper hoptimisés, les marques leur envoient leur meilleurs produits.
J'essai de donner des impressions concrete à mes collegues gamers pour pas qu ils soient déçu par rapport à leur attentes c tout .


Il n'y a aucune cg  optimisée, une 8800gts 320 aura les mêmes perfs partout.
Tant que les fréquences et les spéc sont les mêmes, les perfs seront logiquement les mêmes.  
 
Y a rien à "optimiser" sur une cg, la seule chose possible c'est de filer des samples qui s'o/c particulièrement bien.
 
Et, personnellement, je n'aime pas rabaisser les testeurs pro, qui ont des connaissances bien supérieures aux utilisateurs "lambdas".  
Ce qui ne veut pas dire que les propos des utilisateurs sont moins avertis pour autant, juste qu'à choisir entre l'avis d'un mec qui bosse dans le métier (genre Tridam pour ne pas le citer) et un autre, je choisirais celui qui bosse dans le métier :)
 
Quoi qu'il en soi, affirmer que les cg envoyées aux différents testeurs sont + optimisées que celles que l'on retrouve sur le marché, c'est affirmer quelque chose de faux.
 
Quant à l'utilité d'une gts 320, elle est réelle et le futur on en sait rien, donc parlons du présent.  
D'ailleurs, qui te dit qu'une gts 640 sera suffisante? Si c'est pour avoir une différence de 10fps sur un framerate qui ne dépasse pas les 40, bof quoi...  
Suffit pas d'avoir de la ram pour faire tourner un jeu.
 
Le présent il montre qu'une gts 640 c'est 80/100 euros de +, ce qui est loin d'être négligeable.
 
Ca ne veut pas dire que la gts 640 n'a pas d'intérêt, pas + que la gts 320, juste qu'elle répond à des attentes différentes :)

Message cité 1 fois
Message édité par god is dead le 09-03-2007 à 16:49:02

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5404918
mac fly
Posté le 09-03-2007 à 16:42:55  profilanswer
 

oraclesse a écrit :

ecoute le debat n'est pas la. je parle d'un constat par rapport à mon cas perso je partage juste un avis et une impression


Ben il est là le problème, c'est que comme expliqué plus haut ça ne reflète pas la réalité :D  
Sinon, l'expérience du passé à TOUJOURS montré que les modèles avec moins de ram ont finalement eu la meme durée de vie que les autres modèles à gpu identiques  :hello:  
 
Moi si j'ai choisi la GTS 320 c'est tout bonnement car je sais qu'elle aura la meme durée de vie que la GTS 640 (je m'en fiche royalement de tourner en AA 2x/4x au lieu de AA 16x pour ce que ça change dans ma réso habituelle de 1600*1200  :pt1cable:  ), donc mon choix a été: soit une bonne grosse GTX/R600 quand il sortira  :sweat: ... soit la moins cher des GTS


Message édité par mac fly le 09-03-2007 à 16:47:59
n°5404923
ftp381
ça fûme!
Posté le 09-03-2007 à 16:44:33  profilanswer
 

god is dead a écrit :

Il n'y a aucune cg  optimisée, une 8800gts 320 aura les mêmes perfs partout.
Tant que les fréquences et les spéc sont les mêmes, les perfs seront logiquement les mêmes.  
 
Y a rien à "optimiser" sur une cg, la seule chose possible c'est de filer des samples qui s'o/c particulièrement bien.
 
Et, personnellement, je n'aime pas rabaisser les testeurs pro, qui ont des connaissances bien supérieures aux utilisateurs "lambdas".  
Ce qui ne veut pas dire que les propos des utilisateurs sont moins avertis pour autant, juste qu'à choisir entre l'avis d'un mec qui bosse dans le métier (genre Tridam pour ne pas le citer) et un autre, je choisirais celui qui bosse dans le métier :)
 
Quoi qu'il en soi, affirmer que les cg envoyées aux différents testeurs sont + optimisées que celles que l'on retrouve sur le marché, c'est affirmer quelque chose de faux.
 
Quant à l'utilité d'une gts 320, elle est réelle et le futur on en sait rien, donc parlons du présent.  
D'ailleurs, qui te dit qu'une gts 640 sera suffisante? Si c'est pour avoir une différence de 10fps sur un framerate qui ne dépasse pas les 40, bof quoi...  
 
Le présent il montre qu'une gts 640 c'est 80/100 euros de +, ce qui est loin d'être négligeable.
 
Ca ne veut pas dire que la gts 640 n'a pas d'intérêt, pas + que la gts 320, juste qu'elle répond à des attentes différentes :)


+1 globalement
 
globalement car je suis un peu déçu par le manque de perf de la liaison GPU-ventirad ce qui donne des G80 qui parfois ont des temp Iddle très élevé.
 
donc sur ce point les fab peuvent mieux faire... et font peut-être mieux pour les cartes qu'ils envoient en test :ange:.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  32  33  34  ..  223  224  225  226  227  228

Aller à :
Ajouter une réponse
 

Sujets relatifs
probleme 8800 GTXNouvelle config E4300, 8800 GTX -> conseils et overclocking
8800 gts asustek[Topic Unique]P5N32-E Sli et vcore bloqué au dessus d'un FSB de 1200
GeForce 8800 GTX à 499 € ? => Powersli.com = Arnaque ?[Topic unique] Meilleurs DVD vierges avec MàJ P1
[Topic]PC matx à base de C2D/Ci5/Ci7:petit mais costaud! 
Plus de sujets relatifs à : [Topic Unique] 8800 GTS 320 mo


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR