Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3945 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  189  190  191  ..  895  896  897  898  899  900
Auteur Sujet :

[Topic Unique] GeForce 8800

n°5213753
Profil sup​primé
Posté le 07-12-2006 à 13:09:59  answer
 

Reprise du message précédent :
Le grand concurent de FSX  .......................FS9 bien sur :D

mood
Publicité
Posté le 07-12-2006 à 13:09:59  profilanswer
 

n°5213760
Otan beauv​al
c'est clair rainette...
Posté le 07-12-2006 à 13:14:50  profilanswer
 


 
:D

n°5213767
Profil sup​primé
Posté le 07-12-2006 à 13:19:36  answer
 

vous avez peut etre raison, mais je sais pas jai dut mal à remettre en doute les propos de funky.data sur NXEvolution, qui programme sur DX9 et qui me semble sais de quoi il parle.

n°5213784
cyberfred
Posté le 07-12-2006 à 13:29:28  profilanswer
 


 
:jap:

n°5213793
cyberfred
Posté le 07-12-2006 à 13:32:22  profilanswer
 

asmomo a écrit :

Pour FSX je suis même pas sûr que ça change qqchose, parce que visuellement ya vraiment pas de quoi charger la CG, donc ce qui le ralentit est indépendant de la partie graphique. C'est CPU limited parce que le CPU doit calculer les trajectoires de tous les avions et voitures à l'écran, la géométrie de tout le paysage à 30Km à la ronde à 10cm près, etc.


 
le cpu calcule aussi tout l'affichage des buildings non? ce qui expliquerait pkoi ca rame à fond ds les grosses villes alors que l'on survole les chaines de montagne c'est bcp plus fluide.

n°5213813
Otan beauv​al
c'est clair rainette...
Posté le 07-12-2006 à 13:46:51  profilanswer
 

wai c'est l'autogen qui bouffe du CPU comme pas permis....
 

n°5213818
Profil sup​primé
Posté le 07-12-2006 à 13:49:52  answer
 

asmomo a écrit :

Pour FSX je suis même pas sûr que ça change qqchose, parce que visuellement ya vraiment pas de quoi charger la CG, donc ce qui le ralentit est indépendant de la partie graphique. C'est CPU limited parce que le CPU doit calculer les trajectoires de tous les avions et voitures à l'écran, la géométrie de tout le paysage à 30Km à la ronde à 10cm près, etc.


 
cette partie là normalement avec DX10 sera calculé par la CG

n°5213830
rem_rem
Posté le 07-12-2006 à 13:53:44  profilanswer
 


Dans les jeux actuel c'est plus le GPU que le CPU qui limite. Déporter certains calcul sur le GPU comme tu le dis aura pour seul effet de diminuer le nombre de FPS sans même améliorer la qualité graphique.

n°5213834
Profil sup​primé
Posté le 07-12-2006 à 13:58:03  answer
 

dans les jeux actuels, je prend exemple sur fear et oblivion qui sont bien representatifs et bien en overclockant le GPU d'une 8800GTX en SLI on ne gagne aucun FPS (sauf utra haute resolution) par contre tu en gagne (un peu) en overclockant le CPU...
 
test à effectué sur ma config C2D@3.8 ou C2D@3.2
 
jen deduit que si ces jeux (Oblivions ou Fear) etaient codé pour DX10 on gagnerait bcp en FPS
 
pour les jeux futurs jen sais rien, ils utiliseront sans doute bcp d'effet DX10 qui boufferont sans doute pas mal le GPU

Message cité 2 fois
Message édité par Profil supprimé le 07-12-2006 à 14:01:13
n°5213846
rem_rem
Posté le 07-12-2006 à 14:04:39  profilanswer
 


Pas d'accord !
Quand j'avais ma GX2, je suis passé d'un A64 3700+ @2.9 à un E6600 @3.3 et je n'ai eu aucun gain sous FEAR (en 1280*1024 AA 4X Aniso 8X).
Sur ma 8800 GTX, il y a un gain en overclockant sous FEAR.
 
Je ne sais pas exactement comment tout cela va fonctionner sous DX10. Et pas grand monde le sait d'ailleurs. C'est beaucoup de spéculations...
 
Mais une chose est sure, actuellement sur des jeux récents le facteur limitant est bien le GPU et absoluement pas le CPU. Et si ce n'est pas le cas, alors il suffit de monter en résolution et/ou filtres.
 
Edit : je viens de voir que tu parles d'un SLI de GTX. C'est quand même un cas un peu trop extrème non ? D'autant que dans ton cas le facteur limitant n'est pas le CPU mais l'écran.

Message cité 1 fois
Message édité par rem_rem le 07-12-2006 à 14:10:03
mood
Publicité
Posté le 07-12-2006 à 14:04:39  profilanswer
 

n°5213850
rem_rem
Posté le 07-12-2006 à 14:06:14  profilanswer
 


C'est bien ce que je dis, beaucoup de spéculations qui se fondent sur pas grand chose... Attendons la sortie de DX10.

n°5213864
Profil sup​primé
Posté le 07-12-2006 à 14:13:15  answer
 

quand je suis en pleine foret (sous Oblivion) avec tt à fond (ombre sous canopé, HDR, AAx4 aniso x8, le max des ombres et details vraiment du a fond de cher a fond en 1680x1050) avec un SLI de 8800GTX et bien je tourne par moment à 30FPS en regardant mon cheval.
 
jai overclocké les CG et aucuns changements !
jai overclocké le CPU et là je gagne bien 5-10 FPS !
 
ta GX2 etait GPU limited sous Fear (je sais jen avais une y a pas longtemps)
 
dans ce cas precis (le SLI de GTX) les GPU attendent que le CPU lui donne de koi se nourrire, si elles n'avaient pas à attendre le CPU (le cas de DX10) je ne serais pas à 30FPS mais bien au delà !

n°5213867
rem_rem
Posté le 07-12-2006 à 14:16:57  profilanswer
 

Si elles attendent le CPU, c'est que ta résolution est trop basse. DX10 n'y changera rien.

n°5213872
Profil sup​primé
Posté le 07-12-2006 à 14:19:11  answer
 

donc pour toi dans ces conditions avec DX10 ou pas je serais quand meme à 30FPS pacque ma résolution est basse ?
en augmentant ma résolution au pire je baisse de FPS au mieux ça ne change pas et je serais encore à 30FPS !
 
y a un truc qui cloche
 
et pis quand on parle de CPU limited, le test en generale cest de baisser sa résolution pour voir à partir de quel moment les FPS ne bougent plus, dans ce cas on dis "cpu limited" car en 800x600 jai le meme fps quand 640x480
si (comme indiqué dans les differentes sources sur DX10 que jai fournis plus loin) le CPU ne se charge plus de ce travail, donc en baissant de frequence il ny aurait plus de CPU limited et les fps devraient grimper proportionellement à la résolution (passage de 640x480 bcp plus rapide que 800x600)
 
mais tout celà nest que supposition, je suis daccord mais ça parait tellement logique.

Message cité 1 fois
Message édité par Profil supprimé le 07-12-2006 à 14:27:01
n°5213877
rem_rem
Posté le 07-12-2006 à 14:24:56  profilanswer
 


C'est ce qu'on répéte souvent sur ce post. Le couple CPU/GPU n'est pas très imporant. C'est le couple GPU/écran qui importe. Et DX10 n'y changera rien.
Que des cycles CPU soient économisés sous DX10 j'espère bien. Mais que du calcul soit déporté du CPU vers le GPU qui est déjà le facteur limitant, non merci. Sinon il faudrait un SLI pour faire fonctionner les jeux sous DX10.:)

Message cité 1 fois
Message édité par rem_rem le 07-12-2006 à 14:26:06
n°5213884
Profil sup​primé
Posté le 07-12-2006 à 14:29:43  answer
 

je ferais un test ce soir dans les memes conditions sous Oblivion en 800x600 pour voir si je suis tjr à 30fps

n°5213895
rem_rem
Posté le 07-12-2006 à 14:36:49  profilanswer
 


Bien sur que tu auras le même FPS. Dans ta situation (avec ton SLI de GTX) tu est bien CPU limited. Mais pas parce que le jeu est en DX9 mais parce que tu ne fais pas calculer assez  de pixels à ta carte. Ton "CPU limited" ne vient pas de ton CPU qui ne serait pas assez puissant, mais de la trop faible résolution utilisé sur ton SLI de GTX.
Ton SLI ne GTX en 1680*1200 est un très très mauvais exemple pour mettre en avant les gains sous DX10.
Comme ta résolution ést trop basse, tu pourrais augmenter la charge de tes GPUs sans faire baisser les FPS. Mais avec une seule carte qui tourne déjà à fond, crois-tu que tu gagnerais en FPS en augmentant la charge de ton unique GPU ?


Message édité par rem_rem le 07-12-2006 à 14:38:44
n°5213901
la_lootre
Posté le 07-12-2006 à 14:39:38  profilanswer
 

angela-pcs a écrit :

Fait une installe propre et met pas les 97.02 qui font plein de bug des polygonne  (faut mettre le "vieux" 96.98)
 
http://downloads.guru3d.com/download.php?id=10


 
 
j'ai les 97.28 pour l'"instant et rien a signaler

n°5213909
asmomo
Modérateur
Posté le 07-12-2006 à 14:43:07  profilanswer
 

rem_rem a écrit :

Pas d'accord !
Quand j'avais ma GX2, je suis passé d'un A64 3700+ @2.9 à un E6600 @3.3 et je n'ai eu aucun gain sous FEAR (en 1280*1024 AA 4X Aniso 8X).
Sur ma 8800 GTX, il y a un gain en overclockant sous FEAR.
 
Je ne sais pas exactement comment tout cela va fonctionner sous DX10. Et pas grand monde le sait d'ailleurs. C'est beaucoup de spéculations...
 
Mais une chose est sure, actuellement sur des jeux récents le facteur limitant est bien le GPU et absoluement pas le CPU. Et si ce n'est pas le cas, alors il suffit de monter en résolution et/ou filtres.
 
Edit : je viens de voir que tu parles d'un SLI de GTX. C'est quand même un cas un peu trop extrème non ? D'autant que dans ton cas le facteur limitant n'est pas le CPU mais l'écran.


 
FSX est bien CPU limited. Certes, c'est pas le cas de la majorité des jeux, mais c'est son cas à lui, et ils nous font le coup à chaque fois.
 
Au passage, c'est un peu balot que les jeux n'utilisent pas plus que ça le CPU, quand on voit que toutes les config' de supermarché ont un CPU dernier cri couplé à une CG moisie. Autrement dit, 95% des joueurs ont un gros CPU, alors autant s'en servir.

n°5213911
Profil sup​primé
Posté le 07-12-2006 à 14:43:42  answer
 

effectivement jai dit une bétise.
j'ai oublié de preciser que l'on parle de cartes optimisées DX10 !
elles ne seront pas surchagées par le fait que le CPU se dechargera de ses calculs sur elles car elles sont faites pour recevoir cette charge que sous DX9 elles n'ont pas.
 
cest un peu bete de vouloir comparer des jeux recents (certes) mais DX9.
 
pour un jeu comme Ovlivion, si il gardait les memes caracteristiques graphiques (shaders, nbr de polygones, tailles des textures) mais programmé sous DX10 on gagnerait en FPS avec une carte DX10, et dans ce cas la question de l'ecran ne se posera plus


Message édité par Profil supprimé le 07-12-2006 à 14:46:54
n°5213916
asmomo
Modérateur
Posté le 07-12-2006 à 14:45:38  profilanswer
 

rem_rem a écrit :

C'est ce qu'on répéte souvent sur ce post. Le couple CPU/GPU n'est pas très imporant. C'est le couple GPU/écran qui importe. Et DX10 n'y changera rien.
Que des cycles CPU soient économisés sous DX10 j'espère bien. Mais que du calcul soit déporté du CPU vers le GPU qui est déjà le facteur limitant, non merci. Sinon il faudrait un SLI pour faire fonctionner les jeux sous DX10.:)


 
Non ce n'est pas ce qu'on répète d'habitude, parce qu'on parle de cas où le CPU "limite" à 100 ou 150 fps. Lui il parle de 30fps, moi à FSX c'est plutôt 3fps (oui oui).

n°5213921
rem_rem
Posté le 07-12-2006 à 14:48:29  profilanswer
 

asmomo a écrit :

FSX est bien CPU limited. Certes, c'est pas le cas de la majorité des jeux, mais c'est son cas à lui, et ils nous font le coup à chaque fois.
 


Je n'ai jamais dis le contraire, d'autant que je ne parle pas de FSX.

n°5213923
rem_rem
Posté le 07-12-2006 à 14:49:26  profilanswer
 

asmomo a écrit :

Non ce n'est pas ce qu'on répète d'habitude, parce qu'on parle de cas où le CPU "limite" à 100 ou 150 fps. Lui il parle de 30fps, moi à FSX c'est plutôt 3fps (oui oui).


Et alors, le couple GPU/ecran n'est pas plus important que CPU/GPU ?

n°5213931
mayo_le_bo​urdon
Posté le 07-12-2006 à 14:53:56  profilanswer
 

asmomo a écrit :

Non ce n'est pas ce qu'on répète d'habitude, parce qu'on parle de cas où le CPU "limite" à 100 ou 150 fps. Lui il parle de 30fps, moi à FSX c'est plutôt 3fps (oui oui).


 
stun peu un retour au source quoi  :jap:  
FS3 sur XT 8088 , EGA , 5fps toussa  :whistle:

n°5213960
Profil sup​primé
Posté le 07-12-2006 à 15:21:31  answer
 

rem_rem a écrit :

Et alors, le couple GPU/ecran n'est pas plus important que CPU/GPU ?


 
dans le cas d'Asmomo ou dans le mien certainement pas, cest bien une question de CPU.

n°5213994
asmomo
Modérateur
Posté le 07-12-2006 à 15:41:40  profilanswer
 

rem_rem a écrit :

Et alors, le couple GPU/ecran n'est pas plus important que CPU/GPU ?


 
Pas pour FSX, non. D'ailleurs j'ai pas de 8800GTX mais une 7900GT 512Mo, et ce n'est pas elle qui limite, cf par exemple là :
 
http://www.hardware.fr/articles/64 [...] -core.html
 
Ils sont en moyen haut, tout par défaut. En fait, la plupart des curseurs sont en bas si on laisse ces réglages basiques. Si on y va à la main, on peut multiplier tout par 4 ou 5 (nombre de bâtiments, d'avions, de bateaux, d'élévations, d'arbres, distance de vue, etc.), et là c'est du 3fps, uniquement à cause du CPU. J'ai fait ça, puis je suis allé à Wallis & Futuna (où il n'y a ni bâtiments, ni voitures, ni avions à afficher, juste des arbres et de l'eau), en 1024*768 je suis à 10-15fps, c'est à peu près jouable, en 1600*1200 AA4X je suis toujours à 10-15fps.

n°5213997
olakeen
Posté le 07-12-2006 à 15:44:35  profilanswer
 

Citation :


En plus là ou mon crossfire X1900 XTX me donnait 280 fps au video stress test, je suis à 88 avec ma 8800 GTX !!!!  :pt1cable:  :pt1cable:  :pt1cable:  
 
 :cry:  :cry:  :cry:  
 


 
 
UP
 
 
 :sarcastic:  
 
 
Mes deux 7800gt (sli) font 95Fps dans le test en 1600x1200 x4 x8
 
 
Il est vrai que jai vu sur certain site des ATI qui faisait 200Fps dans cette resolution .
 
 
Driver Nvidia pourri ??  :??:

Message cité 1 fois
Message édité par olakeen le 07-12-2006 à 15:45:24
n°5214006
Nitro68
Posté le 07-12-2006 à 15:47:35  profilanswer
 

Bonjour tout le monde !
 
Je suis en train de reflechir à mon changement de conf (actuellement j'ai un barton 2500+@3200+ / 1 go DDR / X800 Pro@XT) mais bon c'est assez violent donc je souhaiterai économiser sur le boitier. J'ai actuellement un Super lanboy qui est un boitié assez petit. J'ai donc entendu parler du soucis de taille de la 8800 GTX.
 
Je pense partir sur un truc genre :
- Seasonic energy+ 550W (ou 500HT à voir)
- P5B Deluxe
- 2*1Go de DDRII 6400
- 8800 (GTS ou GTX)
 
Est-ce que vous pensez que ça rentre dans un super lanboy ? Les 27 cm de longueurs sont le point embetant ou la profondeur est importante également ? Parce qu'en gros j'ai vu des photos ou la 8800 GTX est aussi large que la CM, donc je vois pas en quoi ça serait trop grand.
 
Par contre la CM m'inquiète aussi, justement car y'a des composants quand même là où l'arrière de la 8800GTX arrive (enfin avec les photos difficile d'évaluer la hauteur)...
 
Et pour finir la 8800GTS est bien plus petite ?
 
Voilà merci d'avance pour vos réponses :)

n°5214015
cyberfred
Posté le 07-12-2006 à 15:51:27  profilanswer
 

le probleme de fsx c'est quand plus de bouffer du cpu , il n'est pas optimisé multicore ce qui est plutot embetant. la seule solution pour le moment est d'o/c assez haut son C2D et encore même à 3.8 Ghz c'est pas encore çà qd on se met en ultra high :(

n°5214025
Profil sup​primé
Posté le 07-12-2006 à 15:56:44  answer
 

salut
 
Une 8800GTS peut elle rentrer dans un Textorm 974MB?
Merci

n°5214037
kikou
Oui, j'ai un pseudo de merde:/
Posté le 07-12-2006 à 16:00:56  profilanswer
 

asmomo a écrit :

FSX est bien CPU limited. Certes, c'est pas le cas de la majorité des jeux, mais c'est son cas à lui, et ils nous font le coup à chaque fois.
 
Au passage, c'est un peu balot que les jeux n'utilisent pas plus que ça le CPU, quand on voit que toutes les config' de supermarché ont un CPU dernier cri couplé à une CG moisie. Autrement dit, 95% des joueurs ont un gros CPU, alors autant s'en servir.


un CPU dernier cri avec tout le reste de moisi je dirai : écran y compris (généralement du bon TN à 25 ms)


---------------
Mes Ventes - Battletag : Sove#2123
n°5214045
Profil sup​primé
Posté le 07-12-2006 à 16:08:48  answer
 

ou alors tu peux acheter une config tte faite cher Alienware les yeux fermés (koi ke le prix est de 30% plus cher que si tu la montais toi meme)
 
ou encore mieux y a ça : http://www.ldlc.com/fiche/PB00045768.html
mais à ce prix là ils auraient au moins pût mettre un quadcore !!

n°5214051
alanou
HFR certified
Posté le 07-12-2006 à 16:10:35  profilanswer
 

la_lootre a écrit :

j'ai les 97.28 pour l'"instant et rien a signaler


 
 
 
les 97.28 sont buggués et limitent la RAM de la CG à 400 MHz, on l'a écrit plus haut dans le topic ;)

n°5214070
New-Cocovi​tsch
Best by Test
Posté le 07-12-2006 à 16:25:51  profilanswer
 


 
Ils auraient pu surtout mettre un écran 30 pouces car quel interet de foutre un SLI de 8800 GTX avec un simple 22 pouces en 1680 sur 1050...
Sans compter le nombre totalement inutile de disques durs...Quel besoin aurait un gamer de stocker des tera-octets de données en interne...
Par ailleurs, le boitier est immonde...enfin,bref,n'importe quoi...

n°5214077
Profil sup​primé
Posté le 07-12-2006 à 16:29:34  answer
 

pour l'ecran je sais pas, on verra si on pourra jouer à Crysis avec les details à fond en 1024*768 ce serai dejà bien ;)
les DD quand tu vois que rien que Vista peux bouffer 9giga et certains jeux plusieurs giga aussi !
par contre le boitier est moche effectivement mais cest chacun ses gouts.
 
je reproche plus le quadcore et un bon watercooling à cette machine

n°5214099
kikou
Oui, j'ai un pseudo de merde:/
Posté le 07-12-2006 à 16:40:25  profilanswer
 


beurk en interpollé, ca risque d'être trés moche  :o

n°5214104
Profil sup​primé
Posté le 07-12-2006 à 16:42:50  answer
 

hélas je craint que l'on puisse aller dans des résolutions très hautes sur ce jeu même avec un sli de gtx :(

n°5214108
cyberfred
Posté le 07-12-2006 à 16:47:19  profilanswer
 


lol dis pas ca à ceux qui achetent la config ldlc à 7500€ :lol: (ok doit pas y en avoir bcp!) mais ca me ferait mal aux fesses de payer une telle conf et de me retrouver 3 mois plus tard avec un jeu dx10 qui rame en haute résolution.


Message édité par cyberfred le 07-12-2006 à 16:49:02
n°5214111
kikou
Oui, j'ai un pseudo de merde:/
Posté le 07-12-2006 à 16:49:05  profilanswer
 


la GTX a quand même pas mal de puissance sous le capot (100% de perf en plus que la X1950XTX qui était le top avant la GTX). Je pense qu'elle est sous exploité même au vu des résultats des benchs. Rajoute à ça l'optimisation des pilotes à faire et t'obtiendra jusqu'a 20% de perf en plus.
En faisant qques concession crysis tournera sur la 8800 sans trop de probléme.


---------------
Mes Ventes - Battletag : Sove#2123
n°5214121
cyberfred
Posté le 07-12-2006 à 16:54:24  profilanswer
 

kikou a écrit :

la GTX a quand même pas mal de puissance sous le capot (100% de perf en plus que la X1950XTX qui était le top avant la GTX). Je pense qu'elle est sous exploité même au vu des résultats des benchs. Rajoute à ça l'optimisation des pilotes à faire et t'obtiendra jusqu'a 20% de perf en plus.
En faisant qques concession crysis tournera sur la 8800 sans trop de probléme.


 
j'ose esperer qd meme qu'on pourra jouer à crysis en full details au moins en 1600. Car crysis en met plein la vue et si c'est pour baisser le niveau de détails c'est pas la peine. Car sur les videos que l'on a pu voir pour le moment ca tourne plutot pas mal.
Apres sur des resolutions plus hautes , je sais pas.

Message cité 1 fois
Message édité par cyberfred le 07-12-2006 à 17:01:00
n°5214146
alanou
HFR certified
Posté le 07-12-2006 à 17:10:05  profilanswer
 

cyberfred a écrit :

j'ose esperer qd meme qu'on pourra jouer à crysis en full details au moins en 1600. Car crysis en met plein la vue et si c'est pour baisser le niveau de détails c'est pas la peine. Car sur les videos que l'on a pu voir pour le moment ca tourne plutot pas mal.
Apres sur des resolutions plus hautes , je sais pas.


 
 
moué sur les vidéos les mecs disaient aussi que ca tournait sur un "highly overclocked quad core CPU" et sur un SLI nvidia dont ils ont jamais voulu préciser le modèle, alors à mon avis c'était un SLI de 8800 hein  :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  189  190  191  ..  895  896  897  898  899  900

Aller à :
Ajouter une réponse
 

Sujets relatifs
Probleme artefact avec nvidia geforce 6800geforce 6600gt qui déconne(encore une..)
Carte Geforce 7600 GT : problème de busPoint Of View Nvidia GeForce 7800GTX 256 Mo GDDR3
Probleme Pilote Geforce MX 200Une GeForce et une Radeon... sur un meme PC ?!
[Topic Unique]Radeon X850XT / PEgros probleme Freeze Geforce 6800 GS
Plus de sujets relatifs à : [Topic Unique] GeForce 8800


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)