Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1083 connectés 

 


Ma carte vidéo... ce sera ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
 
 Page :   1  2  3
Auteur Sujet :

HD2900xt, 8800GT(?) ou attendre la HD2950 annoncée pour aout/sept ?

n°5543483
amdvsintel
Posté le 22-05-2007 à 23:21:34  profilanswer
 

Reprise du message précédent :
 
 
 
Waaa pas cher :ouch:
 
Lien ?
 
EDIT : http://www.alternate.de/html/shop/ [...] aseId=9700


Message édité par amdvsintel le 22-05-2007 à 23:33:53
mood
Publicité
Posté le 22-05-2007 à 23:21:34  profilanswer
 

n°5543486
MacIntoc
tu lis une phrase formidable.
Posté le 22-05-2007 à 23:22:32  profilanswer
 

Ash_95>Les perfs en AA sont soit un parie d'ATI soit un bug dans les ROPs chargés du filtrage. Donc pour l'instant, vu qu'il y a encore aucun jeu qui ne gère l'AA via les shader, ATI est obligé de programmer les filtres pour chacun des jeux. Si les développeur sont satisfait de la demo d'ATI, ils fairont leurs propres filtres et ATI n'aura plus besoin d'optimiser ses drivers (et nVidia devra suivre).
 
Actuellement, on peut pas dire que la GTS c'est jouer la sécurité. Si on s'en tient aux jeux Dx9, oui, c'est entièrement vrai. Si on parle de Dx10 avec du GS intensif, c'est quasi sur que ce sera un bide digne des NV30 si le problème de registre se confirme. En revanche, le R600 pourra alors tirer son épingle du jeu.

n°5543504
mac fly
Posté le 22-05-2007 à 23:28:34  profilanswer
 

MacIntoc a écrit :

Oui, le moteur a été racheté par Epic et le développeur principale est passé chef de projet sur l'Unreal Engine 3 :(
 
Sur ta 8800, ça aurait donné strictement la même chose mais à plus de 300fps. Et l'Unreal Engine 3 a même pas profité de la fluidité du Reality Engine, à première vue :(
 
yalouf>+1
 
MacFly & Markus2>Pour une fois qu'Ema Nymton ne dit pas que des conneries... Tous ce que vous auriez pu lui reprocher, c'est que la GTX ne faira probablement pas mieux tourner un jeux Dx10 qu'une XT ou une GTS


Ouai enfin, il y a quand meme bcp trop de troll dans ses commentaires d'une manière générale.
 
La chose que je vois pour l'instant c'est que les qques démos dx10 Nvidia ou le jeux lost planete... qui existent ne sont pas spécialement mises en difficulté sur le modèle GTS comparé à la GTX.Dire que la GTS 320/640 ne suffira pas pour DX10 je persiste à dire que ça revient aussi à affirmer que la GTX ne suffira pas pour les jeux DX10.... bref du grand n'importe quoi tout ça  :pt1cable:  
Autant on sait que c'est tjrs les secondes générations qui dépoteront sur dx10, mais aller affirmer que la GTS n'est pas une carte DX 10 j'appelle ça du troll pure et dur, et faut pas avoir fait math supp pour comprendre ça ;) -> je reprend la citation: "n'importe qui de sérieux/de bon sens, dirait la meme chose  :whistle:  "

n°5543520
MacIntoc
tu lis une phrase formidable.
Posté le 22-05-2007 à 23:37:04  profilanswer
 

mac fly a écrit :

Ouai enfin, il y a quand meme bcp trop de troll dans ses commentaires d'une manière générale.
 
La chose que je vois pour l'instant c'est que les qques démos dx10 Nvidia ou le jeux lost planete... qui existent ne sont pas spécialement mises en difficulté sur le modèle GTS comparé à la GTX.Dire que la GTS 320/640 ne suffira pas pour DX10 je persiste à dire que ça revient aussi à affirmer que la GTX ne suffira pas pour les jeux DX10.... bref du grand n'importe quoi tout ça  :pt1cable:  
Autant on sait que c'est tjrs les secondes générations qui dépoteront sur dx10, mais aller affirmer que la GTS n'est pas une carte DX 10 j'appelle ça du troll pure et dur, et faut pas avoir fait math supp pour comprendre ça ;) -> je reprend la citation: "n'importe qui de sérieux/de bon sens, dirait la meme chose  :whistle:  "


Pas beaucoup de GS dans les jeux Dx10 actuels.
 
La GTX dispose d'une puissance de calcul plus importante. Néanmoins, cette puissance ne servira à rien si le G80 se trouve effectivement limité par son manque de registre vu qu'il lui faudra désactiver des SP pour ne pas saturer. Et cette saturation arrivera d'autant plus tard qu'il y a moins de SP.
 
En attendant, il n'y a que toi qui affirme ça, pour l'instant. Personne n'a dis que le G80 n'était pas capable de lancer un programme écrit avec Dx10.


Message édité par MacIntoc le 22-05-2007 à 23:40:20
n°5543527
mac fly
Posté le 22-05-2007 à 23:41:01  profilanswer
 

Tu joues sur les mots et tu traduits à ta sauce qque chose qui n'a rien à voir avec ce que je t'explique... j'ai pas dit que qqu'un avait affirmé que le G80 ne lançait pas du code dx10  :pt1cable: , j'ai dit que à partir du moment ou on raconte que la GTS est incapable de faire tourner correctement des jeux DX10, la GTX ne fera pas de miracle.Raconter que la GTS en particulier, n'a pas la puissance adaptée à DX10 est "bidon"  :hello:  
Et ça on le voit déja en pratique avec les démos dx10 de chez Nvidia (il y en a plein pour faire mumuse)  :hello: .On n'a pas une différence encore plus grande que dx9 parce qu'on a une GTX...  :heink:

Message cité 1 fois
Message édité par mac fly le 22-05-2007 à 23:45:55
n°5543806
MacIntoc
tu lis une phrase formidable.
Posté le 23-05-2007 à 09:53:58  profilanswer
 

mac fly a écrit :

Tu joues sur les mots et tu traduits à ta sauce qque chose qui n'a rien à voir avec ce que je t'explique... j'ai pas dit que qqu'un avait affirmé que le G80 ne lançait pas du code dx10  :pt1cable:


Dire qu'une carte n'est pas Dx10, c'est dire qu'une carte n'est pas capable de faire tourner un code Dx10. Les G7x ne sont pas des puces Dx10, les R5x0 ne sont pas des puces Dx10. Hors, dans ton post, c'est exactement ce que tu as dis que quelqu'un avait écrit à propos du G80. Donc choisis bien les termes que tu utilises dans tes posts pour éviter ce genre d'incompréhension.
 

Citation :

, j'ai dit que à partir du moment ou on raconte que la GTS est incapable de faire tourner correctement des jeux DX10, la GTX ne fera pas de miracle.


En effet, c'est ce que je soulignais avec mon paragraphe bleu. Tant que la saturation des registres n'est pas atteinte, la GTX sera plus perfs que la GTS. Une fois la saturation atteinte, la GTX devrait baisser jusqu'à suivre la progressions des GTS. Donc avec une utilisation intensive des GS, la GTX ne devrait pas être plus perf qu'une GTS.
 

Citation :

Raconter que la GTS en particulier, n'a pas la puissance adaptée à DX10 est "bidon"  :hello:


Bah... la puissance, elle l'a sans doute. L'archi pour exploiter pleinement les GS, d'après les premières conclusions d'HFR, elle l'a pas [:spamafote]
 

Citation :

Et ça on le voit déja en pratique avec les démos dx10 de chez Nvidia (il y en a plein pour faire mumuse)  :hello: .On n'a pas une différence encore plus grande que dx9 parce qu'on a une GTX...  :heink:


Oui, oui... on pouvait aussi s'extasier sur les demos Dx9 que faisait tourner le NV30 :whistle:

Message cité 1 fois
Message édité par MacIntoc le 23-05-2007 à 09:55:22
n°5543846
ema nymton
Posté le 23-05-2007 à 10:28:32  profilanswer
 

Ceux qui parlent de Lost Planet comme un exemple d'un vrai jeu dx10... ok super...
Ce jeu a été developpé avec l'architecture dx9 en vue, et les quelques effets en plus par ci par là sur la version dx10 me font plus penser au cas GRAW + carte PhysX, une histoire de gros sous destinée à mettre en avant le partenaire (ici Nvidia, labas Ageia) plus que des contraintes techniques.
 
Alors oui, sur les 8800 Lost Planet tourne (très) bien... comme tous les jeux dx9.

n°5543851
MacIntoc
tu lis une phrase formidable.
Posté le 23-05-2007 à 10:31:03  profilanswer
 

+1

n°5543865
mac fly
Posté le 23-05-2007 à 10:43:16  profilanswer
 

MacIntoc a écrit :

Dire qu'une carte n'est pas Dx10, c'est dire qu'une carte n'est pas capable de faire tourner un code Dx10. Les G7x ne sont pas des puces Dx10, les R5x0 ne sont pas des puces Dx10. Hors, dans ton post, c'est exactement ce que tu as dis que quelqu'un avait écrit à propos du G80. Donc choisis bien les termes que tu utilises dans tes posts pour éviter ce genre d'incompréhension.
 
 
En effet, c'est ce que je soulignais avec mon paragraphe bleu. Tant que la saturation des registres n'est pas atteinte, la GTX sera plus perfs que la GTS. Une fois la saturation atteinte, la GTX devrait baisser jusqu'à suivre la progressions des GTS. Donc avec une utilisation intensive des GS, la GTX ne devrait pas être plus perf qu'une GTS.
 
 
Bah... la puissance, elle l'a sans doute. L'archi pour exploiter pleinement les GS, d'après les premières conclusions d'HFR, elle l'a pas [:spamafote]
 
 
Oui, oui... on pouvait aussi s'extasier sur les demos Dx9 que faisait tourner le NV30 :whistle:

.
C'est bien ce que je dis, tu joues sur les mots  :pt1cable: ... tu me prends pour un noobs  :pt1cable:  (tu aurais regardé mon profil tu aurais remarqué que j'ai une GTS, je vois pas comment je pourrais dire que le G80 est incapable de faire tourner du code dx10  :pt1cable: ) evidemment que le G80 est une puce dx10, mais là n'était pas la question et le sens de ma réponse -> quand il est dit que le modèle particulier GTS n'a pas la puissance pour faire tourner correctement des applis dx10 et qu'il faut donc prendre la GTX, dsl je peux pas cautionner ça  :sweat:  
 
De meme quand je regarde ton post, tu me parles d'archi bridée de la GTS qui fait qu'elle va donc s'écrouler sous DX10 plus rapidement que la GTX -> moi je te réponds: as tu fais mumuse avec des GTS et GTX avant d'affirmer ça ? car il y a largement de quoi tester avec ttes les démos Nvidia purement dx10 qui mettent à mal les G80, et on s'aperçoit que l'écart GTS/GTX n'est pas revu à la hausse par rapport à ce que l'on observait déja sous DX9
 
Bref tout ceci est du bon sens, c'est tout

Message cité 1 fois
Message édité par mac fly le 23-05-2007 à 10:49:25
n°5543874
angelvip
Posté le 23-05-2007 à 10:51:11  profilanswer
 

Alors si on part du fait que Lost planet est un fake dx 10 qu' elle est le premier jeu véritablement dx 10 ?
Moi si je change de carte c' est pour profiter du dx 10 donc je dois pas bouger plusieur mois si je comprend bien en attendant la new génération de cg  :??:

mood
Publicité
Posté le 23-05-2007 à 10:51:11  profilanswer
 

n°5543881
ema nymton
Posté le 23-05-2007 à 10:58:10  profilanswer
 

C'est pas plus mal alors, ça simplifie encore plus le choix : attendre avec son ancienne CG ou bien prendre une carte (ATI) à ~150-190 euros et attendre aussi.
 
Car donc GTS et GTX c'est kif kif au niveau performances selon toi.

n°5543908
mac fly
Posté le 23-05-2007 à 11:14:38  profilanswer
 

ema nymton a écrit :

C'est pas plus mal alors, ça simplifie encore plus le choix : attendre avec son ancienne CG ou bien prendre une carte (ATI) à ~150-190 euros et attendre aussi.
 
Car donc GTS et GTX c'est kif kif au niveau performances selon toi.


Pas selon moi, ce sont des cartes de meme génération -> à partir du moment ou la GTS ne pourra pas faire tourner un jeux DX10 convenablement, la GTX sera logée à la meme enseigne -par ex 10 fps ou 13fps ça change rien du tout le jeux reste injouable dans les 2cas- (et ça on le voit déja sur ttes les démos pures et dures DX10 de Nvidia, il y en a plein, les liens ont été donnés un peu partout dans les topics ) -> ça a toujours été comme ça dans une meme génération de gpu , c'est juste une question de bon sens ;)
 
On n'achète pas une GTX au lieu d'une GTS "pour DX10", on achète une GTX car c'est le must dans l'absolu et qu'on veut se faire plaisir, mais pour les jeux costauds dx10 elle ne fera pas plus long feu que les GTS car elles seront ttes les 2 larguées par les ~G90 ou autre...


Message édité par mac fly le 23-05-2007 à 11:23:53
n°5543950
ema nymton
Posté le 23-05-2007 à 11:33:19  profilanswer
 

Je sais pas mais une GTX est plus de 40% plus perf qu'une GTS.
40% c'est tout sauf negligeable.
Après c'est sur que si tu me sors l'exemple des 10fps... supair... Un jeu a 10 fps ne sera fluide que dans 3 ans et pas juste à la prochaine generation de CG...
 
Moi je vois plutot du 30-40 fps pas jouable sur une GTS face a du 50-60 fps très confortable sur une GTX.

n°5543955
mac fly
Posté le 23-05-2007 à 11:35:33  profilanswer
 

ema nymton a écrit :

Je sais pas mais une GTX est plus de 40% plus perf qu'une GTS.
40% c'est tout sauf negligeable.
Après c'est sur que si tu me sors l'exemple des 10fps... supair... Un jeu a 10 fps ne sera fluide que dans 3 ans et pas juste à la prochaine generation de CG...
 
Moi je vois plutot du 30-40 fps pas jouable sur une GTS face a du 50-60 fps très confortable sur une GTX.


Il n'y a pas 40% de différence gts/gtx  :lol: ... il y a en moyenne de l'ordre de ~25% -> c'ets pas négligeable mais ça reste insuffisant pour rendre un jeux injouable jouable -> tu prends une 7900gs et une 7900gt, si un jeux n'est pas exploitable sur 7900gs il ne sera pas sauvé sur la 7900gt, il faudra alors tapper dans du G80  ;) .Et c'est valable sur ttes les générations de carte qu'on a pu voir jusque là


Message édité par mac fly le 23-05-2007 à 11:38:49
n°5543958
god is dea​d
Demain, j'arrête de poster.
Posté le 23-05-2007 à 11:37:34  profilanswer
 

http://img217.imageshack.us/img217/4726/img0019937pz3.gif
 
 
25% ? :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5543970
ema nymton
Posté le 23-05-2007 à 11:43:40  profilanswer
 

En effet, pour les plus de 40% j'ai maté le mauvais graphe :D
La réalité est entre 32% et 38% de perfs en plus pour la GTX... et entre 71% et 80%  de plus pour la GTX face à une GTS 320Mo
 
Une paille quoi.

n°5543975
mac fly
Posté le 23-05-2007 à 11:45:42  profilanswer
 


Ca fait du ~33% que l'on confirme aussi ici -> http://www.hardware.fr/articles/66 [...] ultra.html
 
Et d'après toi c'est suffisant pour qu'un jeux injouable sur GTS le soit sur GTX ?  :whistle:

n°5543986
ema nymton
Posté le 23-05-2007 à 11:51:19  profilanswer
 

Deja ton chiffre est un minimum, en haute résolution on approche les 40% (et je ne parle meme pas de la GTS 320Mo) et enfin oui c'est un bel écart qui fait qu'avec la GTX on pourra bien plus décaler son renouvellement.
 
Donc je maintiens ma conclusion : si on a 300-400e ou moins à consacrer à une CG aujourd'hui, il est urgent d'attendre, quitte à prendre une carte entrée de gamme (ATI) à 150+ euros.
Si on a de quoi se payer une GTX, poruquoi pas alors, les 40% de perf en plus vallent le coup.

Message cité 1 fois
Message édité par ema nymton le 23-05-2007 à 11:54:41
n°5543995
ema nymton
Posté le 23-05-2007 à 11:54:32  profilanswer
 

Donc je maintiens ma conclusion : si on a 300-400e ou moins à consacrer à une CG aujourd'hui, il est urgent d'attendre, quitte à prendre une carte entrée de gamme (ATI) à 150+ euros.
Si on a de quoi se payer une GTX, poruquoi pas alors, les 40% de perf en plus vallent le coup.

n°5544010
MacIntoc
tu lis une phrase formidable.
Posté le 23-05-2007 à 12:02:50  profilanswer
 

mac fly a écrit :

.
C'est bien ce que je dis, tu joues sur les mots  :pt1cable: ... tu me prends pour un noobs  :pt1cable:  (tu aurais regardé mon profil tu aurais remarqué que j'ai une GTS, je vois pas comment je pourrais dire que le G80 est incapable de faire tourner du code dx10  :pt1cable: ) evidemment que le G80 est une puce dx10, mais là n'était pas la question et le sens de ma réponse -> quand il est dit que le modèle particulier GTS n'a pas la puissance pour faire tourner correctement des applis dx10 et qu'il faut donc prendre la GTX, dsl je peux pas cautionner ça  :sweat:  


J'ai jamais écrit que tu avais dis ça. J'ai dis que tu avais dis que quelqu'un avait écrit ça. Tu lis les posts, ça y a pas de doute. Mais est-ce que tu les comprends ?
 

Citation :

De meme quand je regarde ton post, tu me parles d'archi bridée de la GTS qui fait qu'elle va donc s'écrouler sous DX10 plus rapidement que la GTX -> moi je te réponds: as tu fais mumuse avec des GTS et GTX avant d'affirmer ça ? car il y a largement de quoi tester avec ttes les démos Nvidia purement dx10 qui mettent à mal les G80, et on s'aperçoit que l'écart GTS/GTX n'est pas revu à la hausse par rapport à ce que l'on observait déja sous DX9


J'ai précisément dit le contraire...
 

ema nymton a écrit :

Si on a de quoi se payer une GTX, poruquoi pas alors, les 40% de perf en plus vallent le coup.


Seulement si l'on s'en tient à Dx9.

Message cité 1 fois
Message édité par MacIntoc le 23-05-2007 à 12:09:59
n°5544017
mac fly
Posté le 23-05-2007 à 12:07:09  profilanswer
 

MacIntoc a écrit :

J'ai jamais écrit que tu avais dis ça. J'ai dis que tu avais dis que quelqu'un avait écrit ça. Tu lis les posts, ça y a pas de doute. Mais est-ce que tu les comprends ?
 
 
J'ai précisément dit le contraire...
 
 
Seulement si l'on s'en tient à Dx9.


Bon ben alors on s'est mal compri pour en arriver aux memes conclusions au final  :D

n°5544023
mac fly
Posté le 23-05-2007 à 12:11:43  profilanswer
 

ema nymton a écrit :

Deja ton chiffre est un minimum, en haute résolution on approche les 40% (et je ne parle meme pas de la GTS 320Mo) et enfin oui c'est un bel écart qui fait qu'avec la GTX on pourra bien plus décaler son renouvellement.
 
Donc je maintiens ma conclusion : si on a 300-400e ou moins à consacrer à une CG aujourd'hui, il est urgent d'attendre, quitte à prendre une carte entrée de gamme (ATI) à 150+ euros.
Si on a de quoi se payer une GTX, poruquoi pas alors, les 40% de perf en plus vallent le coup.


Encore heureux ! , la GTS 320 n'a pas pour vocation d'etre utilisée dans des résolutions de folies  :D (se baser sur des benchs "tt à fond" dans des résos de folie pour en conclure que la GTS 320mo est x% moins rapide que la GTX entre nous ça n'a aucun interet )... dans des résos max de 1600*1200 et dans qques rares cas en jouant avec l'AA/le niveau de détail pour ne pas saturer la ram, elle est aussi rapide que la GTS 640mo.C'est ça son interet et c'est uniquement pour ça que je me suis penché sur ce modèle.Vu mes habitudes de jeux et ma résolution qui ne dépasse jamais 1600*1200 cette carte répond exactement à mes exigences.Maintenant il est vrai qu'on trouve par ci par là des prix cassés sur la GTS 640mo... et sinon la 2900xt me semble aussi un choix parfaitement cohérent.

Message cité 1 fois
Message édité par mac fly le 23-05-2007 à 12:14:34
n°5544029
ema nymton
Posté le 23-05-2007 à 12:15:16  profilanswer
 

Bah, j'espere bien (pour Nvidia, et pour les acheteurs ayant raqué 600e) que l'ecart de 40% sera maintenu sous dx10 (et que les GTS ne fassent pas un zero pointé)
Si ce n'est même pas le cas, alors je crois qu'il n'y a rien a tirer du G80, comme les  fois precedentes d'ailleurs.
 
Mais bon, de toute façon le gens qui mettent 600e dans une bonne GC selon moi c'est à peine mieux que ceux qui balancent 350e dans une GTS morte d'avance.

n°5544034
ema nymton
Posté le 23-05-2007 à 12:17:12  profilanswer
 

mac fly a écrit :

Encore heureux ! , la GTS 320 n'a pas pour vocation d'etre utilisée dans des résolutions de folies  :D (se baser sur des benchs "tt à fond" dans des résos de folie pour en conclure que la GTS 320mo est x% moins rapide que la GTX entre nous ça n'a aucun interet )... dans des résos max de 1600*1200 et dans qques rares cas en jouant avec l'AA/le niveau de détail pour ne pas saturer la ram, elle est aussi rapide que la GTS 640mo.C'est ça son interet et c'est uniquement pour ça que je me suis penché sur ce modèle.Vu mes habitudes de jeux et ma résolution qui ne dépasse jamais 1600*1200 cette carte répond exactement à mes exigences.Maintenant il est vrai qu'on trouve par ci par là des prix cassés sur la GTS 640mo... et sinon la 2900xt me semble aussi un choix parfaitement cohérent.


Et donc, avec toutes ces tares, la GTS 320Mo te parait bien orientée vers le futur ?
 
Ici l'auteur du topic veut une carte qui dure, moi aussi d'ailleurs.


Message édité par ema nymton le 23-05-2007 à 12:19:54
n°5544035
MacIntoc
tu lis une phrase formidable.
Posté le 23-05-2007 à 12:18:31  profilanswer
 

mac fly>N'oublis tout de même pas que les demos de nVidia sont la pour mettre en avant les perfs du G80. Tu imagine bien qu'ils ont soigneusement fait attention à ne pas le mettre a genoux, hein ?

 
ema nymton a écrit :

Bah, j'espere bien (pour Nvidia, et pour les acheteurs ayant raqué 600e) que l'ecart de 40% sera maintenu sous dx10 (et que les GTS ne fassent pas un zero pointé)
Si ce n'est même pas le cas, alors je crois qu'il n'y a rien a tirer du G80, comme les  fois precedentes d'ailleurs.

 

Mais bon, de toute façon le gens qui mettent 600e dans une bonne GC selon moi c'est à peine mieux que ceux qui balancent 350e dans une GTS morte d'avance.


Tant que les GS ne sont pas exploité, l'écart devrait rester.

Message cité 1 fois
Message édité par MacIntoc le 23-05-2007 à 12:24:46
n°5544045
sasuke87
Posté le 23-05-2007 à 12:21:42  profilanswer
 

ema nymton a écrit :

Bah, j'espere bien (pour Nvidia, et pour les acheteurs ayant raqué 600e) que l'ecart de 40% sera maintenu sous dx10 (et que les GTS ne fassent pas un zero pointé)
Si ce n'est même pas le cas, alors je crois qu'il n'y a rien a tirer du G80, comme les  fois precedentes d'ailleurs.
 
Mais bon, de toute façon le gens qui mettent 600e dans une bonne GC selon moi c'est à peine mieux que ceux qui balancent 350e dans une GTS morte d'avance.


 
ceux qui ont claqué 600€ dans une x1900xtx à l'époque peuvent être content de leur investissement  :D . Mais le hic c'est que un an plus tard on a les mêmes perfs pour moins de 190€ avec la x1950xt. Je me demande si nvidia va faire pareil avec son g90. Imaginez une carte aussi perf qu'une 8800GTX pour 200€ à noël  :love:  
 

n°5544046
mac fly
Posté le 23-05-2007 à 12:22:36  profilanswer
 

ema nymton a écrit :

Bah, j'espere bien (pour Nvidia, et pour les acheteurs ayant raqué 600e) que l'ecart de 40% sera maintenu sous dx10 (et que les GTS ne fassent pas un zero pointé)
Si ce n'est même pas le cas, alors je crois qu'il n'y a rien a tirer du G80, comme les  fois precedentes d'ailleurs.
 
Mais bon, de toute façon le gens qui mettent 600e dans une bonne GC selon moi c'est à peine mieux que ceux qui balancent 350e dans une GTS morte d'avance.


T'en as qui dépensent sans compter, t'en a qui achètent intelligemment en prenant des cartes parfaitement adaptées aux jeux du moment et dasn un futur proche.
Ceux qui achètent le très haut de gamme ne sont jamais récompensés car dès qu'une nvlle génération de puce à ~350€ sort, elle met déja une claque au haut de gamme acheté 600€ qques mois auparavant.  :D (une simple 8800 GTS 320mo retourne une 7900gtx... -> j'ai eu les 2 cartes et j'ai été surpris à l'époque de constater que la différence est bien flagrante )

n°5544050
ema nymton
Posté le 23-05-2007 à 12:23:37  profilanswer
 

@sasuke : Exact, le très haut de gamme très peu pour moi, et c'est exactement ce que j'ai ecrit. Les prix s'ecroulent tellement vite.


Message édité par ema nymton le 23-05-2007 à 12:25:12
n°5544052
mac fly
Posté le 23-05-2007 à 12:24:21  profilanswer
 

MacIntoc a écrit :

mac fly>N'oublis tout de même pas que les demos de nVidia sont la pour mettre en avant les perfs du G80. Tu imagine bien qu'ils ont soigneusement fait attention à ne pas le mettre a genoux, hein ?
 
 
Tant que les GS ne sont pas exploiter, l'écart devrait rester.


Heu ... tu les as lancé les démos dx10 de Nvidia ? parce que en pratique elles mettent à mal les G80 (GTS et GTX) et c'est le but des démos: pousser les cartes au max de ce qu'elles peuvent donner.Je vois pas ou tu veux en venir sur ce coup ?

n°5544066
ema nymton
Posté le 23-05-2007 à 12:31:20  profilanswer
 

mac fly a écrit :

Heu ... tu les as lancé les démos dx10 de Nvidia ? parce que en pratique elles mettent à mal les G80 (GTS et GTX) et c'est le but des démos: pousser les cartes au max de ce qu'elles peuvent donner.Je vois pas ou tu veux en venir sur ce coup ?


Ce que tu dis fait mechamment peur.
Ainsi, comme les fois precedentes (Geforce 5k, 6k, 7k, 7k), Nvidia aurait sorti des cartes bonnes juste pour le present (et donc le passé, au vu des vieux jeux utilisés dans les benches), mais qui vallent qued. pour le futur ? (a la diffecence de ATI soit dit en passant)

n°5544079
mac fly
Posté le 23-05-2007 à 12:39:58  profilanswer
 

ema nymton a écrit :

Ce que tu dis fait mechamment peur.
Ainsi, comme les fois precedentes (Geforce 5k, 6k, 7k, 7k), Nvidia aurait sorti des cartes bonnes juste pour le present (et donc le passé, au vu des vieux jeux utilisés dans les benches), mais qui vallent qued. pour le futur ? (a la diffecence de ATI soit dit en passant)


C'est la grande inconnue... on ne sait pas ce que ça donnera réellement dans les jeux full dx10.
Mais je suis confiant car Amd/Ati ne fait pas mieux, donc les jeux seront faits en fonction du matériel qui existe.
Là ou ca sera "chaud" c'est si dans qques mois les successeurs du G80 et R600 arrachent sous dx10... c'est pas bon signe pour TOUTES les cartes actuelles (meme si ça restera exploitable un moment encore)

Message cité 1 fois
Message édité par mac fly le 23-05-2007 à 12:45:37
n°5544089
MacIntoc
tu lis une phrase formidable.
Posté le 23-05-2007 à 12:45:28  profilanswer
 

mac fly>Une démo est la pour faire de la pub, point bar.
 

mac fly a écrit :

Mais je suis confiant car Amd/Ati ne fait pas mieux, donc les jeux seront faits en fonction du matériel qui existe.


Ce n'est pas ce que Phil Taylor semble dire [:spamafote]
Et ce n'est pas ce que les conclusion d'HFR laisse entendre non plus.

n°5544093
mac fly
Posté le 23-05-2007 à 12:47:34  profilanswer
 

MacIntoc a écrit :

mac fly>Une démo est la pour faire de la pub, point bar.
 
 
Ce n'est pas ce que Phil Taylor semble dire [:spamafote]
Et ce n'est pas ce que les conclusion d'HFR laisse entendre non plus.


Ce sont des hypothèses, le problème c'est que les qques démos et jeux dx10 qui sont du concret (lost planet, call of juarez) ne montrent clairement pas un avantage spécifique au R600 -> ce qui est domage c'est qu'il faudrait qques corrections de son archi et ça aurait pu etre un gpu qui aurait enterré d'entré de jeux la GTX...

Message cité 1 fois
Message édité par mac fly le 23-05-2007 à 12:50:15
n°5544100
mac fly
Posté le 23-05-2007 à 12:54:53  profilanswer
 

Les conclusions je ne les ai pas interprétées comme toi.Moi ce que j'ai compri dans tout ça c'est que le R600 est un monstre sur le papier.En revanche il y a de tte évidence des erreurs grossières dans son archi qui font qu'il n'arrive pas a donner ce qu'il aurait pu apporter.
Ca laisse clairement présager que les futures révisions du R600 seront effectivement des bombes.Mais en l'état actuel elles ne cassent pas la barraque sous dx9 et sous dx10 -meme si elles jouent leur role en se mettant au niveau du G80 (certains cas elles ont l'avantage et dans d'autre cas on se rend compte que l'archi du G80 a l'avantage... que cela soit sous dx9 ou dx10 d'ailleurs)

n°5544112
MacIntoc
tu lis une phrase formidable.
Posté le 23-05-2007 à 13:04:34  profilanswer
 

mac fly a écrit :

Ce sont des hypothèses, le problème c'est que les qques démos et jeux dx10 qui sont du concret (lost planet, call of juarez) ne montrent clairement pas un avantage spécifique au R600 -> ce qui est domage c'est qu'il faudrait qques corrections de son archi et ça aurait pu etre un gpu qui aurait enterré d'entré de jeux la GTX...


Je n'appelles pas du work in progress du concret, enfin, chacun ses références :sarcastic:
Et je considères les affirmations de Phil Taylor (il a travaillé sur les SDK de plusieurs Dx avant de travailler maintenant sur le développement de FSX) bien plus que des betas.

 
mac fly a écrit :

Les conclusions je ne les ai pas interprétées comme toi.Moi ce que j'ai compri dans tout ça c'est que le R600 est un monstre sur le papier.En revanche il y a de tte évidence des erreurs grossières dans son archi qui font qu'il n'arrive pas a donner ce qu'il aurait pu apporter.
Ca laisse clairement présager que les futures révisions du R600 seront effectivement des bombes.Mais en l'état actuel elles ne cassent pas la barraque sous dx9 et sous dx10 -meme si elles jouent leur role en se mettant au niveau du G80 (certains cas elles ont l'avantage et dans d'autre cas on se rend compte que l'archi du G80 a l'avantage... que cela soit sous dx9 ou dx10 d'ailleurs)


Ces différences de perfs sont principalement dû un choix d'ATI (ou bug dans les ROPs, on sait pas trop). Un partie de la puissance de calcul en shader est utiliser pour effectuer l'AA (au lieu d'être dédié aux ROPs, donc).

Message cité 1 fois
Message édité par MacIntoc le 23-05-2007 à 13:25:17
n°5544119
mac fly
Posté le 23-05-2007 à 13:09:05  profilanswer
 

MacIntoc a écrit :

Je n'appelles pas du work in progress du concret, enfin, chacun ses références :sarcastic:  
Et je considères les affirmations de Phil Taylor (il a travaillé sur les SDK de plusieurs Dx avant de travailler maintenant sur le développement de FSX) bien plus que des betas.


Ben oui mais tu donnes des conclusions qui ne sont pas celles qu'il a décrit et qui sont décrites dans HFR... le R600 n'explose pas la GTX sous dx10, qu'elle arrive à mieux se dépatouiller et dans certains cas jouer avec la 8800ultra est une chose, mais ça reste dans la zone de perf des gros G80, donc ça ne révolutionne absolument pas dx10 -> c'est ce que disent les développeurs de FSX dx10 qui ont fait mumuse avec cette carte... .Sa future révision le fera sans doute, et ça ça change tout car il faudra la comparer à la nvlle génération de Nvidia au moment voulut

Message cité 1 fois
Message édité par mac fly le 23-05-2007 à 13:25:39
n°5544120
sodesfeux
Posté le 23-05-2007 à 13:09:33  profilanswer
 

heuu dans mon cas, possesseur d'une tres bonne X850xt AGP, je vais bientot changer ma config et la je prendrai une 8800gtx, je suis un peu decu pas la nouvelle radeon.
 
maintenant il est clair que si j'avais eu une config pci express avec une 1900 ou 1950 xt ou xtx j'aurai attendu un bon moment avant de changer.
 
a bientot
olvier

n°5544246
Gigathlon
Quad-neurones natif
Posté le 23-05-2007 à 14:08:17  profilanswer
 

Je trouve dommage de taper dans la GTX, vu qu'on ne sait vraiment pas ce que vaudront réellement ces GPU sous DX10...
 
Contrairement à ce que certains (fanboys?) peuvent dire, les GS représenteront 25-50% de la charge de calculs ou ne seront pas utilisés, sauf que je vois mal M$ les imposer sans que personne ne les exploite.
 
Tu viens d'une x850xt donc quoi que tu prennes tu prendras une claque, y compris avec une 8800gts (320Mo pour le moment, bien que la 640Mo semble trouvable quasiment au même prix outre-Rhin).
 
GTS320 vs GTX: 220€ d'écart grosso modo, et sauf à avoir un écran 22" ou plus les 2 offriront le même service, la GTS te permettant par contre de conserver 220€ pour son remplacement dans ~1 an, quand les jeux DX10 commenceront à devenir la norme.

n°5544268
MacIntoc
tu lis une phrase formidable.
Posté le 23-05-2007 à 14:24:29  profilanswer
 

mac fly a écrit :

Ben oui mais tu donnes des conclusions qui ne sont pas celles qu'il a décrit et qui sont décrites dans HFR... le R600 n'explose pas la GTX sous dx10, qu'elle arrive à mieux se dépatouiller et dans certains cas jouer avec la 8800ultra est une chose, mais ça reste dans la zone de perf des gros G80, donc ça ne révolutionne absolument pas dx10 -> c'est ce que disent les développeurs de FSX dx10 qui ont fait mumuse avec cette carte... .Sa future révision le fera sans doute, et ça ça change tout car il faudra la comparer à la nvlle génération de Nvidia au moment voulut


Il a dit que les GS du R600 sont beaucoup plus efficaces que ceux du G80. Ca rejoins parfaitement les conclusions de HFR.
J'ai jamais dis que le R600 explosait le G80. J'ai dit que l'archi du G80 semble mal barré pour du GS intensif.
Comparer les perfs en PS et VS pour établir les perfs en GS n'a pas vraiment de sens compte tenus des architectures.
Ensuite, je ne vois comment tu veux établir une révolution dans un domaine qui n'existe pas encore ?

n°5544282
mac fly
Posté le 23-05-2007 à 14:35:04  profilanswer
 

Gigathlon a écrit :

Je trouve dommage de taper dans la GTX, vu qu'on ne sait vraiment pas ce que vaudront réellement ces GPU sous DX10...
 
Contrairement à ce que certains (fanboys?) peuvent dire, les GS représenteront 25-50% de la charge de calculs ou ne seront pas utilisés, sauf que je vois mal M$ les imposer sans que personne ne les exploite.
 
Tu viens d'une x850xt donc quoi que tu prennes tu prendras une claque, y compris avec une 8800gts (320Mo pour le moment, bien que la 640Mo semble trouvable quasiment au même prix outre-Rhin).
 
GTS320 vs GTX: 220€ d'écart grosso modo, et sauf à avoir un écran 22" ou plus les 2 offriront le même service, la GTS te permettant par contre de conserver 220€ pour son remplacement dans ~1 an, quand les jeux DX10 commenceront à devenir la norme.


 :jap:

n°5544309
Gigathlon
Quad-neurones natif
Posté le 23-05-2007 à 14:49:48  profilanswer
 

MacIntoc a écrit :

Comparer les perfs en PS et VS pour établir les perfs en GS n'a pas vraiment de sens compte tenus des architectures.


Pourtant on peut :o
 
Si on prend les tests de 3DMark:
 
- PS -> limités par le texturing (d'où la supériorité écrasante du G80)
- VS -> limités par le setup engine (d'où la supériorité du R600, égale au rapport de fréquence)
 
Les GS ne seront limités par aucun de ces 2 organes, par contre la gestion mémoire du R600 est nettement moins pénalisante que la limitation des unités de calcul du G80... (annoncé 50x par un bruit de couloir, et quelque part c'est bien possible si nVidia a vraiment merdé).
 
Maintenant, imaginons qu'un jeu passe grosso modo de 70% PS/VS + 30% texturing à 40% PS/VS + 40% GS + 20% texturing... Tu vois le couac s'il y a un rapport de 1:10 dans la vitesse d'exécution des GS? (1:50 étant logiquement un worst case scenario pour le G80, tout comme l'argument "le R600 il sait pas exécuter des shaders scalaires dépendants" avancé par nVidia... :sarcastic: )
 
Effet double:
1- réduction de l'impact du texturing sur les perfs de 33%
2- apparition d'un gros goulet d'étranglement sur le G80 (d'autant plus gros qu'il s'agira d'un G80 castré d'ailleurs, on s'en rend compte dans les démos du SDK DX10)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3

Aller à :
Ajouter une réponse
 

Sujets relatifs
Attendre ou pas ?Attendre ou changer
Attendre les 8600gt ou non ?Achat Core 2 duo, attendre la baisse du 22/04 ?
Baisse de prix? Attendre fin Avril?Attendre le nouveau chipset intel pour passer au core2dua?
config pour Aôût 2007 !Geforce 8800 GTS 320mo attendre ou pas fin mars?
Un SLI de 7800GT ça vaut le coup pour attendre ?Quelles performances à s'attendre pour DDR2 800 cas 6-6-6-12 ?
Plus de sujets relatifs à : HD2900xt, 8800GT(?) ou attendre la HD2950 annoncée pour aout/sept ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR