Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1388 connectés 

 


Ma carte vidéo... ce sera ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
 
 Page :   1  2  3
Page Suivante
Auteur Sujet :

HD2900xt, 8800GT(?) ou attendre la HD2950 annoncée pour aout/sept ?

n°5544309
Gigathlon
Quad-neurones natif
Posté le 23-05-2007 à 14:49:48  profilanswer
 

Reprise du message précédent :

MacIntoc a écrit :

Comparer les perfs en PS et VS pour établir les perfs en GS n'a pas vraiment de sens compte tenus des architectures.


Pourtant on peut :o
 
Si on prend les tests de 3DMark:
 
- PS -> limités par le texturing (d'où la supériorité écrasante du G80)
- VS -> limités par le setup engine (d'où la supériorité du R600, égale au rapport de fréquence)
 
Les GS ne seront limités par aucun de ces 2 organes, par contre la gestion mémoire du R600 est nettement moins pénalisante que la limitation des unités de calcul du G80... (annoncé 50x par un bruit de couloir, et quelque part c'est bien possible si nVidia a vraiment merdé).
 
Maintenant, imaginons qu'un jeu passe grosso modo de 70% PS/VS + 30% texturing à 40% PS/VS + 40% GS + 20% texturing... Tu vois le couac s'il y a un rapport de 1:10 dans la vitesse d'exécution des GS? (1:50 étant logiquement un worst case scenario pour le G80, tout comme l'argument "le R600 il sait pas exécuter des shaders scalaires dépendants" avancé par nVidia... :sarcastic: )
 
Effet double:
1- réduction de l'impact du texturing sur les perfs de 33%
2- apparition d'un gros goulet d'étranglement sur le G80 (d'autant plus gros qu'il s'agira d'un G80 castré d'ailleurs, on s'en rend compte dans les démos du SDK DX10)

mood
Publicité
Posté le 23-05-2007 à 14:49:48  profilanswer
 

n°5545463
MacIntoc
tu lis une phrase formidable.
Posté le 23-05-2007 à 23:22:22  profilanswer
 

Ho... une fois qu'on tient compte de l'architecture respective des deux puces, oui, il est relativement facile de se faire une idée des performances en GS de chacune des deux.
 
Ce que j'essayais de faire comprendre à mac fly, c'est que les deux jeux Dx10 dont on dispose et les quelques demo fournit par nVidia ne permettent absolument pas de se faire une idée des capacités réelles de ces deux puces dans un jeu qui exploite pleinement Dx10 (donc intensivement les GS).
 
En fait, j'aurais plutôt dû rédiger mon post ainsi :

Citation :

Comparer visuellement les perfs en PS et VS pour établir les perfs en GS n'a pas vraiment de sens actuellement si on ne tient pas compte des architectures de chacune des puces.

n°5545473
sapphire a​depte xd
Online : bisondacier
Posté le 23-05-2007 à 23:29:28  profilanswer
 

MacIntoc a écrit :

Ho... une fois qu'on tient compte de l'architecture respective des deux puces, oui, il est relativement facile de se faire une idée des performances en GS de chacune des deux.

 

Ce que j'essayais de faire comprendre à mac fly, c'est que les deux jeux Dx10 dont on dispose et les quelques demo fournit par nVidia ne permettent absolument pas de se faire une idée des capacités réelles de ces deux puces dans un jeu qui exploite pleinement Dx10 (donc intensivement les GS).

En fait, j'aurais plutôt dû rédiger mon post ainsi :

 


c'est clair , de toute facon Marc nous avait bien averti des perfs DX10 sous Nvidia ( optimisé un max pour ce jeux :) ).
 
Les ingés AMD ATi navaient pas encore eu ce jeu pour optimiser les drivers pour :jap:

n°5546448
budokai
Posté le 24-05-2007 à 14:07:48  profilanswer
 


 
 :lol:

n°5546485
mac fly
Posté le 24-05-2007 à 14:19:46  profilanswer
 


C'est ce que tout le monde a dit et personne n'a jamais dit le contraire.Maintenant dire que les jeux dx10 qui arrivent sous peu ne seront pas avantagés sur le G80 contrairement au R600 c'est de la pure spéculation.
Je me rapelle quand je me suis fait descendre il y a qques mois en disant que le R600 ne battrait probablement pas la GTX (et que le retard était surement lié à la surprise générale sur les perfs du G80) ... bcp disaient que c'était impossible au vue des specs du R600, que je racontais n'importe quoi....Pourtant en pratique on connait tous le résultat.
 
C'est sur que le G90 va dépoter en Dx10, mais ça ne signifie pas pour autant que Crysis tournera difficilement sur G80.Les dévellopeurs de ce jeux disent eux meme que ça tournera bien et ça serait le comble que ça tourne mal sur la c.graphique la + puissante du moment : le G80 :lol:

Message cité 2 fois
Message édité par mac fly le 24-05-2007 à 14:36:03
n°5546610
sasuke87
Posté le 24-05-2007 à 15:19:11  profilanswer
 

mac fly a écrit :

C'est ce que tout le monde a dit et personne n'a jamais dit le contraire.Maintenant dire que les jeux dx10 qui arrivent sous peu ne seront pas avantagés sur le G80 contrairement au R600 c'est de la pure spéculation.
Je me rapelle quand je me suis fait descendre il y a qques mois en disant que le R600 ne battrait probablement pas la GTX (et que le retard était surement lié à la surprise générale sur les perfs du G80) ... bcp disaient que c'était impossible au vue des specs du R600, que je racontais n'importe quoi....Pourtant en pratique on connait tous le résultat.
 
C'est sur que le G90 va dépoter en Dx10, mais ça ne signifie pas pour autant que Crysis tournera difficilement sur G80.Les dévellopeurs de ce jeux disent eux meme que ça tournera bien et ça serait le comble que ça tourne mal sur la c.graphique la + puissante du moment : le G80 :lol:


 
En même temps on pensait pas avoir un R600 buggé  :D

n°5546710
MacIntoc
tu lis une phrase formidable.
Posté le 24-05-2007 à 16:01:09  profilanswer
 

mac fly a écrit :

Maintenant dire que les jeux dx10 qui arrivent sous peu ne seront pas avantagés sur le G80 contrairement au R600 c'est de la pure spéculation.
 
C'est sur que le G90 va dépoter en Dx10, mais ça ne signifie pas pour autant que Crysis tournera difficilement sur G80.Les dévellopeurs de ce jeux disent eux meme que ça tournera bien et ça serait le comble que ça tourne mal sur la c.graphique la + puissante du moment : le G80 :lol:


Tant que les GS ne sont pas exploiter, Dx10 ne devrait pas poser de problème particulier au G80.
En admettant qu'ils ne refassent pas la même bourde qu'ils semblent avoir fait sur le G80.
Ca reste la carte graphique la plus puissante du moment en texturing. En shader, la XT est devant.
 

sasuke87 a écrit :

En même temps on pensait pas avoir un R600 buggé  :D


On sait pas vraiment si c'est un choix d'ATI ou un bug dans les ROPs. Il semblerait bien que les ROPs soient bel et bien utiliser dans certains cas particulier. Ce qui impliquerait qu'ils fonctionnent.

n°5547187
god is dea​d
Demain, j'arrête de poster.
Posté le 24-05-2007 à 18:41:26  profilanswer
 

Oué enfin les perfs du NV35, c'était du bluff :o
 
T'enlève les drivers optimisés qui remplacaient les shaders non opti pour le NV35, et t'avais plus rien.
 
Avec une 9800pro, tu pouvais profiter de Far Cry en 1024 / 1280 sans trop de filtres, ce qui est pas mal.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5547522
francis4
Posté le 24-05-2007 à 20:39:06  profilanswer
 

D'ailleurs étrange ce graph: 8 fps de différence entre une 9800pro et une xt dans une situation de gpu limited.

 

9800 pro : 380/340 mhz
9800xt: 412/365 mhz


Message édité par francis4 le 24-05-2007 à 20:42:43
n°5547526
Gigathlon
Quad-neurones natif
Posté le 24-05-2007 à 20:40:56  profilanswer
 

La XT avait 256Mo.

mood
Publicité
Posté le 24-05-2007 à 20:40:56  profilanswer
 

n°5547529
god is dea​d
Demain, j'arrête de poster.
Posté le 24-05-2007 à 20:42:20  profilanswer
 

Je vois rien d'étrange.
 
Une différence de 8fps sur un framerate qui ne dépasse pas 25, c'est énorme.
 
Si ça c'est pas du GPU limited, je veux bien me couper un bras :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5547530
god is dea​d
Demain, j'arrête de poster.
Posté le 24-05-2007 à 20:42:50  profilanswer
 

Gigathlon a écrit :

La XT avait 256Mo.


La PRO aussi, enfin sauf celles en 128  :D


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5547531
francis4
Posté le 24-05-2007 à 20:42:58  profilanswer
 

La pro n'existait pas en deux versions 128 et 256 ?
 
edit: grillé


Message édité par francis4 le 24-05-2007 à 20:45:41
n°5547536
francis4
Posté le 24-05-2007 à 20:43:51  profilanswer
 

god is dead a écrit :

Je vois rien d'étrange.

 

Une différence de 8fps sur un framerate qui ne dépasse pas 25, c'est énorme.

 

Si ça c'est pas du GPU limited, je veux bien me couper un bras :o

 


Pour 25 mhz de plus sur le core et la ram seulement, si c'est étrange  :o


Message édité par francis4 le 24-05-2007 à 20:45:29
n°5547562
lonely
Posté le 24-05-2007 à 20:52:37  profilanswer
 

Attendre noel pour la G92
2 fois plus puissante que la G80.
http://www.pcinpact.com/actu/news/ [...] l-R600.htm

n°5547580
francis4
Posté le 24-05-2007 à 20:57:16  profilanswer
 

lonely a écrit :

Attendre noel pour la G92
2 fois plus puissante (en gpgpu) que la G80.
http://www.pcinpact.com/actu/news/ [...] l-R600.htm


[:aloy]
 
Mais c'est clair que j'hésite à prendre un g80 maintenant avec cette annonce. J'aimerais profiter de mon 24" avec autre chose qu'une 7600gs  :sweat:  
 
M'enfin novembre-décembre c'est loin naussi.

n°5547620
MacIntoc
tu lis une phrase formidable.
Posté le 24-05-2007 à 21:08:20  profilanswer
 

Je me demandes comment ils vont faire pour augmenter autant la puissance de calcul sans passer par du 65nm. En espérant que nVidia corrige sa gestion mémoire au niveau des GS, son Tflops ne servira à rien sinon.

n°5547626
francis4
Posté le 24-05-2007 à 21:11:07  profilanswer
 

Apparement elle sera gravée en 65nm, nvidia pense que le proces ne sera vraiment au point qu'à la fin de l'année.

n°5547725
lonely
Posté le 24-05-2007 à 21:47:38  profilanswer
 

Le G92 permettra de jouer à Crysis en 2560 * 1600 avec une bonne fluidité.
http://www.theinquirer.net/default.aspx?article=39829

n°5548932
AbelJemka
Posté le 25-05-2007 à 15:00:49  profilanswer
 

Transformer du conditionnel en futur c'est pas bien Lonely.
[HS]
Sinon 1Tflops le triple du G80 en 65nm ça donnes quoi en consommation pour les écolos du forum? La question serait si le G92 et trois plus puissant pour deux fois plus de conso que le G80 est-ce que vous achetez?
[HS]

Message cité 3 fois
Message édité par AbelJemka le 25-05-2007 à 16:19:35
n°5549022
dami1stm
Eco-coco φ
Posté le 25-05-2007 à 15:41:11  profilanswer
 

AbelJemka a écrit :

Transformer du conditionnel en futur c'est pas bien Lonely.
[HS]
Sinon 1Tflops le triple du G80 en 65nm ça donnes quoi en consommation pour les écolos du forum? La question serait si le G92 et trois plus puissant pour deux fois plus de conso que le G80 est que vous achetez?
[HS]


 
Oui  [:_blade]


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5549589
lonely
Posté le 25-05-2007 à 19:48:19  profilanswer
 

AbelJemka a écrit :

Transformer du conditionnel en futur c'est pas bien Lonely.


L'enthousiasme ...
surtout que moi aussi il faudra que je change tout mon PC en fin d'année.
 

n°5549906
bonk1
Elle te plait ma soeur ?
Posté le 25-05-2007 à 22:48:14  profilanswer
 

AbelJemka a écrit :

Transformer du conditionnel en futur c'est pas bien Lonely.
[HS]
Sinon 1Tflops le triple du G80 en 65nm ça donnes quoi en consommation pour les écolos du forum? La question serait si le G92 et trois plus puissant pour deux fois plus de conso que le G80 est-ce que vous achetez?[HS]


 
Encore le trolleur ^^
 
C'est pas dit qu'il consommera plus que le G80.
 
Le Core Duo est largement meilleur qu'un P4 en perfs et pourtant consomme intrinséquement moins.
 
Ils sont pas fous chez Nvidia, quand on voit que le G80 est en 90 nm et que le R600 a attendu le 80nm... et quand on voit la chaleur du ATI, je me dis qu'en 65 nm le G80 à du potentiel pour monter en fréquence sans trop chauffer

n°5549951
francis4
Posté le 25-05-2007 à 23:07:41  profilanswer
 

Oui mais quand on voit 1tflops, soit ils doublent la fréquence des sp donc ~3ghz (faut pas trop y compter), soit ils doublent le nombre de ces sp (+ un peu de fréquence bien entendu) et là même en 65 nm bah ca va plus chauffer quoi :D
 
Et ce serait bien la première fois qu'un gpu next-gen consomme autant que la old-gen. Le monde du gpu n'a pas les mêmes impératifs que celui des cpu.

n°5581969
fatalkille​r
Posté le 11-06-2007 à 04:21:45  profilanswer
 

Ils sont vraiment sur qu'il y aura une HD2950xt aout septembre parce que ça me fais c.h.r d'attendre !Je veux profiter des vacances §
ça vaut le coup ?J'ai une X1800GTO o/c la au niveau d'une x1900 pro un peu o/c ! ??? *pleure*

n°5589347
Gigathlon
Quad-neurones natif
Posté le 14-06-2007 à 15:04:39  profilanswer
 

bonk1 a écrit :

C'est pas dit qu'il consommera plus que le G80.
 
Le Core Duo est largement meilleur qu'un P4 en perfs et pourtant consomme intrinséquement moins.


Entre Prescott et Conroe, il y a une différence d'architecture majeure, à commencer par des unités de calcul en flottants doublées et dont certaines fonctions sont plus rapides voire cablées.
 
Dans le monde des GPU, les unités de calcul restent les mêmes, les différences se font principalement dans leur environnement (registres, contrôleur mémoire, organisation physique des unités...), l'organisation SIMD16 du G80 apporte principalement une simplification du routage des unités de calcul au détriment de la complexité globale (nécessité d'exécution out of order sous peine de perdre en efficacité).
 
Si le G90, G92 ou quel que soit son nom est une évolution du G80 capable de débiter "1TFlops/s" (sauce nVidia, selon qui le G80 est déjà capable de 518GFlops/s), il aura très probablement quelque chose comme 160 SP à environ 2GHz soit sur un bus 512bits, soit sur un bus 384bits avec de la GDDR4/5 à la pointe (1600MHz?).
 
Après, il faut surtout espérer que le G9x ne réitère pas les erreurs de conception du G80 car dans ce cas il aura bien du mal à se démarquer d'un R600 à peine amélioré avec le double de puissance de filtrage de textures... (voir les tests du R600: bien qu'il ne brille pas, sa puissance de filtrage ridicule arrive tout de même à rivaliser avec celle de la 8800gts... qui a pourtant une puissance de filtrage théoriquement 2x supérieure)

n°5589350
Profil sup​primé
Posté le 14-06-2007 à 15:05:50  answer
 

et c est repartie pour un tour. :o  
 
faites vos jeux. :o  
 
 
 
 [:parisbreizh]

n°5589361
dami1stm
Eco-coco φ
Posté le 14-06-2007 à 15:10:31  profilanswer
 


 
 [:parisbreizh] [:parisbreizh] [:parisbreizh]


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5589362
Gigathlon
Quad-neurones natif
Posté le 14-06-2007 à 15:11:42  profilanswer
 

Vous allez encore nous dégueulasser le forum avec votre popcorn [:aless]

n°5589395
dami1stm
Eco-coco φ
Posté le 14-06-2007 à 15:27:25  profilanswer
 

Il vaut mieu bien se préparer, ca va durer encore longtemps [:cosmoschtroumpf]


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5597249
Tuxerman12
Posté le 18-06-2007 à 13:30:44  profilanswer
 

[:rofl]

n°5597456
Cizia
Posté le 18-06-2007 à 15:18:37  profilanswer
 

oui,mais combien de port depuis la germany??

n°5879195
bonk1
Elle te plait ma soeur ?
Posté le 07-09-2007 à 01:05:21  profilanswer
 

Au fait
 
http://www.hardware.fr/news/lire/06-09-2007/
 
LA 92 sera en dessous de la 8800 GTS


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°5880154
twistou
Les cons, ça ose tout ...
Posté le 07-09-2007 à 18:02:37  profilanswer
 

Bonk, merci pour l'info.
 
Contrairement, à ce que j'(nous?) attendais(attendions?), ces nouvelles puces se placent sous celles des 8800 et non au dessus. :(  
 
Malheureusement, ce n'est pas celà qui fera baisser les prix des 8800  :pfff:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
Attendre ou pas ?Attendre ou changer
Attendre les 8600gt ou non ?Achat Core 2 duo, attendre la baisse du 22/04 ?
Baisse de prix? Attendre fin Avril?Attendre le nouveau chipset intel pour passer au core2dua?
config pour Aôût 2007 !Geforce 8800 GTS 320mo attendre ou pas fin mars?
Un SLI de 7800GT ça vaut le coup pour attendre ?Quelles performances à s'attendre pour DDR2 800 cas 6-6-6-12 ?
Plus de sujets relatifs à : HD2900xt, 8800GT(?) ou attendre la HD2950 annoncée pour aout/sept ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR