Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2099 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

HD2900XT 1GB DDR4 MAJ

n°5575486
vlad drac
Posté le 07-06-2007 à 14:04:01  profilanswer
 

Reprise du message précédent :

mac fly a écrit :

:jap:  
Nvidia fait évoluer son G80 en corrigeant ses faiblesses (le G92) tout comme Ati doit sans doute bosser sur les corrections du R600.
La différence est que Nvidia a eu largement le temps de tater le terrain avec son G80 sortit bcp + tot et de se faire sa réputation.Il partent avec un avantage certain dès le départ.On peut s'attendre à ce que le G92 en remette une couche -> c'est aussi la raison pour laquelle il est parfaitement irrationnel d'affirmer que l'archi R600 est plus prometteuse que celle du G80... personne n'en sait rien et c'est pas en regardant les specs qu'on peut en déduire quoi que ce soit  ;)


 
Laissant sur le carreau l'actuelle HD2900XT .. pour moi cette dernière n'a tout simplement été qu'un coup d'essai, sortie prématuremment car tellement retardée et trop attendue .. La gamme n'était tout simplement pas prête (c'est d'ailleurs pour ça que le MDG a lui, été repoussé à fin juin) mais AMD voulait sortir à tout prix une carte, aussi instable soit-elle .. ils l'ont bichonné de drivers à sa sortie pour qu'elle étincelle sur quelques jeux, mais je crains qu'il ne la laisse finallement couler .. au détriment de sa p'tite soeur (HD2950XT ?).


Message édité par vlad drac le 07-06-2007 à 14:11:10
mood
Publicité
Posté le 07-06-2007 à 14:04:01  profilanswer
 

n°5575507
mac fly
Posté le 07-06-2007 à 14:11:52  profilanswer
 

MacIntoc a écrit :

Jamais dit que c'était prévisible. J'ai dit qu'au lieu de corriger leur erreur en constatant le comportement du R600 vis-à-vis du G80, ils continuaient dans la même voie.
 
 
Tu te serait penché un peu plus sur les archis, tu aurait vu que si...


C'est ce qu'on disait avant la sortie du R600  :pt1cable: (j'en connais meme qui m'on sortis tous les chiffres théoriques pour me dire au final que je racontais n'importe quoi et que le R600 serait au pire au niveau de la GTX ) ... tout ça n'est qu'hypothèse.Sincèrement je me fiche royalement des hypothèses archi X meilleure que archi Y, je constate les faits.Et d'après l'aperçu qu'on a, que ça soit en dx9 ou dx10 la GTX n'a rien à craindre de la 2900xt actuelle.Et la véritable révision de la 2900xt aura à faire face a la version revue et corrigée du déja très performant et "vieux" G80 (le G92 qui lui sortira a coup sur vers fin 2007/début 2008 ).. donc bon  :pt1cable:


Message édité par mac fly le 07-06-2007 à 14:15:34
n°5575529
MacIntoc
tu lis une phrase formidable.
Posté le 07-06-2007 à 14:18:30  profilanswer
 

Avant la sortie du R600, tout ce qu'on savais, c'est qu'il allait y avoir 320 SP rassemblé par groupe de 5 (donc 64 Shader Core). On pouvait rien dire a partir de ces donnés.
Ensuite, il n'y a encore aucun vrai jeu Dx10. Regarde l'archi du G80 et tu verras que pour certain cas qui seront probablement très courant a l'avenir, le G80 se cassera les dents. Observation théorique qui semble être confirmer par la team de dev de FSX.

Message cité 2 fois
Message édité par MacIntoc le 07-06-2007 à 14:18:49
n°5575563
mac fly
Posté le 07-06-2007 à 14:30:04  profilanswer
 

MacIntoc a écrit :

Avant la sortie du R600, tout ce qu'on savais, c'est qu'il allait y avoir 320 SP rassemblé par groupe de 5 (donc 64 Shader Core). On pouvait rien dire a partir de ces donnés.
Ensuite, il n'y a encore aucun vrai jeu Dx10. Regarde l'archi du G80 et tu verras que pour certain cas qui seront probablement très courant a l'avenir, le G80 se cassera les dents. Observation théorique qui semble être confirmer par la team de dev de FSX.


Je note  ;)  
ps: relis le topic du R600, quand Gigathlon et d'autres me reprenaient à chaque post pour me démontrer par A+B que le R600 aux vues de ses specs ne pouvait pas etre en dessous de la GTX....
Meme lui reconnait qu'il s'est trompé sur ce coup.Et à l'époque je disais déja que les specs ne suffisent pas à déterminer ce que ça donnerait en pratique, et que vu le retard accumulé et le mystère autour de cette carte, ça ne présageait rien de spectaculaire

n°5575570
vlad drac
Posté le 07-06-2007 à 14:31:35  profilanswer
 

MacIntoc a écrit :

Avant la sortie du R600, tout ce qu'on savais, c'est qu'il allait y avoir 320 SP rassemblé par groupe de 5 (donc 64 Shader Core). On pouvait rien dire a partir de ces donnés.
Ensuite, il n'y a encore aucun vrai jeu Dx10. Regarde l'archi du G80 et tu verras que pour certain cas qui seront probablement très courant a l'avenir, le G80 se cassera les dents. Observation théorique qui semble être confirmer par la team de dev de FSX.


 
En théorie le R600 devait aussi exploser le G80. Alors bon la théorie moi j'ai assez donné ..
 
Et puis soit, le G80 se cassera les dents à l'avenir, mais c'est dans la logique des choses non ? Tous les anciens haut de gamme se casse les dents un jour ou l'autre car on sait qu'ils ont une durée de vie limitée dans le temps, tu vois je ne fais pas parti de le team FSX mais je prédis également que le G80 aura des difficultées à l'avenir ..  
 
Le G80 est sorti depuis 7 mois et jusqu'ici elle demeure encore aujourd'hui la référence, la pari est déjà gagné pour elle. Le reste c'est du bonus. Tu ajoutes à cela le fait qu'elle passera sans nul doute le reste de l'année sans trop de difficulté, résultat tu as une carte réussie et stable.
 

Citation :

Ati a sorti une carte bancale qui au final n'a même pas fait bouger les prix des cartes nvidia, la HD2900XT si elle n'était même pas sortie franchement ça aurait changé quelque chose ?


 
Absolument rien , on est d'accord  :jap:


Message édité par vlad drac le 07-06-2007 à 14:34:26
n°5575584
Profil sup​primé
Posté le 07-06-2007 à 14:37:23  answer
 

oui mais la gtx est une carte dx10 NON dx9 donc si elle se casse les dents ca veut dire qu il y a un probleme quelque part non.
 
ou c est un coups de marketing vendre une carte dx10 puissante sous dx9.
 
ati voulait faire la meme chose mais a change de cap et a retarde le lencement de sa carte pour, je l espere, combler les lacune sous dx10 au detriment du dx9.
 
ati etait partie disant que le r600 aurait ete le gpu le plus veloce sous dx9, en realite c est pas du tout ca.....
 
donc si sous dx10 la x2900xt se casse la geule, ati nous a encule encore plus que nvidia, qui propose une carte (GTX) pas bien performante sous dx10.
 
les test nous le diront, on vera sur bioshock et autre.  
 

Message cité 1 fois
Message édité par Profil supprimé le 08-06-2007 à 03:01:54
n°5575601
vlad drac
Posté le 07-06-2007 à 14:45:19  profilanswer
 


 
Euh non le G80 et le R600 sont avant tout des cartes DX9 .. DX10 c'est du marketing  (après si elles tiennent le coup d'ici 2008 avec DX10 c'est que du bonus)
 
Et puis où est-ce que tu vois qu'elle se casse les dents ? A te lire on croirait que la GTX à déjà du mal aujourd'hui  :lol:  Alors qu'il s'agissait juste d'un évident constat à long terme.
 
Franchement je vois pas comment vous pouvez dire que le GTX se cassera la gueule sous DX10 .. c'est très énigmatique  :sweat: (vous avez l'air persuadé ..)

Message cité 1 fois
Message édité par vlad drac le 07-06-2007 à 14:46:29
n°5575606
Profil sup​primé
Posté le 07-06-2007 à 14:47:45  answer
 

non, mais que les choses s inversent, xt plus rapide sous dx10 que la gtx.
 
si j ai achete une carte dx10 c est pour jouer a dx10 non.
 
la gtx est une super carte, meilleur que la xt en plusieurs point.
 
edit: oui j ai specifie en jeux dx10 comme bioshock, gerrico, elveon...


Message édité par Profil supprimé le 07-06-2007 à 14:53:08
n°5575611
vlad drac
Posté le 07-06-2007 à 14:51:03  profilanswer
 

Euh moi d'après ce que j'ai vu la XT était derrière en DX10 .. Puis n'en tirons pas de conclusions hatives, il ne s'agit que de tests fait à partir de jeux DX9 patchés DX10, attendons de VRAIS jeux pour enfin fournir de VRAIES hypothèses.


Message édité par vlad drac le 07-06-2007 à 14:59:33
n°5575616
kyky
Je suis newbie et alors,
Posté le 07-06-2007 à 14:52:33  profilanswer
 

c'est pas mal 3 topics 2900Xt et on est toujours au même point, je crois que pour les critiques c'est mieux de reste sur le topics R600 et le reste sur les autres  :D

mood
Publicité
Posté le 07-06-2007 à 14:52:33  profilanswer
 

n°5575629
vlad drac
Posté le 07-06-2007 à 14:57:04  profilanswer
 

kyky a écrit :

c'est pas mal 3 topics 2900Xt et on est toujours au même point, je crois que pour les critiques c'est mieux de reste sur le topics R600 et le reste sur les autres  :D


 
Pour ça vous avez le "topic unique ATI Radeon HD2900XT" qui reste "clean" pour l'instant (et j'espère que ça durera). Car pour moi réservé aux possesseurs de R600.
 
Combien il vous en faut des topics ?  :pt1cable:  
 


Message édité par vlad drac le 07-06-2007 à 15:01:11
n°5575704
jvx
Posté le 07-06-2007 à 15:35:24  profilanswer
 

Au fait le model 1GB de GDDR4 et fréquence booster a l'appelation SI si j'ai bien compris , car les performance non rien na voir avec le model 512MB et ne peuve garder le meme nom (ses ce que je pense)

n°5575775
AbelJemka
Posté le 07-06-2007 à 16:00:34  profilanswer
 

XT 1024 c'est un nom.

n°5575851
jvx
Posté le 07-06-2007 à 16:23:43  profilanswer
 

ok comme pour la 7800GTX 512MB .

n°5575893
MacIntoc
tu lis une phrase formidable.
Posté le 07-06-2007 à 16:39:54  profilanswer
 

mac fly a écrit :

Je note  ;)
ps: relis le topic du R600, quand Gigathlon et d'autres me reprenaient à chaque post pour me démontrer par A+B que le R600 aux vues de ses specs ne pouvait pas etre en dessous de la GTX....
Meme lui reconnait qu'il s'est trompé sur ce coup.Et à l'époque je disais déja que les specs ne suffisent pas à déterminer ce que ça donnerait en pratique, et que vu le retard accumulé et le mystère autour de cette carte, ça ne présageait rien de spectaculaire


Je suis arrivé assez tard sur ce topic. Mais quand je suis arrivé, tous ce qu'on savait c'était les SP (a si, y avait le bus également). Hors il est vrai qu'au niveau des shaders, le R600 explose le G80 sans compromis possible. On ignorait en revanche qu'elles étaient les specs en texturing. C'est ce qui manquait pour savoir si oui ou non le R600 pouvait écraser le G80 ou pas. Hors avec 320 SP, 700M de transistor et une taille de puce supérieur à la moyenne alors qu'elle est gravé plus finement, on pouvait s'attendre a ce que le nombre de TMU soit en conséquence. Alors qu'en faite, il n'en est rien, on garde la même chose que le R580=>goulot d'étranglement monstrueux au niveau du texturing. Le bon point, c'est qu'un moteur physique basé sur les shaders (où tout autre extra tournant autour des shader) aura beaucoup moins d'impact sur le R600.

 

Vlad Drac>Les propos de la team de FSX ne sont pas de la théorie mais de la pratique. Et ils vont dans le sens de la théorie.
La théorie, est expliqué par HFR. Les GS peuvent générer une masse énorme de données (surtout lors d'un subdivision de triangle, comme les déformations de terrains engendré par un pas dans la neige, un impact de balle, une explosion,...). Ces données, il faut les stocker quelque part. Pour ça, il y a les registre. Mais quand on est a court de registre (ce qui devrait arrivé assez souvent, j'espère, plus ça bouffe de mémoire plus ce sera impressionnant à l'écran), comment faire ?
ATI donne au R600 un accès à la RAM en tant que registre, donc le problème de stockage n'existe pas (bon, je penses pas que c'est pour ça qu'il prévoient 1Go de RAM pour autant). NVidia quand à lui, ne donne pas cet accès au G80, donc, à priori, le seul autre moyen de ne pas saturer les registres, c'est de les remplir moins vite, donc diminuer la puissance de calcul alloué au GS.

 

Hors, jusqu'à présent, aucun jeu, même ceux estampiller Dx10, n'exploite ce genre de truc. Hors,  les seuls retours à ce niveau sont les conclusions des tests que la team de FSX a donné et qui se résume à un "much more efficient" en faveur des GS du R600.

Message cité 1 fois
Message édité par MacIntoc le 07-06-2007 à 16:49:34
n°5575930
yurekaof95
Posté le 07-06-2007 à 16:52:38  profilanswer
 

moi je dis juste que AMD a pas vu rattraper  nvidia et que la 8800GTX et ultra domine le marcher haut de gamme

n°5576074
rci
Posté le 07-06-2007 à 17:39:36  profilanswer
 

vlad drac a écrit :

Euh non le G80 et le R600 sont avant tout des cartes DX9 .. DX10 c'est du marketing  (après si elles tiennent le coup d'ici 2008 avec DX10 c'est que du bonus)

 

Et puis où est-ce que tu vois qu'elle se casse les dents ? A te lire on croirait que la GTX à déjà du mal aujourd'hui  :lol:  Alors qu'il s'agissait juste d'un évident constat à long terme.

 

Franchement je vois pas comment vous pouvez dire que le GTX se cassera la gueule sous DX10 .. c'est très énigmatique  :sweat: (vous avez l'air persuadé ..)

 

oui c'est comme le r600 qui devait etre plus puissant que la gtx  :lol:

 

nividia va tuer ati definitivement :)


Message édité par rci le 07-06-2007 à 17:40:56
n°5576287
vlad drac
Posté le 07-06-2007 à 18:47:21  profilanswer
 

MacIntoc a écrit :


 
Vlad Drac>Les propos de la team de FSX ne sont pas de la théorie mais de la pratique. Et ils vont dans le sens de la théorie.
La théorie, est expliqué par HFR. Les GS peuvent générer une masse énorme de données (surtout lors d'un subdivision de triangle, comme les déformations de terrains engendré par un pas dans la neige, un impact de balle, une explosion,...). Ces données, il faut les stocker quelque part. Pour ça, il y a les registre. Mais quand on est a court de registre (ce qui devrait arrivé assez souvent, j'espère, plus ça bouffe de mémoire plus ce sera impressionnant à l'écran), comment faire ?
ATI donne au R600 un accès à la RAM en tant que registre, donc le problème de stockage n'existe pas (bon, je penses pas que c'est pour ça qu'il prévoient 1Go de RAM pour autant). NVidia quand à lui, ne donne pas cet accès au G80, donc, à priori, le seul autre moyen de ne pas saturer les registres, c'est de les remplir moins vite, donc diminuer la puissance de calcul alloué au GS.
 
Hors, jusqu'à présent, aucun jeu, même ceux estampiller Dx10, n'exploite ce genre de truc. Hors,  les seuls retours à ce niveau sont les conclusions des tests que la team de FSX a donné et qui se résume à un "much more efficient" en faveur des GS du R600.


 
Oui mais dans combien de temps ce shéma se révèlera t-il dans les faits (et en masse) ? 1 ans ? 2 ans ?
 
D'ici là le G80 sera à l'ouest (à l'ouest pas à tout fait quand même) ce n'est pas une histoire de Goemetry Shader mais simplement qu'elle subit les éléas d'une mort naturelle et planifié.  
 
Le problème semble exister mais ce n'est pas encore le moment de s'inquiéter .. ce n'est pas sur cette génération de carte qu'il faut s'en préoccuper;)
 
Donc dire que le G80 a (aura) une déficience là dessus ok, mais en faire un argument "anti-G80"  là non. A l'heure actuelle ça ne veut absolument rien dire.
 
 :hello:

Message cité 1 fois
Message édité par vlad drac le 07-06-2007 à 18:49:46
n°5576295
69annee_er​otique
Bonjour @ Tous
Posté le 07-06-2007 à 18:50:40  profilanswer
 

bien.


---------------
Je ne trompe pas ma femme, je peux me tromper de femme !
n°5576435
MacIntoc
tu lis une phrase formidable.
Posté le 07-06-2007 à 19:57:26  profilanswer
 

vlad drac a écrit :

Oui mais dans combien de temps ce shéma se révèlera t-il dans les faits (et en masse) ? 1 ans ? 2 ans ?
 
D'ici là le G80 sera à l'ouest (à l'ouest pas à tout fait quand même) ce n'est pas une histoire de Goemetry Shader mais simplement qu'elle subit les éléas d'une mort naturelle et planifié.  
 
Le problème semble exister mais ce n'est pas encore le moment de s'inquiéter .. ce n'est pas sur cette génération de carte qu'il faut s'en préoccuper;)
 
Donc dire que le G80 a (aura) une déficience là dessus ok, mais en faire un argument "anti-G80"  là non. A l'heure actuelle ça ne veut absolument rien dire.
 
 :hello:


Je vois pas en quoi mettre en lumière les défauts de l'architectures choisis par nVidia mérite le terme anti-G80...
 
De plus, comme d'habitude dirons certains, il y a de forte chance pour que le R600 vieillisse finalement mieux que le G80 malgré que le R600 dépende pas mal de ses drivers. Et on ignore a quel point les développeurs de FSX décideront de limiter l'utilisation des GS dans leur jeu (j'ignores si Crytek les exploiteront ou non).
De plus, le G80 nécessite une modification assez profonde de son architecture pour corriger cette faille (c'est pas pour rien que nVidia passe directement au G9x là ou ATI reste sur son R6x0). Alors que les ingés d'ATI n'ont qu'a faire du Lego avec l'architecture déjà existante du R600. Donc non, ça ne concerne pas uniquement le R600 et le G80.
 
Enfin bon, tout ça pour dire que l'architecture du R600 est excellente en soit. Elle est juste mal balancé sur sa déclinaison XT et ne permet que d'entre apercevoir les perfs réelle que cette archi pourrait développer. Et que, malgré les apparences, ATI est très loin d'être en retard sur nVidia, bien au contraire.

n°5576475
vlad drac
Posté le 07-06-2007 à 20:27:39  profilanswer
 

MacIntoc a écrit :

Je vois pas en quoi mettre en lumière les défauts de l'architectures choisis par nVidia mérite le terme anti-G80...
 
C'était une mise en garde mais on est d'accord  :jap:
 
De plus, comme d'habitude dirons certains, il y a de forte chance pour que le R600 vieillisse finalement mieux que le G80 malgré que le R600 dépende pas mal de ses drivers. Et on ignore a quel point les développeurs de FSX décideront de limiter l'utilisation des GS dans leur jeu (j'ignores si Crytek les exploiteront ou non).
 
Les hauts de gamme ATI ont de toute façon toujours mieux vieillis que ceux d'Nvidia. Mais une fois de plus on revient sur le débat "nouveaux drivers + R600 = résurrection", moi je n'y crois pas du tout, après on verra bien .. Peut être que les prochains drivers réactiveront des unités de texture absentes et rendra plus facilement utilisable celles déjà présentes  :sarcastic:
 
De plus, le G80 nécessite une modification assez profonde de son architecture pour corriger cette faille (c'est pas pour rien que nVidia passe directement au G9x là ou ATI reste sur son R6x0). Alors que les ingés d'ATI n'ont qu'a faire du Lego avec l'architecture déjà existante du R600. Donc non, ça ne concerne pas uniquement le R600 et le G80.
 
Mais pourquoi tu veux absolument modifier le G80 ?? Tu crois qu'elle en a besoin actuellement, qu'elle n'est pas assez puissante ? Comme je l'ai dit plus haut cette "faille" n'en est pas encore une pour l'instant mais le sera beaucoup plus tard, bref de quoi voir venir. Tu infantilises un peu trop la conception d'une CG .. comme s'il suffisait d'embriquer telle ou telle unité comme de vulgaire lego :/
 
Enfin bon, tout ça pour dire que l'architecture du R600 est excellente en soit. Elle est juste mal balancé sur sa déclinaison XT et ne permet que d'entre apercevoir les perfs réelle que cette archi pourrait développer.
 
Exellente non .. je rappelle que le R600 devait concurrencer la GTX. Elle est certe efficace car vu son positionnement tarifaire mais dire de son architecture elle est exellente non
 
Et que, malgré les apparences, ATI est très loin d'être en retard sur nVidia, bien au contraire
 
Tu veux donc dire qu'Nvidia est très en retard par rapport à ATI/AMD ? C'est un peu naif comme raisonnement mais je respecte  ;) .

Message cité 1 fois
Message édité par vlad drac le 07-06-2007 à 20:31:27
n°5576557
MacIntoc
tu lis une phrase formidable.
Posté le 07-06-2007 à 20:59:36  profilanswer
 

vlad drac a écrit :

Les hauts de gamme ATI ont de toute façon toujours mieux vieillis que ceux d'Nvidia. Mais une fois de plus on revient sur le débat "nouveaux drivers + R600 = résurrection", moi je n'y crois pas du tout, après on verra bien .. Peut être que les prochains drivers réactiveront des unités de texture absentes et rendra plus facilement utilisable celles déjà présentes  :sarcastic:


Il n'y a pas que les drivers. Et inutile de réactiver des unités qui n'existent pas. Mais il y a une très forte probabilité pour que la balance shader/texturing soit similaire à des jeux comme TDU et R6V d'ici 1 an.
 

Citation :

Mais pourquoi tu veux absolument modifier le G80 ?? Tu crois qu'elle en a besoin actuellement, qu'elle n'est pas assez puissante ? Comme je l'ai dit plus haut cette "faille" n'en est pas encore une pour l'instant mais le sera beaucoup plus tard, bref de quoi voir venir. Tu infantilises un peu trop la conception d'une CG .. comme s'il suffisait d'embriquer telle ou telle unité comme de vulgaire lego :/


Pasque les GS seront utilisé dés les premier jeux nativement Dx10, donc ça arrivera très vite.
J'imagine que c'est un peu comme le développement. Tu créer tes fonctions et tu les assemble pour obtenir ce que tu veux. Après, selon la manière dont tu les assemble, certaines parties s'exécuteront plus facilement/rapidement.
 

Citation :

Exellente non .. je rappelle que le R600 devait concurrencer la GTX. Elle est certe efficace car vu son positionnement tarifaire mais dire de son architecture elle est exellente non


Tu confonds architecture et balance. L'architecture est bonne, la balance est mauvaise. Si tu veux un parallèle plus familier, une carte peut-être bonne et le driver mauvais, tu aura des perfs de merde.
 

Citation :

Tu veux donc dire qu'Nvidia est très en retard par rapport à ATI/AMD ? C'est un peu naif comme raisonnement mais je respecte  ;) .


Je peux pas te faire un comparatif des deux architectures maintenant mais effectivement, l'archi d'ATI est nettement en avance sur celle de nVidia. Je veux dire par là que ATI aura moins besoin de retravailler sont archi globale que nVidia.

Message cité 2 fois
Message édité par MacIntoc le 07-06-2007 à 21:00:03
n°5576667
vlad drac
Posté le 07-06-2007 à 22:12:59  profilanswer
 

MacIntoc a écrit :

Pasque les GS seront utilisé dés les premier jeux nativement Dx10, donc ça arrivera très vite.
J'imagine que c'est un peu comme le développement. Tu créer tes fonctions et tu les assemble pour obtenir ce que tu veux. Après, selon la manière dont tu les assemble, certaines parties s'exécuteront plus facilement/rapidement.
 
Oui mais DX10, massivement, c'est pas avant fin 2008. Donc pour toi Crysis fera chuter une GTX (puisque GS) .. franchement tu le penses ?
 
Il n'y a pas que les drivers. Et inutile de réactiver des unités qui n'existent pas. Mais il y a une très forte probabilité pour que la balance shader/texturing soit similaire à des jeux comme TDU et R6V d'ici 1 an.
 
Je sais bien .. c'était justement une boutade  :jap:
 
Tu confonds architecture et balance. L'architecture est bonne, la balance est mauvaise. Si tu veux un parallèle plus familier, une carte peut-être bonne et le driver mauvais, tu aura des perfs de merde.
 
Pour moi c'est l'inverse, l'architecture est mauvaise et les drivers sont bons (voir suffisamment optimisés pour faire "illusion" )  :lol:  
 
Je peux pas te faire un comparatif des deux architectures maintenant mais effectivement, l'archi d'ATI est nettement en avance sur celle de nVidia. Je veux dire par là que ATI aura moins besoin de retravailler sont archi globale que nVidia.
 
A part le traitement des geometry shaders et l'unité de tesselation (on devrait lui mettre une guirlande pour faire encore plus jolie) je vois vraiment pas en quoi l'architecture est nettement plus en avance. Moi je juge dans les faits, hors je constate qu'une GTX est largement au dessus d'un R600, ça me suffit pour en tirer une conclusion ..

Message cité 1 fois
Message édité par vlad drac le 07-06-2007 à 22:16:27
n°5576676
yurekaof95
Posté le 07-06-2007 à 22:17:20  profilanswer
 

mais quan le r600 sera mure il i aura deja le G90 de nvidia ^^

n°5576677
vlad drac
Posté le 07-06-2007 à 22:18:41  profilanswer
 

yurekaof95 a écrit :

mais quan le r600 sera mure il i aura deja le G90 de nvidia ^^


 
La HD 2900XT n'aura même pas le temps de murir, elle sera rapidement remplacé .. par une vraie carte hein, pas par cette HD2900XT 1GB DDR4  :sarcastic:  
 
Hop comme ça je retombe sur mes pattes et relançe le topic  :p

Message cité 1 fois
Message édité par vlad drac le 07-06-2007 à 22:20:06
n°5576866
sasuke87
Posté le 08-06-2007 à 00:46:45  profilanswer
 


tu trouves que les drivers actuels sont déjà bons et suffisament optimisés???  :ouch:  Un R600 à peine plus perf qu'un R580 dans certains tests c'est faire illusion???  :D  :pt1cable:

Message cité 2 fois
Message édité par sasuke87 le 08-06-2007 à 00:46:56
n°5576925
AbelJemka
Posté le 08-06-2007 à 03:03:24  profilanswer
 

sasuke87 a écrit :

tu trouves que les drivers actuels sont déjà bons et suffisament optimisés???  :ouch:  Un R600 à peine plus perf qu'un R580 dans certains tests c'est faire illusion???  :D  :pt1cable:


Su ces mêmes benchs la GTS est aussi à peine plus perf qu'un R580 :jap:

n°5576926
Profil sup​primé
Posté le 08-06-2007 à 03:12:48  answer
 

Vlad Drac&MacIntoc
 
tres bonnes explications et argumentations  :jap: .
 
 
je rajoute une chose, les premiers jeux dx10 c est pas fin 2008 mais septembre 2007.
 
de la a dire que ces jeux auront/exploiteront cette architecture?


Message édité par Profil supprimé le 08-06-2007 à 03:13:52
n°5577113
MacIntoc
tu lis une phrase formidable.
Posté le 08-06-2007 à 10:15:24  profilanswer
 

vlad drac a écrit :

Oui mais DX10, massivement, c'est pas avant fin 2008. Donc pour toi Crysis fera chuter une GTX (puisque GS) .. franchement tu le penses ?


Bien avant, j'espère. Ce serait dommage que les développeurs brident leurs jeux a cause du G80.
Qui te dis que Crysis exploitera massivement les GS ? Il semblerait d'ailleurs que ce ne soit pas le cas étant donné que Crytek annonce des perfs similaire pour le G80 GTX et le R600 XT.

 
Citation :

Pour moi c'est l'inverse, l'architecture est mauvaise et les drivers sont bons (voir suffisamment optimisés pour faire "illusion" ) :lol:


Dis moi que tu le fait exprès, que je ne m'exprimes pas si mal :heink:
J'ai bien dis que mon exemple avec la carte et son driver était une analogie, une image. Mais c'est bien le rapport entre les shader cores et les TMUs qui est foireux (les ROPs et unités de filtrage étant dimensionné en fonction des TMUs). Hors ce rapport n'a aucun lien avec l'architecture même (la manière dont sont liés ces unités).

 
Citation :

A part le traitement des geometry shaders et l'unité de tesselation (on devrait lui mettre une guirlande pour faire encore plus jolie) je vois vraiment pas en quoi l'architecture est nettement plus en avance. Moi je juge dans les faits, hors je constate qu'une GTX est largement au dessus d'un R600, ça me suffit pour en tirer une conclusion ..


Y a également l'accès directe au PCI-Express qui facilite et accélère le Stream Computing (a mettre en // avec la plateforme Torrenza qui sera inauguré avec les prochains K10).
Ce que tu appels le traitement des GS est en faite le Stream Out Buffer. C'est pas un truc qui se change facilement comme de rajouter/retirer des unités de calcul (SP, TMU, ROP,... ou même l'unité de Tesselation). En fait, l'architecture du G80 se contente de supporter les spécifications de Dx10 alors que l'architecture du R600 a bel et bien été conçus pour exploiter ces spécifications. Seulement, il n'y a aucun jeu Dx10 pour mettre en valeur ce fait. Et c'est tout ce qui sauve le G80 de la malédiction 3Dfx.
Pour faire face aux jeux Dx10, nVidia a besoin d'une nouvelle architecture et ne peut pas continuer sur celle du G80.

 
Citation :

La HD 2900XT n'aura même pas le temps de murir, elle sera rapidement remplacé ..


Hum... je suis de moins en moins sur qu'ATI ne gardera pas son concept d'AA via les shader. Regarde les perfs dans Stalker (qui utilise nativement un AA via shader) avec les derniers driver.

 
Citation :

par une vraie carte hein, pas par cette HD2900XT 1GB DDR4  :sarcastic:


+1

Message cité 1 fois
Message édité par MacIntoc le 08-06-2007 à 10:19:43
n°5577382
vlad drac
Posté le 08-06-2007 à 12:09:52  profilanswer
 

sasuke87 a écrit :

tu trouves que les drivers actuels sont déjà bons et suffisament optimisés???  :ouch:  Un R600 à peine plus perf qu'un R580 dans certains tests c'est faire illusion???  :D  :pt1cable:


 
J'oubliais de préciser .. optimisés sur certains jeux ! (2/3 à tout casser)
 

Citation :

dave3810 a écrit :
 
je rajoute une chose, les premiers jeux dx10 c est pas fin 2008 mais septembre 2007.


 
J'ai dit disponibilité massive dès fin 2008 :p. Hormis ça je sais très bien qu'il y aura 1/2 jeu(x) DX10 à sortir d'ici la fin de l'année.
 

MacIntoc a écrit :

Et c'est tout ce qui sauve le G80 de la malédiction 3Dfx.
Pour faire face aux jeux Dx10, nVidia a besoin d'une nouvelle architecture et ne peut pas continuer sur celle du G80.
 
[...]
 


 
Je crois que c'est là qu'on arrive pas à se mettre d'accord, pour moi le G80 n'a plus rien a prouver, il tient depuis 7 mois le haut du pavé, il se montre supérieur à la concurrence pourtant sortie beaucoup plus tard, ses performances sont parfois multipliées par deux face au GeForce 7900 GTX ou à l'offre d'ATI (R500), anticrénelage avec HDR, filtrage anisotropique exellent .. bref le G80 n'a pas besoin d'être sauvé .. S'il y a bien une carte aujourd'hui au bord de la tourmente c'est bien le R600 ! Attention de ne pas se tromper de perspective  :jap:  
 
Tu sembles tirer une conclusion du G80 sous DX10 alors que personnes ne connait son potentiel, la seule chose qu'on sait aujourd'hui, c'est qu'il est plus performant que le R600 avec des jeux patchés DX10. Je trouve que tu mises un peu trop sur les spéculations .. ça fait 1 an qu'on fait la même chose sur le R600 alors si t'as le courage de continuer t'en mieux [:airforceone]:

 

Citation :

Y a également l'accès directe au PCI-Express qui facilite et accélère le Stream Computing (a mettre en // avec la plateforme Torrenza qui sera inauguré avec les prochains K10).


 
Quant au GPGPU qui est évidemment le résultat du rachat d'ATI  par AMD, c'est bien beau dans les faits (physique => Havok fx) mais est-ce vraiment pour tout de suite ? Et surtout est-ce vraiment fait pour la HD2900XT .. La pauvre elle souffre déjà beaucoup :sweat:
 
Attendons donc la HD2950XT qui sera très certainement ce qu'aurait dû être le VRAI R600 dès sa sortie  :jap:  
 
Voir carremment le R700 car je me demande comment ils vont réussir à faire ce qui n'a pas déjà pu être fait avec l'actuel R600.

Message cité 2 fois
Message édité par vlad drac le 08-06-2007 à 12:58:54
n°5577905
MacIntoc
tu lis une phrase formidable.
Posté le 08-06-2007 à 15:29:10  profilanswer
 

vlad drac a écrit :

Je crois que c'est là qu'on arrive pas à se mettre d'accord, pour moi le G80 n'a plus rien a prouver, il tient depuis 7 mois le haut du pavé, il se montre supérieur à la concurrence pourtant sortie beaucoup plus tard, ses performances sont parfois multipliées par deux face au GeForce 7900 GTX ou à l'offre d'ATI (R500), anticrénelage avec HDR, filtrage anisotropique exellent .. bref le G80 n'a pas besoin d'être sauvé .. S'il y a bien une carte aujourd'hui au bord de la tourmente c'est bien le R600 ! Attention de ne pas se tromper de perspective  :jap:
 
Tu sembles tirer une conclusion du G80 sous DX10 alors que personnes ne connait son potentiel, la seule chose qu'on sait aujourd'hui, c'est qu'il est plus performant que le R600 avec des jeux patchés DX10. Je trouve que tu mises un peu trop sur les spéculations .. ça fait 1 an qu'on fait la même chose sur le R600 alors si t'as le courage de continuer t'en mieux [:airforceone]:


Tu te contredis toi-même. D'un coté tu dis que le G80 n'a plus rien à prouver, de l'autre que personne ne peu prétendre connaitre son potentiel sous Dx10. Commence par mettre un peu d'ordre dans tes pensés, ça t'aidera à voir plus clair.
En tout cas, ça montre que nVidia a excellemment bien joué son coup. Sortir une carte Dx10 qui déchire sous Dx9 (ça, je le nie pas, on est bien d'accord sur ce point) avec, a coté, quelques démos technologiques Dx10 et une ou deux beta de jeux Dx9 patché à la va-vite en Dx10 afin que le consommateur fasse le raccourcis facile "perf de fou en Dx9 == perf de fou en Dx10". Ca montre que nVidia apprends de ses erreurs (NV30 toussa).
A coté de ça, on oublis bien vite les jeux représentatif de ce que donneront les jeux à venir (Dx10 ou non) comme R6V (Unreal Engine 3, quand même, on va le voir très souvent et pas que dans des FPS), TDU, Stalker, Quake 4...
Mes avis que la sortie de Dx11 va être très intéressante ^^
 

Citation :

Quant au GPGPU qui est évidemment le résultat du rachat d'ATI  par AMD, c'est bien beau dans les faits (physique => Havok fx) mais est-ce vraiment pour tout de suite ? Et surtout est-ce vraiment fait pour la HD2900XT .. La pauvre elle souffre déjà beaucoup :sweat:


Réfléchis deux seconde. Le point faible du R600, c'est le texturing. Hors le Havoc FX fait exclusivement appel au shader. Donc au contraire, ça devrait admirablement bien tourner sur R600, les shaders bridées par le texturing pourront pleinement s'exprimer sur la physique.
 

Citation :

Attendons donc la HD2950XT qui sera très certainement ce qu'aurait dû être le VRAI R600 dès sa sortie  :jap:  
 
Voir carremment le R700 car je me demande comment ils vont réussir à faire ce qui n'a pas déjà pu être fait avec l'actuel R600.


Pas besoin de R700. L'architecture du R600 a de quoi tenir aussi longtemps que celle du R300. Comme je te l'ai dis, avec seulement 25% de TMU en plus, il arriverait au niveau du G80. Avec 50% en plus, il l'écraserait.

n°5577920
blob
In vino veritas
Posté le 08-06-2007 à 15:39:12  profilanswer
 

MacIntoc a écrit :

Pas besoin de R700. L'architecture du R600 a de quoi tenir aussi longtemps que celle du R300. Comme je te l'ai dis, avec seulement 25% de TMU en plus, il arriverait au niveau du G80. Avec 50% en plus, il l'écraserait.


 
Une fois de plus tu n'en sais rien, comme d'habitude devrais-je dire, ce ne sont que de pures spéculations.
En fait ce qui est saoûlant c'est que le R600 est là, il ne casse pas trois pattes à canard et vous continuez à spéculer. [:ogmios]  
Le R600 est correct sans plus, rien d'exceptionnel, il sort 7 mois après la concurrence et se positionne en milieu de gamme.
Avec, si, seulement, c'est bien beau tout ces mots mais ça ne veut rien dire, c'est du vent.

Message cité 1 fois
Message édité par blob le 08-06-2007 à 15:40:05
n°5577939
MacIntoc
tu lis une phrase formidable.
Posté le 08-06-2007 à 15:51:34  profilanswer
 

blob a écrit :

Une fois de plus tu n'en sais rien, comme d'habitude devrais-je dire, ce ne sont que de pures spéculations.
En fait ce qui est saoûlant c'est que le R600 est là, il ne casse pas trois pattes à canard et vous continuez à spéculer. [:ogmios]
Le R600 est correct sans plus, rien d'exceptionnel, il sort 7 mois après la concurrence et se positionne en milieu de gamme.
Avec, si, seulement, c'est bien beau tout ces mots mais ça ne veut rien dire, c'est du vent.


C'est pas du vent. Tous les tests, sans aucune exceptions, montrent qu'un jeu exploitant très peu le texturing tourne admirablement bien sur un R600 (encore mieux que sur un G80 Ultra), qu'un jeu exploitant massivement les shaders tourne aussi bien sur R600 que sur G80 GTX et qu'un jeu privilégiant le texturing tourne moins bien sur R600 (entre un G80 GTS et un G80 GTX).
Que peut-on conclure de ces résultats ?
Que le R600 a un déficit en texturing.
Conclusion, renforce la puissance en texturing et tu augmentes les perfs dans les jeux privilégiant le texturing, ce qui te permet de rattraper le G80. C'est pas plus compliqué que ça.

Message cité 1 fois
Message édité par MacIntoc le 08-06-2007 à 15:52:41
n°5577951
AbelJemka
Posté le 08-06-2007 à 15:58:50  profilanswer
 

Dit moi la manip pour le faire et je le fait :pt1cable:  
Je rigoles bien sur mais bref c'est vrai que faut arreter de speculer MacIntoc pour maintenant.

n°5577979
vlad drac
Posté le 08-06-2007 à 16:14:10  profilanswer
 

MacIntoc a écrit :

Tu te contredis toi-même. D'un coté tu dis que le G80 n'a plus rien à prouver, de l'autre que personne ne peu prétendre connaitre son potentiel sous Dx10. Commence par mettre un peu d'ordre dans tes pensés, ça t'aidera à voir plus clair.


 
Je me contredis pas .. c'est toi qui ne cherche pas à comprendre ce que je dis, en retournant à chaque fois le R600 à son avantage.
 
Oui le G80 n'a plus rien à prouver, car on connaît son potentiel aujourd'hui et cela même avec 6 mois d'avance sur son concurrent. C'est pas arrivé souvent à un modèle THDG de tenir aussi longtemps et de maintenir un tel écart .. (je parle de la GTX on est d'accord) .  Et oui je dis que PERSONNE ne peut prétendre connaître ses perfs sous DX10 car ça c'est un fait .. sauf exception pour les jeux DX9 patchés DX10 et qui sont aisemment favorable au G80, d'ailleurs je te l'avais déjà dis plus haut, mais tu me fais répéter toujours les mêmes choses, tu choisis vraiment ce que tu souhaites retenir et ça c'est agaçant.
 
Toi tu prétends que l'archi du R600 est suffisemment bien pensé pour aborder l'ère DX10 sereinement .. sauf que y-a quelques mois on pensait pareil avec DX9. Aujourd'hui tu vois le résultat ..  
 
Pour toi le principal argument du R600 c'est le traitement des GS, hors tout à l'heure tu me dis :
 
""Qui te dis que Crysis exploitera massivement les GS ?""
 
En conclusion même toi tu n'en es pas sûr ..

 
 

Citation :

En tout cas, ça montre que nVidia a excellemment bien joué son coup. Sortir une carte Dx10 qui déchire sous Dx9 (ça, je le nie pas, on est bien d'accord sur ce point) avec, a coté, quelques démos technologiques Dx10 et une ou deux beta de jeux Dx9 patché à la va-vite en Dx10 afin que le consommateur fasse le raccourcis facile "perf de fou en Dx9 == perf de fou en Dx10". Ca montre que nVidia apprends de ses erreurs (NV30 toussa).


 
Je suis persuadé que si le R600 avait "déchiré" le G80 sur ces jeux patchés, tu aurais dis tout le contraire en tentant de prouver la supériorité du R600 sur DX10 et en t'appuyant sur ces tests.  :jap:
 
 

Citation :

A coté de ça, on oublis bien vite les jeux représentatif de ce que donneront les jeux à venir (Dx10 ou non) comme R6V (Unreal Engine 3, quand même, on va le voir très souvent et pas que dans des FPS), TDU, Stalker, Quake 4...
Mes avis que la sortie de Dx11 va être très intéressante ^^


 
C'est marrant, pour toi tous les jeux véritablement représentatifs sont ceux qui, lors des tests donnaient le R600 devant (ou à égalité) avec le G80. Y-en avait d'autre tu sais :lol:  
Au passage t'aurais dû éviter de citer STALKER parceque le R600 se fait descendre.

 

Citation :

Réfléchis deux seconde. Le point faible du R600, c'est le texturing. Hors le Havoc FX fait exclusivement appel au shader. Donc au contraire, ça devrait admirablement bien tourner sur R600, les shaders bridées par le texturing pourront pleinement s'exprimer sur la physique.


 
Moi je dis vive le R600, nan c'est vrai sur le papier elle aligne un G80 .. franchement faut l'acheter  :o
 

Citation :

Pas besoin de R700. L'architecture du R600 a de quoi tenir aussi longtemps que celle du R300. Comme je te l'ai dis, avec seulement 25% de TMU en plus, il arriverait au niveau du G80. Avec 50% en plus, il l'écraserait.


 
Avec des "si" et du conditionnel, on pourrait refaire un R600 10x supérieur au G80. La meilleur réponse que je puisse te donner c'est rdv dans 6mois/1 an  :jap:

Message cité 2 fois
Message édité par vlad drac le 08-06-2007 à 16:36:54
n°5577991
vlad drac
Posté le 08-06-2007 à 16:21:18  profilanswer
 

MacIntoc a écrit :

C'est pas du vent. Tous les tests, sans aucune exceptions, montrent qu'un jeu exploitant très peu le texturing tourne admirablement bien sur un R600 (encore mieux que sur un G80 Ultra), qu'un jeu exploitant massivement les shaders tourne aussi bien sur R600 que sur G80 GTX et qu'un jeu privilégiant le texturing tourne moins bien sur R600 (entre un G80 GTS et un G80 GTX).
Que peut-on conclure de ces résultats ?
Que le R600 a un déficit en texturing.
Conclusion, renforce la puissance en texturing et tu augmentes les perfs dans les jeux privilégiant le texturing, ce qui te permet de rattraper le G80. C'est pas plus compliqué que ça
.


 
Ils sont trop bêtes de ne pas y avoir pensés avant les ingés de chez AMD .. nan c'est vraiment des gros nuls  :o

Message cité 1 fois
Message édité par vlad drac le 08-06-2007 à 16:22:48
n°5578008
mac fly
Posté le 08-06-2007 à 16:33:50  profilanswer
 

vlad drac a écrit :

Ils sont trop bêtes de ne pas y avoir pensés avant les ingés de chez AMD .. nan c'est vraiment des gros nuls  :o


 :D  c'est là ou je voulais en venir, a en lire ses conclusions, les ingés Amd sont des bons à rien, il est "facile" avec l'archi révolutionnaire du R600 de faire un G80 killer...  :pt1cable: , mais bien evidemment chez Amd ils sont trop nul pour ne pas y avoir pensé depuis tout ces mois à bosser sur ce R600 :pt1cable:

n°5578023
Profil sup​primé
Posté le 08-06-2007 à 16:40:20  answer
 

vlad drac a écrit :

[#ff1c00]J'oubliais de préciser .. optimisés sur certains jeux ! (2/3 à tout casser)
 

Citation :

dave3810 a écrit :
 
je rajoute une chose, les premiers jeux dx10 c est pas fin 2008 mais septembre 2007.


 
J'ai dit disponibilité massive dès fin 2008 :p. Hormis ça je sais très bien qu'il y aura 1/2 jeu(x) DX10 à sortir d'ici la fin de l'année.
 
 
 
Je crois que c'est là qu'on arrive pas à se mettre d'accord, pour moi le G80 n'a plus rien a prouver, il tient depuis 7 mois le haut du pavé, il se montre supérieur à la concurrence pourtant sortie beaucoup plus tard, ses performances sont parfois multipliées par deux face au GeForce 7900 GTX ou à l'offre d'ATI (R500), anticrénelage avec HDR, filtrage anisotropique exellent .. bref le G80 n'a pas besoin d'être sauvé .. S'il y a bien une carte aujourd'hui au bord de la tourmente c'est bien le R600 ! Attention de ne pas se tromper de perspective  :jap:  
 
Tu sembles tirer une conclusion du G80 sous DX10 alors que personnes ne connait son potentiel, la seule chose qu'on sait aujourd'hui, c'est qu'il est plus performant que le R600 avec des jeux patchés DX10. Je trouve que tu mises un peu trop sur les spéculations .. ça fait 1 an qu'on fait la même chose sur le R600 alors si t'as le courage de continuer t'en mieux [:airforceone]:

 

Citation :

Y a également l'accès directe au PCI-Express qui facilite et accélère le Stream Computing (a mettre en // avec la plateforme Torrenza qui sera inauguré avec les prochains K10).


 
Quant au GPGPU qui est évidemment le résultat du rachat d'ATI  par AMD, c'est bien beau dans les faits (physique => Havok fx) mais est-ce vraiment pour tout de suite ? Et surtout est-ce vraiment fait pour la HD2900XT .. La pauvre elle souffre déjà beaucoup :sweat:
 
Attendons donc la HD2950XT qui sera très certainement ce qu'aurait dû être le VRAI R600 dès sa sortie  :jap:  
 
Voir carremment le R700 car je me demande comment ils vont réussir à faire ce qui n'a pas déjà pu être fait avec l'actuel R600.


 
 
 
c est pas un ou deux jeux mais dix si ce n est plus, avant la fin de l annee. :o  
 
l utilisation de dx10 n est pas une utopie mais un fait.

Message cité 1 fois
Message édité par Profil supprimé le 08-06-2007 à 16:41:36
n°5578025
seb97133
Posté le 08-06-2007 à 16:40:41  profilanswer
 

vlad drac a écrit :


Au passage t'aurais dû éviter de citer STALKER parceque le R600 se fait descendre.


 
Juste une réctification sur STALKER qui ne se fait pas trop descendre d'après ce test...
http://www.legionhardware.com/docu [...] id=650&p=5
 


---------------
Q6600@3.8GHz / Asus P5E3 WS Pro / 4Go DDR3 G.Skill / HD4870 512Mo / 2*500Go Caviar Black Raid 0 + F3 1To / M12 700W / Full WC - Feed Back
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
MAJ PC ?? Carte Graph + RAMRecherche MAJ du bios de ma carte mère
[topic unique]ATI Radeon HD2900XT (512 Mo et 1 Go)HD2900xt, 8800GT(?) ou attendre la HD2950 annoncée pour aout/sept ?
MàJ PC - Photoshop et PainterMAJ du BiOS impossible
[MàJ] CG nvidia>>northbridge nvidia?[Guide d'achat PC] MAJ 15/02/2022 Pénurie Cartes Graphiques
Nouvelle config, budget serré! [MAJ: URGENT]1Gb Dual Channel ou 2Gb Single Channel ?
Plus de sujets relatifs à : HD2900XT 1GB DDR4 MAJ


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)