Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2839 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  376  377  378  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5529009
Bilout51
Posté le 16-05-2007 à 12:25:31  profilanswer
 

Reprise du message précédent :

kikou a écrit :

"a vendu", "j'ai entendu dire que", "il semblerait que".
Moi je t'ai sorti la liste de prix actuel sans promotion des GTS 640, au mieux elles sont au même prix que la HD2900XT.
Si les prix se normalisent a 340€ la chanson sera différente et il faudra que AMD réagisse en baissant le prix au moins au même niveau que la concurrente direct de sa carte.
Sans compter que le bundle de la albatron devait etre bien nase en comparaison avec celui des 2900XT


 
a vraiment vendu, je l'ai constaté en temps réel.
 
et top achat a vendu hier soir des leadtek à 360€, je le sais, je me suis fait un panier avec la carte en stock, je suis parti dîner et après, plus rien, DMC... :cry:  
 
donc, ce n'est pas de l'utopie ces offres, faut juste être très rapide!!!


Message édité par Bilout51 le 16-05-2007 à 12:27:21

---------------
Feed-back  -  Topic de vente Hardware
mood
Publicité
Posté le 16-05-2007 à 12:25:31  profilanswer
 

n°5529010
kozzi
Posté le 16-05-2007 à 12:25:49  profilanswer
 

kikou a écrit :

Effectivement les prix en allemagne sont plus sympas, maintenant faut aimer acheter une carte avec une garantie proche de 0 :/


 
C'est pour ca que j'ai pris eVga (garantie 10 ans constructeur)
 
Pour la garantie, ils ont un support et un SAV hors concours.
Tu peux traiter direct avec eux et ils sont bien pros


Message édité par kozzi le 16-05-2007 à 12:26:26
n°5529012
Profil sup​primé
Posté le 16-05-2007 à 12:26:58  answer
 

+1000 Evga top !!

n°5529020
aeryon
à 300km/h
Posté le 16-05-2007 à 12:30:26  profilanswer
 

AMD qui pleure sur la demo DX10 Lost planet sortie aujourd'hui qui avantagerait Nvidia alors qu'il a fait pareil la semaine derniere avec Call of Juarez. Priceless  [:shinji_kun64]  
 
http://www.theinquirer.net/default.aspx?article=39647

n°5529023
Gigathlon
Quad-neurones natif
Posté le 16-05-2007 à 12:30:33  profilanswer
 

J'ose même pas imaginer ceux qui se sont rué sur des 8800gts dans l'optique "investissement" si dans quelques mois les défauts du G80 se révèlent... :/

n°5529024
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 12:32:10  profilanswer
 

aeryon a écrit :

AMD qui pleure sur la demo DX10 Lost planet sortie aujourd'hui qui avantagerait Nvidia alors qu'il a fait pareil la semaine derniere avec Call of Juarez. Priceless  [:shinji_kun64]  
 
http://www.theinquirer.net/default.aspx?article=39647


Ils n'ont qu'à sortir des pilotes au point.  
 
Feraient mieux de se faire petits et de bosser sur une rev du R600 plutôt que de conseiller des alim 1000w et venir râler :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5529027
Tiou62
Posté le 16-05-2007 à 12:32:53  profilanswer
 

Kyosh1ro a écrit :

Bizarre, moi j'ai une x1950 Pro, et ça marche depuis le début, jamais eu de problème...
 
Le problème c'est peut être pas le pilote, faudrais te remettre en question....


 
Je viens de tester à l'instant, et en choisissant "Utiliser les réglages centrés" avec un résolution 1024x768 sur un écran 1280x1024, l'image reste malgré tout sur tout la surface de l'écran.

n°5529028
Kyosh1ro
...
Posté le 16-05-2007 à 12:33:16  profilanswer
 

aeryon a écrit :

AMD qui pleure sur la demo DX10 Lost planet sortie aujourd'hui qui avantagerait Nvidia alors qu'il a fait pareil la semaine derniere avec Call of Juarez. Priceless  [:shinji_kun64]  
 
http://www.theinquirer.net/default.aspx?article=39647


 
Je viens de tester la démo dx9, rien que ça c'est un gouffre de perfs... :D  
 
Ma config a pas été capable de faire tourner la démo aux réglages par défaut (1280x720, détails haut/moyen, aucun filtrages) à plus de 25-30fps... (avec des belles baisses à 10fps qui interviennent souvent...)


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529029
Kyosh1ro
...
Posté le 16-05-2007 à 12:33:47  profilanswer
 

Tiou62 a écrit :

Je viens de tester à l'instant, et en choisissant "Utiliser les réglages centrés" avec un résolution 1024x768 sur un écran 1280x1024, l'image reste malgré tout sur tout la surface de l'écran.


Bah je croyais que tu l'avais revendue au bout de 2 semaines...?


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529031
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 12:34:23  profilanswer
 

Gigathlon a écrit :

J'ose même pas imaginer ceux qui se sont rué sur des 8800gts dans l'optique "investissement" si dans quelques mois les défauts du G80 se révèlent... :/


La même avec le R600 hein.  
Sauf que ceux qui ont pris un G80 y a 6 mois ont eu le temps de bien faire mumuse avec :p
 
Franchement, DX10, que ce soit R600 ou G80, on n'en sait rien, mais amha c'est un peu naif de s'imaginer profiter de DX10 avec la première fournée de gpu DX10.
 
Une tite carte bien perf DX9, en attendant la deuxième fournée gpu DX10, devrait suffire comme solution de transition :o


Message édité par god is dead le 16-05-2007 à 12:36:00

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 16-05-2007 à 12:34:23  profilanswer
 

n°5529032
Profil sup​primé
Posté le 16-05-2007 à 12:35:02  answer
 

vivement que je le test !!
cest chiant jai pas Vista pour tester DX10 !!
mais en meme temps ça me saoul de me l'acheter et de l'installer pour le moment.

n°5529033
aeryon
à 300km/h
Posté le 16-05-2007 à 12:35:26  profilanswer
 

Gigathlon a écrit :

J'ose même pas imaginer ceux qui se sont rué sur des 8800gts dans l'optique "investissement" si dans quelques mois les défauts du G80 se révèlent... :/


ooooh faut arreter la mauvaise foi hein  :o  
quels defauts du G80 sont veritablement genants ? et en toute honnetete ne crois tu pas que les quelques defauts du G80 sont minimes par rapport aux gros problemes du R600 ? Quelle archi est la plus efficace aujourd'hui ? Quelle est celle qui est le plus equilibree ? quelle est celle qui offre de meilleures perfs et homogenes en plus ? quelle est celle qui chauffe moins ? quelle est celle qui consomme moins ?  
 
enfin bref, la desinformation ca va un peu mais a un moment faut arreter ou ca devient penible  [:schimble]

Message cité 2 fois
Message édité par aeryon le 16-05-2007 à 12:42:40
n°5529036
kozzi
Posté le 16-05-2007 à 12:37:42  profilanswer
 

Gigathlon a écrit :

J'ose même pas imaginer ceux qui se sont rué sur des 8800gts dans l'optique "investissement" si dans quelques mois les défauts du G80 se révèlent... :/


 
J'ai attendu le R600 pour faire un choix.
Ce que j'en retire c'est qu'en fait le meilleur choix est d'attendre la génération suivante.
 
Cependant ayant une 7950 gx2, j'ai vraiment envie de changer tout de suite (marre des drivers en bois)
Mon choix s'est porté sur une evga 8800 gts après réflexion pour avoir une carte "temporaire" homogène dans les jeux actuels et d'avoir la possibilité d'évoluer avec le step up d'evga si le besoin s'en fait sentir.
 
Ce n'est nullement un investissement pour moi.


Message édité par kozzi le 16-05-2007 à 12:39:34
n°5529037
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 12:38:14  profilanswer
 

C'est effectivement intéressant de parler des défauts du G80, alors que son concurrent n'est pas capable de faire mieux, loin de là.
Avec 6/7 mois de retard, précisons-le.
 
Alors, qui des deux est le plus en difficulté ?
 
:d


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5529040
ema nymton
Posté le 16-05-2007 à 12:41:16  profilanswer
 

aeryon a écrit :

ooooh faut arreter un moment la mauvaise foi hein  :o  
quels defauts du G80 sont veritablement genants ? et en toute honnetete ne crois tu pas que les quelques defauts du G80 sont minimes par rapport aux gros problemes du R600 ? Quelle archi est la plus efficace aujourd'hui ? Quelle est celle qui est le plus eaquilibree ? quelle est celle qui offre de meilleures perfs et homogenes en plus ? quelle est celle qui chauffe moins ? quelle est celle qui consomme moins ?  
 
enfin bref, la desinformation ca va un peu mais a un moment faut arreter ou ca devient penible  [:schimble]


Sauf qu'il y a G80 et G80.
La 8800GTX est une très bonne carte qui semble bien armée pour le moyen terme.
La 8800GTS et a fortiori la 320Mo montrent déjà certaines limites et se font même talonner par la genration precedente.

n°5529045
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 12:44:39  profilanswer
 

Ca marche pas comme ça.
 
La x1950xtx n'est plus un choix, puisque vendue à plus de 300 euros, alors que la GTS 320 est moins cher et souvent meilleure, silence en prime.
 
Une carte moyen/haut de gamme qui fait mieux que le haut de game de l'ancienne génération de son concurrent, tout étant moins cher, c'est pas mal du tout...
 
Le G80 est bien placé au vue de l'offre actuelle.
Le G84 est par contre vraiment cramé, et j'ai peur que les HD X2600 le soient aussi :o


Message édité par god is dead le 16-05-2007 à 12:45:10

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5529062
ema nymton
Posté le 16-05-2007 à 12:52:03  profilanswer
 

Sauf que je ne mettrais pas 300 euros ou plus dans une carte dx10 si je ne suis pas certain qu'elle ne va pas s'effondrer le premier jeu dx10 venu.
 
Et je ne mettrai pas non plus 300 euros dans une carte très perf en dx9 seulement.
 
Donc au jour d'aujourd'hui les 8800gts ne sont pas vraiment un choix raisonnable (pour moi). Et je ne dis pas que la 2900xt l'est aussi, car pareil on n'a pas vraiment de visibilité dans le futur.
 
Le seul "investissement" est la 8800GTX (mais hors de prix) ou alors une bonne cg dx9 aux environs de 150-200e pour patienter encore.

n°5529071
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 12:55:18  profilanswer
 

T'as la X1950 XT à 170 euros, qui est sans aucun doute l'affaire du moment, le problème du bruit se résout pour 18 euros.
 
On veut du R600 comme ça :o


Message édité par god is dead le 16-05-2007 à 12:56:52

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5529075
Kyosh1ro
...
Posté le 16-05-2007 à 12:57:25  profilanswer
 

Testd e Lost Planet en dX10 :  
http://img.clubic.com/photo/00501071.jpg
 
Ce qui me fait monstrueusement flipper en voyant ça, c'est que Optimisation nVidia il y a, que ça mette ou pas en galere la 2900xt je m'en fout, mais un jeu fait avec nVidia et optimisé avec ces cartes à 500/700€ n'est même pas jouable en 1600x1200... :ouch:  
 
Vous comprenez pourquoi j'ai fait le choix du Multi GPU en vue de Crysis...? :D

Message cité 1 fois
Message édité par Kyosh1ro le 16-05-2007 à 13:02:47

---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529080
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 13:00:33  profilanswer
 

T'as pas mal de jeux moisis qui ne mettent à mal n'importe quel GPU dès que tu mets les filtres (même en 1280), genre Call Of Juarez :d


Message édité par god is dead le 16-05-2007 à 13:01:23

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5529083
geof
Posté le 16-05-2007 à 13:02:07  profilanswer
 

Kyosh1ro a écrit :

http://img.clubic.com/photo/00501071.jpg
 
Ce qui me fait monstrueusement flipper en voyant ça, c'est que Optimisation nVidia il y a, que ça mette ou pas en galere la 2900xt je m'en fout, mais un jeu fait avec nVidia et optimisé avec ces cartes à 500/700€ n'est même pas jouable en 1600x1200... :ouch:  
 
Vous comprenez pour quoi j'ai fait le choix du Multi GPU en vue de Crysis...? :D


oui bon il faut quand même garder à l'esprit que ces jeux doivent se vendre donc si ils ne tournaient pas avec la carte la plus puissante sur le marché, ceux-ci s'adresseraient à qui ??
forcément les jeux seront optimisés pour tourner avec ces cartes :jap:

n°5529084
amdvsintel
Posté le 16-05-2007 à 13:02:16  profilanswer
 

@Kyosh1ro : Si il faut payer près de 1000€ voir plus pour jouer à crysis... :D

n°5529086
Profil sup​primé
Posté le 16-05-2007 à 13:02:52  answer
 

cest lourd les developpeurs qui programme mal leurs jeux !!
il faut obligatoirement une grosse config de la mort pour y jouer alors que si ils avaient un temps soit peu optimisé une config moyen gamme pourrait suffir !!

n°5529087
Kyosh1ro
...
Posté le 16-05-2007 à 13:03:27  profilanswer
 

amdvsintel a écrit :

@Kyosh1ro : Si il faut payer près de 1000€ voir plus pour jouer à crysis... :D


Bah à la vue des tests, et le fait que je joue en 1920x1200, oui je vais pas être loin de ça oui... :D


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529089
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 13:04:09  profilanswer
 

geof a écrit :

oui bon il faut quand même garder à l'esprit que ces jeux doivent se vendre donc si ils ne tournaient pas avec la carte la plus puissante sur le marché, ceux-ci s'adresseraient à qui ??
forcément les jeux seront optimisés pour tourner avec ces cartes :jap:


Oué mais non, des jeux qui mettent à mal des gpu à 150/200 euros dés le 1024, ce n'est pas rare :o
 
Des HL2 like t'en as pas bcp :/

Message cité 1 fois
Message édité par god is dead le 16-05-2007 à 13:05:29

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5529091
amdvsintel
Posté le 16-05-2007 à 13:05:00  profilanswer
 

On nous prend vraiment pour des cons j'ai l'impression....enfin,j'espere que crysis sera bien opti' :D

n°5529096
Kyosh1ro
...
Posté le 16-05-2007 à 13:07:54  profilanswer
 

amdvsintel a écrit :

On nous prend vraiment pour des cons j'ai l'impression....enfin,j'espere que crysis sera bien opti' :D


+1 c'est pour ça que j'en attends beaucoup des prochaines cartes genre R650 ou G90...
 
Parce que apparemment, tout du moins c'est mon avis, l'argument marketing "compatible dX10" a bien servi à refourguer des cartes puissantes sous dX9, les clients se disaient que ça allait être pareil...
 
Mais quand on voit Call of Juarez ou Lost Planet en dX10, y'a pas une seule des cartes actuelles qu'est foutue de faire tourner ça correctement...


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529098
Gigathlon
Quad-neurones natif
Posté le 16-05-2007 à 13:08:26  profilanswer
 

aeryon a écrit :

ooooh faut arreter la mauvaise foi hein  :o  
quels defauts du G80 sont veritablement genants ? et en toute honnetete ne crois tu pas que les quelques defauts du G80 sont minimes par rapport aux gros problemes du R600 ? Quelle archi est la plus efficace aujourd'hui ? Quelle est celle qui est le plus equilibree ? quelle est celle qui offre de meilleures perfs et homogenes en plus ? quelle est celle qui chauffe moins ? quelle est celle qui consomme moins ?  
 
enfin bref, la desinformation ca va un peu mais a un moment faut arreter ou ca devient penible  [:schimble]


J'ai oublié de préciser 2 petits détails:
 
- qui se sont rué sur des 8800gts après parution des permiers benchs de la 2900xt
- et sous-entendu, si les défauts du G80 se révèlent nettement plus handicapants que ceux du R600 dans les mois qui viennent
 
C'est après relecture d'un passage dans l'article de Damien que j'ai pensé à ça, puisqu'un détail m'a fait penser à un remake du NV30 (heureusement, sur un seul aspect):
 

Citation :

AMD évite ce problème grâce à cet accès caché à la mémoire vidéo. Nvidia doit bien entendu l'éviter également, il n'y a pas d'autre solution. Par contre l'approche d'après notre interprétation des explications de Nvidia est très différente. Nvidia prendrait ainsi le problème dans l'autre sens et au lieu de proposer plus de mémoire pour stocker les données avant de rétablir l'ordre, Nvidia réduirait le nombre d'éléments traités en parallèles à un nombre qui permette toujours d'avoir assez de mémoire dans le GPU. Autrement dit au lieu de pouvoir utiliser les 128 processeurs en parallèle pour traiter un geometry shader, si Nvidia détecte qu'il peut y avoir un problème ce nombre doit être réduit. Quel est le cas le moins favorable ? 16 processeurs ? 8 processeurs ? 1 processeur ? Et les autres processeurs peuvent-ils travailler à une autre tâche pendant ce temps ou sont ils en attente ?


 
Ce qui freinait vraiment le NV30, c'était un manque de registres, et là encore ça ressemble à une limitation forte...

n°5529103
geof
Posté le 16-05-2007 à 13:09:58  profilanswer
 

god is dead a écrit :

Oué mais non, des jeux qui mettent à mal des gpu à 150/200 euros dés le 1024, ce n'est pas rare :o
 
Des HL2 like t'en as pas bcp :/


on est d'accord pour le milieu/bas de gamme mais je doute que les premiers jeux DX10 ne tournent pas sous un R600 ou une 8800GTX/GTS 640 ...

n°5529104
sasuke87
Posté le 16-05-2007 à 13:11:00  profilanswer
 

god is dead a écrit :

1)La x1800xt a toujours eu des perfs nettement supérieures à la 7800gtx (256), je vois pas comment cette dernière pourrait maintenant faire mieux.
 
 2)Et tu dis que l'archi ne pause pas en principe problème, pourtant elle en pose réellement avec les jeux lourds, telle que NFS Carbon, Call Of Juarez, Gothic 3, COH etc.
 
 3)Pourquoi crois-tu que le R580 soit sortit peu de temps après le R520 ?
Parce que ATI avait merdé son R520 niveau puissance de calcul, ce qui indique que les jeux futurs nécessiteraient une archi gpu efficace à ce niveau, et c'est effectivement le cas.


 
1) justement l'archi du R520 semblait moins bonne que celle du g71 pour les jeux récents et le temps prouve que ce n'est pas le cas.
 
2) Je n'ai pas dis que cette archi ne posait pas de problème, c'est juste que les drivers ont permis d'avoir de bonnes prestations par rapport à la concurrence. Et quand je regarde les perfs de la x1800xt sur les jeux que tu cites, elles sont très proches de celle d'une 7900GTX voire identiques. Encore une fois ça dépend avec quoi tu compares les perfs de cette carte, si c'est avec le R580, là effectivement il y a un soucis mais si c'est avec le g71, là elle se défends très bien. Le constat sera probablement le même avec le duel R600 vs g80.  
 
3)  Si le R580 est sortie si peu de temps après, c'est juste parce que le R520 était en retard. Le problème d'archi est secondaire (vu qu'il n'hanidcapait pas les perfs par rapport à nvidia), c'est plutôt le planning qu'il fallait respecter.
 

Message cité 1 fois
Message édité par sasuke87 le 16-05-2007 à 13:23:41
n°5529105
Kyosh1ro
...
Posté le 16-05-2007 à 13:12:44  profilanswer
 

geof a écrit :

on est d'accord pour le milieu/bas de gamme mais je doute que les premiers jeux DX10 ne tournent pas sous un R600 ou une 8800GTX/GTS 640 ...


Bah en tout cas les premieres démos ça tourne pas... :D


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529125
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 13:22:47  profilanswer
 

sasuke87 a écrit :

1) justement l'archi du R520 semblait moins bonne que celle du g71 pour les jeux récents et le temps prouve que ce n'est pas le cas.
 
2) Je n'ai pas dis que cette archi ne posait pas de problème, c'est juste que les drivers ont permis d'avoir de bonnes prestations par rapport à la concurrence. Et quand je regarde les perfs de la x1800xt sur les jeux que tu cites, elles sont très proches de celle d'une 7900GTX voire identiques. Encore une fois ça dépend avec quoi tu compares les perfs de cette carte, si c'est avec le R580, là effectivement il y a un soucis mais si c'est avec le g71, là elle se défends très bien. Le constat sera probablement le même avec le duel R600 vs g80.  
 
3)  Si le R580 est sortie si peu de temps après, c'est juste parce que le R520 était en retard. Le problème d'archi est secondaire, c'est plutôt le planning qu'il fallait respecter.


L'archi R520 a toujours été jugé plus avancé que celle du G70 (le G71 est venu après le R580), ce qui posait problème, encore est tjrs, c'était les drivers et à moyen terme la faible puissance calcul.
Mais à l'époque on ne savait pas comment aller se comporter les archis avec les jeux de maintenant, notamment parce que la gestion des branchements est de loin supérieure sur le R520.
 
Le R580 est sortie si vite pour remédier aux problèmes du R520.
La seule différence avec le R520, c'est l'augmentation du nombre de PS Pipeline, et quelques ptite optis, comme le Fetch4. Le reste est identique.
 
Le R520 était une solution viable à court terme, et de toute façon déja battue par la 7800 gtx 512.
 
Même si le G70/71 n'est pas vraiment meilleur que le R520 avec les jeux du moment, le fait est que les deux ne sont pas suffisants, d'où le R580.
Si les x1900/1950 sont très souvent devant leurs concurrents G71 ce n'est pas pour rien, la puissance de calcul combinée à l'archi R520 aidant bcp.
 
/HS.


Message édité par god is dead le 16-05-2007 à 13:26:49

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5529134
aeryon
à 300km/h
Posté le 16-05-2007 à 13:26:42  profilanswer
 

Gigathlon a écrit :

J'ai oublié de préciser 2 petits détails:
 
- qui se sont rué sur des 8800gts après parution des permiers benchs de la 2900xt
- et sous-entendu, si les défauts du G80 se révèlent nettement plus handicapants que ceux du R600 dans les mois qui viennent
 
C'est après relecture d'un passage dans l'article de Damien que j'ai pensé à ça, puisqu'un détail m'a fait penser à un remake du NV30 (heureusement, sur un seul aspect):
 

Citation :

AMD évite ce problème grâce à cet accès caché à la mémoire vidéo. Nvidia doit bien entendu l'éviter également, il n'y a pas d'autre solution. Par contre l'approche d'après notre interprétation des explications de Nvidia est très différente. Nvidia prendrait ainsi le problème dans l'autre sens et au lieu de proposer plus de mémoire pour stocker les données avant de rétablir l'ordre, Nvidia réduirait le nombre d'éléments traités en parallèles à un nombre qui permette toujours d'avoir assez de mémoire dans le GPU. Autrement dit au lieu de pouvoir utiliser les 128 processeurs en parallèle pour traiter un geometry shader, si Nvidia détecte qu'il peut y avoir un problème ce nombre doit être réduit. Quel est le cas le moins favorable ? 16 processeurs ? 8 processeurs ? 1 processeur ? Et les autres processeurs peuvent-ils travailler à une autre tâche pendant ce temps ou sont ils en attente ?


 
Ce qui freinait vraiment le NV30, c'était un manque de registres, et là encore ça ressemble à une limitation forte...


le gros argument en bois  [:shinji_kun64]  
et comme d'hab tu quotes que ce qui t'interesses. dans le meme article, plus loin :

Citation :

L'architecture HD2000 semble également mieux adaptée aux traitements de geometry shaders lourds dans DirectX 10, tout du moins si notre analyse du GeForce 8800 est correcte à ce niveau. Reste que nous ne savons pas encore ce que les développeurs vont en faire. Si par exemple le Radeon HD 2900 est 10x plus rapide à ce niveau, mais que cela ne représente que 5% de la charge globale d'une scène, la situation ne sera pas dramatique pour le GeForce 8800. Difficile donc sans plus d'information de donner un avantage à la puce d'AMD avec la nouvelle API de Microsoft.


 
Si on compare la charge dediee aux GS par rapport aux operations totales necessaires aux rendus d'une image 3D, du CPU au ROP, ca ne represente qu'une faible partie, donc l'impact ne sera pas enorme sur les perfs. Cette limitation est pratiquement la seule de l'archi du G80 par rapport au R600, qui lui bcp d'autres problemes bien plsu importants :
- perfs instancing tres faibles
- branchements pas meilleurs que le R580 et bcp en dessous du G80
- texturing a la rue
- ROP bugge qui fait s'effrondrer les perfs en AA et qui pose de GROS problemes de drivers
 
desole mais comparativement, ca fait BEAUCOUP de soucis pour le R600 (et je parle pas de chaleur ni de conso). Si je devais aujourd'hui parier sur la perennite d'une carte, l'archi G80 est AMHA bien meilleure...

n°5529144
spountz
Posté le 16-05-2007 à 13:30:13  profilanswer
 

loul pb de conso, pb de pilotes buggés, perfs merdiques ... ( et 7 mois de retard :D ) que demande le peuple ? :o

n°5529146
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 13:31:26  profilanswer
 

J'aime pas trop les analogies à la con avec le NV30, surtout qu'elle n'a pas lieu d'être ici.
 
Du même acabit, le R600 est un second R520, buggé en prime.
C'est tout aussi idiot.
 
Si chacun choisit ce qui lui convient, et base sa théorie sur des "si, peut être que, souviens-toi du NV30 !", ça devient du Nostradamus version hadware.
 
Moi je regardes les faits, pas ce qu'il pourrait se passer, ou pas.

Message cité 1 fois
Message édité par god is dead le 16-05-2007 à 13:33:43

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5529150
fragme-i'm​famous
Posté le 16-05-2007 à 13:32:20  profilanswer
 

Citation :

loul pb de conso, pb de pilotes buggés, perfs merdiques ... ( et 7 mois de retard : ) que demande le peuple ? :


 
Un R600 :D


Message édité par fragme-i'mfamous le 16-05-2007 à 13:32:56
n°5529151
sasuke87
Posté le 16-05-2007 à 13:32:37  profilanswer
 

god is dead a écrit :

J'aime pas trop les analogies à la con avec le NV30, surtout qu'elle n'a pas lieu d'être ici.
 
Du même acabit, le R600 est une second R520, buggé en prime.
C'est tout aussi idiot.
 
Si chacun choisit ce qui lui convient, et base sa théorie sur des "si, peut être que, souviens-toi du NV30 !", ça devient du Nostradasmus version hadware.
 
Moi je regardes les faits, pas ce qu'il pourrait se passer, ou pas.


 
OK alors dans ce cas je suis d'accord  :jap:

n°5529156
sasuke87
Posté le 16-05-2007 à 13:34:58  profilanswer
 

aeryon a écrit :

le gros argument en bois  [:shinji_kun64]  
et comme d'hab tu quotes que ce qui t'interesses. dans le meme article, plus loin :

Citation :

L'architecture HD2000 semble également mieux adaptée aux traitements de geometry shaders lourds dans DirectX 10, tout du moins si notre analyse du GeForce 8800 est correcte à ce niveau. Reste que nous ne savons pas encore ce que les développeurs vont en faire. Si par exemple le Radeon HD 2900 est 10x plus rapide à ce niveau, mais que cela ne représente que 5% de la charge globale d'une scène, la situation ne sera pas dramatique pour le GeForce 8800. Difficile donc sans plus d'information de donner un avantage à la puce d'AMD avec la nouvelle API de Microsoft.


 
Si on compare la charge dediee aux GS par rapport aux operations totales necessaires aux rendus d'une image 3D, du CPU au ROP, ca ne represente qu'une faible partie, donc l'impact ne sera pas enorme sur les perfs. Cette limitation est pratiquement la seule de l'archi du G80 par rapport au R600, qui lui bcp d'autres problemes bien plsu importants :
- perfs instancing tres faibles
- branchements pas meilleurs que le R580 et bcp en dessous du G80
- texturing a la rue
- ROP bugge qui fait s'effrondrer les perfs en AA et qui pose de GROS problemes de drivers
 
desole mais comparativement, ca fait BEAUCOUP de soucis pour le R600 (et je parle pas de chaleur ni de conso). Si je devais aujourd'hui parier sur la perennite d'une carte, l'archi G80 est AMHA bien meilleure...


 
Pourtant dans les jeux les plus lourds actuels, la HD 2900xt est plus proche d'une GTX que d'une GTS, avec les drivers que nous connaissons... sauf peut être avec Stalker.

n°5529161
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 13:36:45  profilanswer
 

Pas vraiment, t'as pleins de jeux lourds là, elle n'est pas vraiment du niveau d'une GTX.
http://www.computerbase.de/artikel [...] _anno_1701
 
Sauf si jeux lourds = jeux issuent de la Box :d

Message cité 1 fois
Message édité par god is dead le 16-05-2007 à 13:38:52

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5529162
aeryon
à 300km/h
Posté le 16-05-2007 à 13:37:37  profilanswer
 


je prefere ce test :
http://www.legitreviews.com/article/505/3/
car bon pousser le premier jeu DX10 a fond pour voir que ca donne du 10fps, c'est un peu caricatural et on a l'impression qu'on peut pas y jouer. Il aurait fallu au moins mettre les benchs en mode normal.  hors on sait tous que les premiers jeux d'une nouvelle API mettent souvent a genou le hardware dispo. Il faut generalement attendre une nouvelle gen/refresh de GPU pour mettre toutes les options a fond.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  376  377  378  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)