Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3352 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  359  360  361  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5526616
Gigathlon
Quad-neurones natif
Posté le 15-05-2007 à 16:15:37  profilanswer
 

Reprise du message précédent :

aeryon a écrit :

je crois que tu n'as compris le probleme. Le R600  est 30 a 40% en dessous des capacites de son archi. Avec un peu plus de TMU et un ROP AA fonctionnel, le R600 serait le killer de G80 tant attendu et pas devoir batailler avec une GTS bien inferieure sur le papier.
Manque de bol, le R600 est bugge, donc AMD est oblige de patcher comme un fou tous les jeux pour contourner les problemes/limitations hardware ce qui n'est pas bon signe du tout pour la perennite de la carte.


 

aeryon a écrit :

l'article confirme 2 choses sur le R600 :
les unites de texturing trop faibles
unites de rasterization bugges ce qui oblige le R600 a appliquer l'anti-aliasing via les shaders (et ca pue du cul)
 
ca explique les perfs en dent de scie, car AMD doit s'assurer que chaque AA de chaque jeu fonctionne avec leur shader AA de remplacement de la fonction hardware qui est buggee. En fait le driver essaye de contourner le probleme hardware en remplacant l'operation ROP AA (defectueux) par des calculs de shaders differemment pour chaque jeu afin d'optimiser au mieux l'utilisation (load balancing) des ressources VS disponibles. J'ose pas imaginer comment les devs des drivers doivent se casser la tete en ce moment... En plus ca veut dire que chaque nouveau jeu qui va sortir aura potentiellement un probleme de AA et qu'il faudra attendre le fix driver pour ameliorer les perfs. Enfin, lorsque AMD abandonnera le support des R600, ca va pas etre cool pour les acheteurs...
 
bref, je crois que maintenant c'est clair, vivement le R650  :pfff:


En fait je suis pas vraiment d'accord avec tout ça... :o  
 
1- Non, le R600 n'est pas un "killer de G80", sauf à voir les défauts de l'archi G80 se révéler (d'après les slides nVidia et les quelques infos qu'on a, ça se résume à la présence de 3 schedulers se partageant le pool de SP là où le R600 regroupe tout dans un scheduler général comme les R500, l'obligation d'avoir un nombre important d'Ops identiques traitables en parallèle - même si c'est à priori systématique pour un GPU - et pour finir la dépendance des SP vis à vis des unités de texturing, absente dans le R600 qui est donc bien plus "découplé" sous tous les aspects)  
 
2- Utiliser les SP pour faire l'AA n'a qu'une incidence faible si on l'intègre bien, d'autant plus faible que leur taux d'occupation est faible, un taux bas étant justement le "risque" dans un cas comme dans l'autre. Si on prend des cas habituels, on aura 3-4 SP utilisés en parallèle au sein du R600, le dernier (ou les 2 derniers) pouvant accueillir la phase finale "MSAA" de son thread précédent qui se voit donc masquée. La baisse de perfs énorme tend à indiquer qu'au contraire l'efficacité serait bonne mais pas l'implémentation dudit shader de post-processing "MSAA".
 
 
Bon, maintenant y'a une chose qui est certaine, c'est que chez AMD aussi bien les ingés que les programmeurs tireront forcément des enseignements de la situation à laquelle ils doivent faire face avec ce R600, ce qui peut les amener à trouver des "tricks" bien grassouillets comme l'optimisation de l'AA dans Serious Sam 2, permettant de dépasser la 8800U en partant d'un niveau inférieur à la 8800GTS sans AA :whistle:

mood
Publicité
Posté le 15-05-2007 à 16:15:37  profilanswer
 

n°5526620
Activation
21:9 kill Surround Gaming
Posté le 15-05-2007 à 16:16:33  profilanswer
 

god is dead a écrit :

Oui, le R600 sera efficient avec les hits X-Box 360 versions PC, vu que son archi en est fortement inspiré.
 
Reste à voir ce que pourra faire le G80, mais pour l'instant il n'est pas largué.


 
 
tu prend un crysis plutot sympa niveau texture... à mon avis la 8800 serait devant le 2900
 
enfin comme d hab si tu veut le meilleur dans tout les jeu te faut 1 ati + 1 nvidia car ça change d un jeu à l autre aucun n a la supprematie ultime
 
m enfin t en que ça tourne à 60i/s pour fps et 30i/s pour un rts  :D

n°5526623
kyky
Je suis newbie et alors,
Posté le 15-05-2007 à 16:17:24  profilanswer
 

Perso j'avais deja fait le choix avant les tests , donc je mis colle (en faite le l'avait commande avant :D )

n°5526630
Marc
Chasseur de joce & sly
Posté le 15-05-2007 à 16:19:09  profilanswer
 

AbelJemka a écrit :

Marc tu pourrait repondre à ma question de ce matin sur le panel de jeu. Pourquoi autant de FPS? Et pourquoi des jeux "aussi vieux"?. 5 datent de 2005 alors que 2 sur les 5 possedent un addon plus recents et plus exigeant (FEAR et Half Life). De plus pas de jeux stars du moment genre COH ou Titan Quest (j'ai lu l'article sur SupCom dont je ne le cites pas :) ). Enfin pourquoi Vista?

C'est Damien qui met au point les protocoles pour les GPU et selectionne les jeux, l'ancienneté du jeu n'est pas le seul critère, un jeu récent n'as pas forcément un moteur plus interressant. De même le type de jeu n'est pas le critère primordial (par ex intégrer un simulateur de vol est ajd'hui compliqué, rien de bien interressant, donc à moins d'intégrer juste pour le "principe", bof).
 
Mais je pense que cet été sera l'occasion de revenir sur ces deux architectures avec des drivers plus aboutis sur un éventail plus large de jeux, avec en sus des sorties récentes des nouveautées à venir qui seront interressantes, que ce soit en DX10 mais aussi en DX9 dans des domaines parents pauvres comme la simu auto (Colin Mc Rae Dirt par ex.) ou la simu de vol (Storm of War). Et pour les RTS p-e que le prochain gros patch de SUPCOM qui se fait attendre permettra de l'utiliser correctement pour bench, ce qui serait interressant étant donné son comportement particulier.
 
Vista, car les GPU sont destinés à être utilisés sur des machines tournant sous Vista à moins de vouloir se priver de DX10 (si on avait testé sous XP, on aurait demandé pourquoi XP :D ). Au passage en dehors de cas très spécifiques les écarts sont désormais mineurs.

n°5526635
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2007 à 16:20:35  profilanswer
 

Activation a écrit :

tu prend un crysis plutot sympa niveau texture... à mon avis la 8800 serait devant le 2900
 
enfin comme d hab si tu veut le meilleur dans tout les jeu te faut 1 ati + 1 nvidia car ça change d un jeu à l autre aucun n a la supprematie ultime
 
m enfin t en que ça tourne à 60i/s pour fps et 30i/s pour un rts  :D


Personnellement, je ne sais pas de quoi sera fait Crysis.
 
Impossible de dire qui du G80 ou du R600 sera le meilleur.
 
Le R600 pourrait être sympa avec les filtres, mais si la BP énorme est bridée par les ROPs ou par les unité de filtrage (ou par des drivers moisis au choix :d), ça va pas trop le faire.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5526638
Activation
21:9 kill Surround Gaming
Posté le 15-05-2007 à 16:20:51  profilanswer
 

sniper 46 a écrit :

même tout le temps j'dirais ^^ à part les HD2600 ... La HD2900xtx ne sortira jamais.
 
NVidia sort normalement son G90 à la rentré 2007 ... faudra éspère qu'Ati sorte un bon produit avec son R650


 
 
nvidia n a jamais lancé un haut de gamme à une rentrée scolaire
 
en général ça tourne toujours vers oct-novembre avant noel... histoire de faire ouvrir plus facilement les porte feuille  :D  
 
la question étant vu que nvidia semble surtout attendre le 65nm mature pour sont G90 qui je pense bien doit être finit depuis un moment sur la "planche à dessin"
 
vont ils attendre le 65nm ou se résigner à faire du 80nm (vu qu il utilise du 80nm pour les 8500 et 8600)
 
car le G90 risque d etre une reponse à un R650 plutot qu un R700

n°5526639
kaiser52
Posté le 15-05-2007 à 16:21:46  profilanswer
 

Citation :


Personnellement, je ne sais pas de quoi sera fait Crysis.
 
Impossible de dire qui du G80 ou du R600 sera le meilleur.
 
Le R600 pourrait être sympa avec les filtres, mais si la BP énorme est bridée par les ROPs ou par les unité de filtrage (ou par des drivers moisis au choix :d), ça va pas trop le faire.


 
Driver Moisis ?? en Septembre 2007 ?? soit 4 mois apres.
Je pense que la se sera al carte et pas les pilotes !

n°5526642
ronin31000
Posté le 15-05-2007 à 16:21:57  profilanswer
 


 
 
Bein j espere bien que la  :love: 8800 gtx  :love: le fera bien sous crysis aussi merde!  :bounce:  :ouch:  :ouch:  
 
 :sol:

n°5526643
Profil sup​primé
Posté le 15-05-2007 à 16:22:07  answer
 

bonk1 a écrit :

Pour faire simple :
- vous voulez jouer en silence sans perdre votre garantie et rajouter 40€-> Nvidia
- vous voulez les meilleures perfs -> ATI
- vous voulez une archi plus tout-terrain et pérenne dans le temps -> ATI (Le texturing disparait)
- vous voulez la meilleure qualité d'image -> Nvidia (et la la 8800GTS bat la X29000...) Pour l'instant, vive les mauvais driver...
 
J'ai beau chercher je ne vois aucun rasion d'acheter une 2900...
 
d'ailleurs la 8800GTX que j'ai commandée suite au bilan des perfs de la 2900 hier (à 509€) est marquée expédiée ^^
 
Je l'ai par contre mauvaise de m'être fait entuber par ATI et avoir autant attendu, car j'aurais cette carte depuis Noel sinon...  :kaola:


Conclusion : T'a conclusion est fausse ;) , et ton jugement est obscurcie a cause du mauvais coup qu'ATI t'a fait ;)
 
Euh les gars on des problème avec les doubles post la ?  

n°5526646
worm'skill​er
Le roi de la petit côte
Posté le 15-05-2007 à 16:23:22  profilanswer
 

Gigathlon a écrit :

Niveau ROPs elle tient la route (équivalente à la gtx sauf Z), niveau TMU moins mais sans que ça n'explique ce qu'on peut observer.
 
Clairement, si AMD a décidé de lancer la prod, c'est que la puce a un marché... Si les perfs n'augmentent pas franchement dans certains cas, on saura juste que c'est pas celui des GPU :whistle:  
 
Même si comme l'annonce Anandtech ils ont décidé de faire le filtrage par les SP y'a pas de raison qu'elle perde pied, vu qu'au contraire ça permet de remplir les unités plus facilement et comme de toute façon elle a un poil de marge en puissance brute de ce côté... [:gratgrat]  (256x742 vs 128x1350 pour la GTX, on a donc vaguement un avantage de 10% très largement suffisant)


 
 
quelle soit moins puisante en filtering que en shader, ca me semble une evidence mais ce n'est pas forcément si génant que celà à part dans certaisn tests synthétiques.
 
Par contre le fait de la voir des fois derrière une X1950 me confirme dans l'idée que les drivers sont clairement immatures. A voir dans l'avenir mais je trouve cette CG assez bie npositionnée d'un point de vue tarifaire.
 


---------------
"le prix passe, la qualité reste"
mood
Publicité
Posté le 15-05-2007 à 16:23:22  profilanswer
 

n°5526650
kaiser52
Posté le 15-05-2007 à 16:25:00  profilanswer
 

Citation :


....
Conclusion : T'a conclusion est fausse ;) , et ton jugement est obscurcie a cause du mauvais coup qu'ATI t'a fait ;)
Euh les gars on des problème avec les doubles post la ?  


 
Le texturing disparait ??
Pourquoi DX10 permet d'utiliser des textures de 8000 * 8000 alors ??  :bounce:

n°5526658
kachoux
Le regard de la passion ....
Posté le 15-05-2007 à 16:27:05  profilanswer
 

monsieurtof a écrit :

bon bah on va garder la 1900 pour l'instant et attendre les nouvelles revs....


 
Je crois aussi, patientons un peu, j'ai lu pratiquement toutes les pages depuis hier (sans toujours tout y comprendre dans vos AA AAAf et touti quanti :D) , j'ai compris que cette carte etait pas mauvaise du tout, pas forcement loin derriere une gtx , trop proche d'une gts, aimant bien ATI, je vais donc patienter encore un peu et pourquoi pas essaye de trouver une carte CF pour attendre quelques mois une optimisation des drivers et une baisse des prix.
 
Xp ayant encore de belles heures devant lui avec son Dx9 et sa floppée de jeux qui l'accompagnent si bien............


---------------
Mon feed *_* Mes Achats / Vente
n°5526663
Gigathlon
Quad-neurones natif
Posté le 15-05-2007 à 16:28:10  profilanswer
 

worm'skiller a écrit :

Par contre le fait de la voir des fois derrière une X1950 me confirme dans l'idée que les drivers sont clairement immatures. A voir dans l'avenir mais je trouve cette CG assez bie npositionnée d'un point de vue tarifaire.


Les drivers sont en chantier depuis 5 mois quand même, donc même si c'est bien la seule cause des perfs minables c'est inacceptable.

n°5526666
ronin31000
Posté le 15-05-2007 à 16:28:38  profilanswer
 

Enfin bon je veux po foutre la merdouille mais quand les 8800 sont sortis.En lisant tous les tests serieux on se rendait bien compte que la 8800 gtx etait vraiment une sacrée carte.....aujourd hui ca se confirme.
Pour ma part j en suis tres heureux de cette carte.Y a que Arma qui veut pas tourner a donf mais cela n est pas necessaire (ou plutot utopique...)
Voilut ceux qui sont pas decider, vous la regretterais pas !

n°5526672
kyky
Je suis newbie et alors,
Posté le 15-05-2007 à 16:30:05  profilanswer
 

j'avais pose une question dans les dernieres page, mais a vec le probleme du forum cela a du passe imperçu.
Je voulais savoir si le bug du ROP (AMD), peut-être regle de maniere logiciel ou il faut le faire en hardware

n°5526677
MacIntoc
tu lis une phrase formidable.
Posté le 15-05-2007 à 16:31:23  profilanswer
 

Donc si je récapitules bien, la X2900 XT a ses unités de filtrage buggées et ATI compenses par un filtrage via les streams processors, sacrifiant une partie de sa puissance de calcul en shader.
En parallèle de ça, le nombre d'unité de texturing est largement sous dimensionné.
Et malgré ça, elle paye son paté à la 8800 GTX dans certains jeux et s'amuse avec la GTS 640 dans les autres.
 
Bah putain, heureusement que l'archi du R600 est foireuse. Je me prendrais pas de 2900XT, qui est l'éléphant man de la gamme, mais une chose est sur, c'est que ma prochaine carte GFX sera dérivé du R600 :D

n°5526678
kyky
Je suis newbie et alors,
Posté le 15-05-2007 à 16:31:32  profilanswer
 

ronin31000 a écrit :

Enfin bon je veux po foutre la merdouille mais quand les 8800 sont sortis.En lisant tous les tests serieux on se rendait bien compte que la 8800 gtx etait vraiment une sacrée carte.....aujourd hui ca se confirme.
Pour ma part j en suis tres heureux de cette carte.Y a que Arma qui veut pas tourner a donf mais cela n est pas necessaire (ou plutot utopique...)
Voilut ceux qui sont pas decider, vous la regretterais pas !


supposont que la le R600 etait sorti 6 mois avant le 8800, avec les perf qu'il a ,comment on aurait reagi maintenant?

Message cité 1 fois
Message édité par kyky le 15-05-2007 à 16:32:32
n°5526680
AbelJemka
Posté le 15-05-2007 à 16:31:55  profilanswer
 

god is dead a écrit :

Marrant.
 
D'un côté tu veux qu'on teste des jeux très récents (bien sur, mais pourquoi exclure ceux un peu plus vieux mais fortement usités?)
Et de l'autre tu te demandes pk Vista ? Pourquoi XP vieux de plusieurs années ?
 
:d


C'est toi qui est marrant, tu lis la question de travers. Si une partie de la démarche c'est de tester des jeux fortement usités pourquoi ne pas rajouter WoW ou BF1942? J'ai parler d'exclure des jeux? Half Life a une version plus recente et plus à jour pareil pour FEAR. Des jeux comme Titan Quest, CoH ou NW2 se sont vendus par charettes et sont trés populaire en réseau. Need For Speed Carbon fait normalement parti du protocole de test est n'est pas testé sans raison apparente. Il a 5 FPS sur 9 jeux, tout le monde ne joues pas au fps, perso j'y joues pas moi.
Vista ou XP? Tu veux faire un sondage sur le forum sur le systéme le plus utilisé actuellement? Je connais le vainqueur et largement.

n°5526684
Gigathlon
Quad-neurones natif
Posté le 15-05-2007 à 16:33:23  profilanswer
 

kaiser52 a écrit :

Le texturing disparait ??
Pourquoi DX10 permet d'utiliser des textures de 8000 * 8000 alors ??  :bounce:


Le texturing ne disparait pas mais perd de plus en plus de terrain au profit des shaders, et ça c'est indéniable :o
 
Par contre n'oubliez pas que le R600 est capable de traiter 16 autres textures, non filtrées et donc celles en premier plan, qui représentent bien souvent 50% de la scène.
 
Du coup on revient à 16+16=32 unités à 750MHz dont seules 50% sont capables de filtrage, là où la GTS a 48 unités capables de filtrage à 500MHz... [:gratgrat]

n°5526686
m16
Posté le 15-05-2007 à 16:33:34  profilanswer
 

monsieurtof a écrit :

bon bah on va garder la 1900 pour l'instant et attendre les nouvelles revs....


 
plutot en attendant le G90 avec le VP2 integre.
 
ati m'a franchement decu.

n°5526690
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2007 à 16:35:16  profilanswer
 

worm'skiller a écrit :

quelle soit moins puisante en filtering que en shader, ca me semble une evidence mais ce n'est pas forcément si génant que celà à part dans certaisn tests synthétiques.
 
Par contre le fait de la voir des fois derrière une X1950 me confirme dans l'idée que les drivers sont clairement immatures. A voir dans l'avenir mais je trouve cette CG assez bie npositionnée d'un point de vue tarifaire.


Ca n'a rien d'évident non.
 
La force du G80 est la conséquence, en partie, de sa puissance de filtrage.
Pourquoi est-il légitime que le R600 fasse l'impasse dessus ?
 
Le pari tacite de l'utilisation massive de shader complexe est certes intéressant, mais un jeu n'est pas fait que de ça et le G80 n'est pas le G71.
D'ailleurs, en termes de branchement et de perf en PS, le R600 n'est pas vraiment plus efficace que le G80.
 
La grande inconnue reste donc DX10, affirmer maintenant que le R600 est mieux taillé que ne l'est le G80 est sans fondement.
Tout dépendra des dev et des drivers futurs.
 
Pour l'instant, on juge le R600 sous DX9, domaine dans lequel il ne dépasse pas le G80.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5526693
tuxerman12
Posté le 15-05-2007 à 16:35:46  profilanswer
 

Je pense qu' il s' agit d' un coup d' essai , ATI va optimiser le R600 en affinant la gravure , ils ne pensaient peut-être pas que nvidia allait taper aussi fort :D ... est ce que nvidia est capable de refaire le même coup entre le G80 et le G90 ?  :whistle:

n°5526694
Marc
Chasseur de joce & sly
Posté le 15-05-2007 à 16:35:54  profilanswer
 

AbelJemka a écrit :

Need For Speed Carbon fait normalement parti du protocole de test est n'est pas testé sans raison apparente.

"Nous avons dû écarter Need for Speed Carbon de ce test puisqu'un bug fixe le Vsync sur ON chez Nvidia et un autre bug fait planter le jeu au démarrage sur Radeon HD 2900XT.", il faut le mettre en rouge qui clignote ? :o

n°5526701
Gigathlon
Quad-neurones natif
Posté le 15-05-2007 à 16:37:47  profilanswer
 

Marc a écrit :

"Nous avons dû écarter Need for Speed Carbon de ce test puisqu'un bug fixe le Vsync sur ON chez Nvidia et un autre bug fait planter le jeu au démarrage sur Radeon HD 2900XT.", il faut le mettre en rouge qui clignote ? :o


Avec HDR même, faut que ça pète à l'oeil :whistle:

n°5526702
AbelJemka
Posté le 15-05-2007 à 16:37:52  profilanswer
 

Activation a écrit :

tu prend un crysis plutot sympa niveau texture... à mon avis la 8800 serait devant le 2900


Crisys est aussi bourré de shaders. :ange:

n°5526703
kaiser52
Posté le 15-05-2007 à 16:37:53  profilanswer
 

Citation :

Pour l'instant, on juge le R600 sous DX9, domaine dans lequel il ne dépasse pas le G80.


 
+1000
 
C'est clair. Demain y'a la Demo de Lost Planete ( Ouai retarde d'1 jour  :cry: ).
Faudrait poster ces perfs ( R600 et G80 ) meme si sa depend vachement des configues.

n°5526704
Marc
Chasseur de joce & sly
Posté le 15-05-2007 à 16:38:12  profilanswer
 


C'est demain, je crois. Je me demande si ATI va mettre en ligne rapidement un driver spécifique pour améliorer les perfs sous cette démo :o

n°5526713
tuxerman12
Posté le 15-05-2007 à 16:39:27  profilanswer
 

kaiser52 a écrit :

Citation :

Pour l'instant, on juge le R600 sous DX9, domaine dans lequel il ne dépasse pas le G80.


 
+1000
 
C'est clair. Demain y'a la Demo de Lost Planete ( Ouai retarde d'1 jour  :cry: ).
Faudrait poster ces perfs ( R600 et G80 ) meme si sa depend vachement des configues.


 
 
Ca tourne sous Dx9 ce truc là ?  :sarcastic:

n°5526714
Activation
21:9 kill Surround Gaming
Posté le 15-05-2007 à 16:39:43  profilanswer
 

god is dead a écrit :


Pour l'instant, on juge le R600 sous DX9, domaine dans lequel il ne dépasse pas le G80.


 
 
pour les premier jeux DX10 ça sera des hybrides moteur dx9 et dx10
 
donc le code sera pas pure dx10 ça sera du code dx10 mais tenant compte des limitation de dx9 pour simplifier le code
 
bref on le sait depuis le depart que les G80 et R600 sont transitoire et servent de passerelle
 
amd et nvidia adapteront par la suite en fonction des exigeance des developpeurs bref en sondant la temperatures
 
n empeches avec dx10 ça va se lacher sur la geometry... c est pas pour me déplaire quand on voit la gueule des jeux ça devrait etre du bon pour de moins en moins de "texture cache misère"

n°5526715
AbelJemka
Posté le 15-05-2007 à 16:39:52  profilanswer
 

Marc a écrit :

C'est Damien qui met au point les protocoles pour les GPU et selectionne les jeux, l'ancienneté du jeu n'est pas le seul critère, un jeu récent n'as pas forcément un moteur plus interressant. De même le type de jeu n'est pas le critère primordial (par ex intégrer un simulateur de vol est ajd'hui compliqué, rien de bien interressant, donc à moins d'intégrer juste pour le "principe", bof).
 
Mais je pense que cet été sera l'occasion de revenir sur ces deux architectures avec des drivers plus aboutis sur un éventail plus large de jeux, avec en sus des sorties récentes des nouveautées à venir qui seront interressantes, que ce soit en DX10 mais aussi en DX9 dans des domaines parents pauvres comme la simu auto (Colin Mc Rae Dirt par ex.) ou la simu de vol (Storm of War). Et pour les RTS p-e que le prochain gros patch de SUPCOM qui se fait attendre permettra de l'utiliser correctement pour bench, ce qui serait interressant étant donné son comportement particulier.
 
Vista, car les GPU sont destinés à être utilisés sur des machines tournant sous Vista à moins de vouloir se priver de DX10 (si on avait testé sous XP, on aurait demandé pourquoi XP :D ). Au passage en dehors de cas très spécifiques les écarts sont désormais mineurs.


Merci pour la réponse.

n°5526716
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2007 à 16:40:17  profilanswer
 

AbelJemka a écrit :

Crisys est aussi bourré de shaders. :ange:


Tous les jeux sont bourrés de shaders :o
 
Ce qui fait la différence, c'est leur taille, leur complexité, leur utilisation etc

Message cité 1 fois
Message édité par god is dead le 15-05-2007 à 16:44:27

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5526717
kaiser52
Posté le 15-05-2007 à 16:41:37  profilanswer
 

Citation :

C'est demain, je crois. Je me demande si ATI va mettre en ligne rapidement un driver spécifique pour améliorer les perfs sous cette démo :o


 
Ba vu leur filtrage, ils sont mal barre. Avec tous les jeux qui sont sorti.... ca va en faire des drivers.
Je suis presse de voir les perfs, si ca se confirne ( Comme pour R6 ) ba faudra acheter que des portages X360.
 

Citation :

Crisys est aussi bourré de shaders. :ange:


 
Ouai mais les shader c'est Pixels et Vertex.
Si ils sont utilise a meme dose ca changera pas de DX9.

n°5526728
kaiser52
Posté le 15-05-2007 à 16:44:37  profilanswer
 

Citation :

 En fait si tu veux du R600 avec un driver optimisé tu te paye une X360 ca va plus vite  [:rofl]


 
En plus c'est le meme prix...
Et t'es sur que ca durera 5ans pour la 360 alors que la HD durera 2/3ans a tous casser.....

n°5526729
tuxerman12
Posté le 15-05-2007 à 16:45:00  profilanswer
 


 
On peut pas jouer à la souris , ça pue :(

n°5526732
AbelJemka
Posté le 15-05-2007 à 16:45:19  profilanswer
 

god is dead a écrit :

Tous les jeux sont bourrés de shaders :o
 
Ce qui fait la différence, c'est leur tailles, leur complexité, leur utilisation etc


Bien dans Crisys ils seront surement, petit simple et etc... :kaola:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  359  360  361  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)