Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3782 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  311  312  313  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5521160
Tuxerman12
Posté le 13-05-2007 à 10:54:17  profilanswer
 

Reprise du message précédent :
Quelle impasse ?
Industrialiser du R600 c' est faire l' impasse ?
Des projets plantés dans le milieu du gpu , on en entend pas parler , mais il doit y en avoir , le R600 sort demain ........


Message édité par Tuxerman12 le 13-05-2007 à 10:56:12
mood
Publicité
Posté le 13-05-2007 à 10:54:17  profilanswer
 

n°5521161
kyky
Je suis newbie et alors,
Posté le 13-05-2007 à 10:55:34  profilanswer
 

je pense qu'ila voulu dire que le R600 aura une courte dure de vie comme le 7800 (je crois)

n°5521162
kaiser52
Posté le 13-05-2007 à 10:55:39  profilanswer
 

Puis pour rapelles, dans les drivers actuel de nVIDIA, la gestion de dx10 est minimum, c'est la meme version que dans les pilotes vista 100.64 ( Ou un truc du genre ). Donc faites l'impasse sur les perfs DX0 que ce soit du cote de nVIDIA ou de ATI/AMD ( Meme si d'apres des dires, ATI/AMD avaient une avance sur les drivers Vista...).
 
On pourra juger les perfs DX10 si la demo vista de lost-planete est en DX0.
 
Donc wait and see pour la carte jusqu'a demain, et pour DX10 jusqu'a apres demain ^^
 
edit : Sur CubemapGS entre le instancing et le ohne ( Un truc dans le genre ) instancing, les perfs nvidia ne bougent pas alors que la carte ATI/AMD perd 5fps. (Ca ilustre bien que les pilotes brident la carte nVIDIA )

Message cité 1 fois
Message édité par kaiser52 le 13-05-2007 à 11:00:21
n°5521167
Tuxerman12
Posté le 13-05-2007 à 10:59:55  profilanswer
 

kyky a écrit :

je pense qu'ila voulu dire que le R600 aura une courte dure de vie comme le 7800 (je crois)


 
On verra . La puce monte quand même à 1.2ghz vmoddée et bien refroidie , si le R600 monte à cette fréquence avec une gravure plus fine , et si le problème actuel est uniquement du aux drivers , ça suffit pour casser du G80 :D

n°5521175
kyky
Je suis newbie et alors,
Posté le 13-05-2007 à 11:04:12  profilanswer
 

Tuxerman12 a écrit :

On verra . La puce monte quand même à 1.2ghz vmoddée et bien refroidie , si le R600 monte à cette fréquence avec une gravure plus fine , et si le problème actuel est uniquement du aux drivers , ça suffit pour casser du G80 :D


m^m en 65nm il ne montera pas aussi haut( tout au plus 820 max comme specification).il faudrait que Amd modifie legerement son architecture pour l'ameliore l'enssemble (les mhz ne fait pas tout , intel l'a compris) ===> pas la peine de me frapper :D  

n°5521206
Tuxerman12
Posté le 13-05-2007 à 11:27:33  profilanswer
 

Les mhz ne font pas tout , mais sur une même architecture 50% de mhz en plus = perfs en plus quand même , entre un A64 à 2Ghz et un A64 à 3Ghz , la différence de perfs existe [:spamafote]

n°5521213
aeryon
à 300km/h
Posté le 13-05-2007 à 11:34:37  profilanswer
 

kaiser52 a écrit :

On pourra juger les perfs DX10 si la demo vista de lost-planete est en DX0.


Poste sur le topic G80:
la premiere demo jouable d'un jeu DX10 sort le 15 mai sur nzone.com. Ca sera Lost Planet: Extreme Edition.
source : http://blogs.nvidia.com/developers/
 
plein de liens pour voir a quoi ressemble le jeu : http://blogs.nvidia.com/developers [...] .html#more
 :jap:

n°5521218
tomato7
fanATIc
Posté le 13-05-2007 à 11:37:58  profilanswer
 

yo! Je suis newbie sur ce forum alors bonjour à tous.
 
Perso, même si ma CB me démange pour une 'tite 2900XT, changer sa CG maintenant n'est vraiment pas un bon plan! Aucun jeux DX10, le 65nm et possiblement new architecture qui sortiront, alors même si la 2900xt se place au niveau de la GTX, je suis sûr que les fanboys de crysis vont être deçu à la rentrée... à moins de ne pas posseder une 79xx ou X19xx, c'est du suicide de portefeuille!
 
 

n°5521233
tomato7
fanATIc
Posté le 13-05-2007 à 11:46:15  profilanswer
 

bah, vu les caracts du jeux et les premiers benchs qui avaient été fait sur un monstre en GTX sli (~10-15fps en 1280 si je me souvient bien)... bon c'était peut être une béta sans driver optimisé mais bon... en 1600 ou 1920 il faudra à mon humble avis oublier les filtres meme avec une GTX ou 2900xt!

n°5521243
tomato7
fanATIc
Posté le 13-05-2007 à 11:51:18  profilanswer
 
mood
Publicité
Posté le 13-05-2007 à 11:51:18  profilanswer
 

n°5521247
tomato7
fanATIc
Posté le 13-05-2007 à 11:53:33  profilanswer
 


 
 la 2900xtx, et une hypothétique 8900!

n°5521249
James64
Posté le 13-05-2007 à 11:55:16  profilanswer
 

dites, je vous entend dire qu'il faudra attendre les perfs sous DX10...
Mais il y a un jeux, ghost ricon je crois, qui vient de sortir et qui est basé sur le moteur graphique de UT3.
Cela suppose que ce jeux tourne sous DX10?
j'ai deja vu un test mais je sais plus ou ca avec les perfs de différente carte graphique...

Message cité 1 fois
Message édité par James64 le 13-05-2007 à 11:58:16
n°5521255
tony54
Posté le 13-05-2007 à 11:56:48  profilanswer
 

il faut attendre que crysis soit optimisé et que les drivers le soit aussi, ils n'arretent pas de s'ameliorer au fils du temps


---------------
Mon Feed-Back
n°5521262
lars
Posté le 13-05-2007 à 11:58:51  profilanswer
 


 
euh, ça c'est un fake...  :whistle:

n°5521265
lars
Posté le 13-05-2007 à 12:00:17  profilanswer
 

James64 a écrit :

dites, je vous entend dire qu'il faudra attendre les perfs sous DX10...
Mais il y a un jeux, ghost ricon je crois, qui vient de sortir et qui est basé sur le moteur graphique de UT3.
Cela suppose que ce jeux tourne sous DX10?
j'ai deja vu un test mais je sais plus ou ca avec les perfs de différente carte graphique...


 
nan c'est raindow six vegas qui utilise l'unreal engine 3
et l'unreal engine 3 est compatible dx9 et dx10
mais pour le moment r6v n'utilise que dx9  ;)

n°5521267
James64
Posté le 13-05-2007 à 12:01:24  profilanswer
 

ok merci :)

n°5521270
Hun7er
Posté le 13-05-2007 à 12:01:56  profilanswer
 

de toute façon moi je dis qu'il faut attendre au moins la seconde génération de carte 3d directx 10 pour etre sur d'avoir de bonne perf

n°5521273
Tuxerman12
Posté le 13-05-2007 à 12:02:19  profilanswer
 

tomato7 a écrit :

bah, vu les caracts du jeux et les premiers benchs qui avaient été fait sur un monstre en GTX sli (~10-15fps en 1280 si je me souvient bien)... bon c'était peut être une béta sans driver optimisé mais bon... en 1600 ou 1920 il faudra à mon humble avis oublier les filtres meme avec une GTX ou 2900xt!


 
Euh , vérifie tes sources , ou interprète les autrement  :D  
Des gars de Crysis-france ont vu tourner une map sur une 8800GTX et un C2Q 6700 en 1920*1080 , ça leur semblait pas mal du tout ... comme beaucoup de jeux PC par trop mal fouttus , Crysis devrait être jouable sur du matos moins perf que la config ci-dessus .

n°5521284
Ferhat
Y'a pas le feu...
Posté le 13-05-2007 à 12:06:06  profilanswer
 

Je suis de plus en plus dubitatif...
Je possède une 7800gtx avec c2d 6600 & 2 gig sous vista et je faisais parti des gens qui ont choisi de faire l'impasse sur le 8800 pour attendre le r600...
Toutefois vu l'attente (ça fait 6 mois que mes potes sont sous 8800gtx), j'ai l'impression de m'être fait avoir par ati/amd au vu des preview...
Le seul avantage (bien que conséquent) des 2900xt restant le prix mais je suis persuadé que nvidia saura rapidement ajuster sa gamme de tarif...

n°5521297
Tuxerman12
Posté le 13-05-2007 à 12:12:54  profilanswer
 

Ferhat a écrit :

Je suis de plus en plus dubitatif...
Je possède une 7800gtx avec c2d 6600 & 2 gig sous vista et je faisais parti des gens qui ont choisi de faire l'impasse sur le 8800 pour attendre le r600...
Toutefois vu l'attente (ça fait 6 mois que mes potes sont sous 8800gtx), j'ai l'impression de m'être fait avoir par ati/amd au vu des preview...
Le seul avantage (bien que conséquent) des 2900xt restant le prix mais je suis persuadé que nvidia saura rapidement ajuster sa gamme de tarif...


 
Tu ne t' es pas fait avoir , t' as pas perdu d' argent , au contraire [:spamafote]
T' as pas changé de carte car tu en avais pas besoin , si tu en avais eu besoin tu aurais craqué depuis longtemps pour une carte en fonction de ton budget ;)

n°5521299
Strat_84
Posté le 13-05-2007 à 12:14:08  profilanswer
 

Faut peut être pas exagérer non plus hein ...  :o  
 
Le pauvre malheureux, il a été obligé d'attendre 6 mois avec une 7800GTX ... Mon dieu c'est horrible, je suis sûr qu'il rame comme un porc dans tous les jeux même Pac-Man ... Totalement inadmissible, au bûcher ATI ...  :o

n°5521302
saturator
Born to be relou
Posté le 13-05-2007 à 12:14:58  profilanswer
 

Bonjour à tous !!
 
Je vois que le débat fait rage, mais c'est toujours la même chose à la sortie d'une nouvelle carte graphique.
Le R600 ne semble pas être un GTX killer mais çà ne fait pas de lui une mauvaise CG.
Perso j'ai jetté mon dévolu sur une 8800 GTS 640 à 350€, car je trouve que pour le prix on en a pour son argent, çà smeble être le cas de la HD 2900XT, car à 389€, les perf ont l'air très bonnes!! [:prodigy]

n°5521312
saturator
Born to be relou
Posté le 13-05-2007 à 12:17:42  profilanswer
 


Heu nan :o 350€ c'est nickel pour moi, et j'avoue que j'ai une préférence pour les Nvidia, sans dénigner les cartes du carribou [:aztechxx]

n°5521322
James64
Posté le 13-05-2007 à 12:20:38  profilanswer
 

lol
moi j'attends ut3 pr acheter une carte 3d :D
JE suis patient ;)

n°5521325
saturator
Born to be relou
Posté le 13-05-2007 à 12:20:56  profilanswer
 


Spa grave, j'assume mon choix, mais bon si le R600 est une excellente carte, tant mieux, ca fera baisser les prix donc le consommateur en sortira gagnant de cette guerre des prix. Perso, j'attends les carte DX10 2ème fournée et là, je prendrai le HDG.

n°5521327
James64
Posté le 13-05-2007 à 12:21:57  profilanswer
 


 
ha la blague!!!  :D  :D  :D  

n°5521334
Tuxerman12
Posté le 13-05-2007 à 12:24:30  profilanswer
 

http://forum.coolaler.com/showthre [...] ost1764092
 
Pas encore posté je crois , ça date de vendredi , et ça confirme que le R600 a des problèmes :/

n°5521341
god is dea​d
Demain, j'arrête de poster.
Posté le 13-05-2007 à 12:29:24  profilanswer
 

Moué, je comprend pas le chinois :o
 
Le seul truc de potable, ce serait la conso.
Ca mettrait une HD X2900 XT dans les 210/220w en full.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5521343
Strat_84
Posté le 13-05-2007 à 12:30:06  profilanswer
 


 
Et alors ? S'il avait vraiment un besoin urgent de changer, il aurait pris une 8800. Il ne l'avait apparement pas donc il a attendu. C'est pas un GTX killer ? Ou est le problème ? Ca le force à acheter un R600 ? Son pognon tient plus en place, faut obligatoirement qu'il le dépense ? Hé bien il prendra une 8800U s'il a tant besoin de puissance ...
 
C'est ça le problème avec le syndrôme du kikitoudur par ici, on en perd de vue l'utilité réelle de changer de carte ... [:spamafote]

n°5521347
James64
Posté le 13-05-2007 à 12:33:48  profilanswer
 

juste une petite question : la consommation est importante pour vous?
perso je vois ca comme un critère de choix maintenant.
et vous?

n°5521348
Profil sup​primé
Posté le 13-05-2007 à 12:34:09  answer
 

Tuxerman12 a écrit :

http://forum.coolaler.com/showthre [...] ost1764092
 
Pas encore posté je crois , ça date de vendredi , et ça confirme que le R600 a des problèmes :/


 
Wé, c'est pas coolaler qui avait été soupçonné de tricherie avec OPB pour le WR SuperPi 1M? :D
 
(me fait toujours rire le HDMI qui sort du DVI, avec de l'audio sur cette MSI :D)
 

n°5521352
Agent heav​y
Posté le 13-05-2007 à 12:36:34  profilanswer
 

James64 a écrit :

juste une petite question : la consommation est importante pour vous?
perso je vois ca comme un critère de choix maintenant.
et vous?


 
C'est effectivement un critère, Si une GTS 640 Mo fait aussi bien qu'une HD 2900XT tout en consommant 50W de moins, pour la planète et sa facture d'électricité, il est préférable de prendre la première.  
Sachant que si vous gardez une R600 pendant disons un an@overclocké, avec la conso, on rattrape le prix d'une GTX facilement :D


---------------
Feed-back
n°5521357
saturator
Born to be relou
Posté le 13-05-2007 à 12:38:24  profilanswer
 

James64 a écrit :

juste une petite question : la consommation est importante pour vous?
perso je vois ca comme un critère de choix maintenant.
et vous?


Bien sûr!! Le dégagement de chaleur peut réduire la durée de vie de la carte et la fragilise. J'ai une alim de 500w et je n'ai pas envie de la changer.

n°5521359
Strat_84
Posté le 13-05-2007 à 12:38:58  profilanswer
 

James64 a écrit :

juste une petite question : la consommation est importante pour vous?
perso je vois ca comme un critère de choix maintenant.
et vous?


 
Plutôt oui ... J'ai une 9600XT à remplacer, j'attendais le R600 pour voir comment ça allait changer l'offre disponible. Et si les infos se confirment je vais récupérer une X1950XT voire XTX suivant les prix. Les 8800 consomment trop en idle, ce qui annule complètement leur petit avantage en full.
Et le R600 apparement vaut mieux attendre qu'ils essuient les plâtres vers Septembre pour que ça devienne vraiment intéressant niveau perf/consommation (comme je me fiche totalement de Dx10  ;) )

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  311  312  313  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)