Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2766 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  378  379  380  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5529322
matthiman
de Gilead
Posté le 16-05-2007 à 14:51:09  profilanswer
 

Reprise du message précédent :
chez nvidia grosses pertes de perfs entre du 4x/8x/16x, alors que chez ATI à part sur le pci-e 1x y'a pas de pertes de perf ;)


---------------
Ventes - Feedback
mood
Publicité
Posté le 16-05-2007 à 14:51:09  profilanswer
 

n°5529328
Kyosh1ro
...
Posté le 16-05-2007 à 14:55:21  profilanswer
 

matthiman a écrit :

chez nvidia grosses pertes de perfs entre du 4x/8x/16x, alors que chez ATI à part sur le pci-e 1x y'a pas de pertes de perf ;)


Aucune perte de perf sur le port 8x avec sa 8800GTX pourtant, ses scores 3dMark étaient tout ce qu'il y a de plus normal... ;)


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529346
matthiman
de Gilead
Posté le 16-05-2007 à 15:04:15  profilanswer
 

c'etait un artcile de tom's hardware que j'avais lu, après...


---------------
Ventes - Feedback
n°5529355
thehacker2​5
Posté le 16-05-2007 à 15:10:55  profilanswer
 

Gigathlon a écrit :

Non, je parle du dBA, qui a déjà subi une pondération de la mesure brute en fonction des harmoniques :non:


Ben oui mais la courbe de pondération appliquée n'est pas forcément représentative de l'audition de tout le monde.
 
C'est une courbe logarithmique, elle pondère surtout les très basses fréquences.

n°5529366
Kyosh1ro
...
Posté le 16-05-2007 à 15:20:09  profilanswer
 

matthiman a écrit :

c'etait un artcile de tom's hardware que j'avais lu, après...


Je dis pas que c'est impossible hein, mais qu'en tout cas, lui est passé au travers avec le RD600...


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529385
rosco
Posté le 16-05-2007 à 15:33:42  profilanswer
 

thehacker25 a écrit :

Ben oui mais la courbe de pondération appliquée n'est pas forcément représentative de l'audition de tout le monde.
 
C'est une courbe logarithmique, elle pondère surtout les très basses fréquences.


Tout ce qui est sous 1 kHz et au dessus de 6 kHz subit une atténuation qui est de + en + importante qu'on va vers les basses fréq. et vers les hautes fréq (courbe en forme de cloche). C'est censé être + représentatif des atténuations qui se produisent dans l'oreille humaine, car on est plus sensible aux médiums qu'aux basses/aigus. Mais le domaine du son est extrêmement subjectif contrairement à d'autres domaines, une valeur en dBA reste une valeur, c'est insuffisant pour dire si oui ou non c'est plus gênant (pas dit bruyant), il faut compléter par un spectre fréquentiel et pourquoi pas un enregistrement sonore pour avoir une meilleur appréciation. On peut très bien avoir un son de 50 dBA plus agréable et moins stressant qu'un son de 45 dBA, ça dépendra des fréquences en jeu, des tonalités, des répétitions, des harmoniques, etc. Surtout que c'est pris qu'à 30 cm, donc les différences sont exacerbées du fait de la directivité et de la proximité, à 1 m la différence sera bien plus ténue.

Message cité 1 fois
Message édité par rosco le 16-05-2007 à 15:41:49
n°5529409
matthiman
de Gilead
Posté le 16-05-2007 à 15:43:05  profilanswer
 

Kyosh1ro a écrit :

Je dis pas que c'est impossible hein, mais qu'en tout cas, lui est passé au travers avec le RD600...


 
tiens voilà le lien, c'est bizarre parce que les 8800 semblent fortement touchées...
http://www.tomshardware.fr/analyse [...] 619-8.html

Message cité 1 fois
Message édité par matthiman le 16-05-2007 à 15:44:19

---------------
Ventes - Feedback
n°5529425
Profil sup​primé
Posté le 16-05-2007 à 15:49:54  answer
 

ha oui effectivement !
jai bien fait de prendre une nforce 680i avec deux port pci-express en x16 !

n°5529426
Gigathlon
Quad-neurones natif
Posté le 16-05-2007 à 15:50:06  profilanswer
 

thehacker25 a écrit :

Ben oui mais la courbe de pondération appliquée n'est pas forcément représentative de l'audition de tout le monde.


D'où le problème :p  
 
Un graph ou une donnée en dBA ne sont aucunement représentatifs du "bruit", et un bruit de souffle (proche d'un bruit blanc si ma mémoire est bonne) gêne nettement moins qu'un vieux bruit de moteur ou un cliquetis de roulement, même avec une pression acoustique élevée.

n°5529429
Gigathlon
Quad-neurones natif
Posté le 16-05-2007 à 15:51:06  profilanswer
 


Voui, comme ça en plus de la surconsommation du GPU en 2D t'as droit à la surconsommation du chipset en idle :whistle:


Message édité par Gigathlon le 16-05-2007 à 15:51:56
mood
Publicité
Posté le 16-05-2007 à 15:51:06  profilanswer
 

n°5529431
Profil sup​primé
Posté le 16-05-2007 à 15:52:12  answer
 

ha bon ?
cest pas grave quand je suis sur ma machine je suis jamais en idle :)

n°5529433
sauzer
Posté le 16-05-2007 à 15:52:46  profilanswer
 

celui qui a une asrock dual 775 est fortement restreint selon certains jeux.
 
on parlait de 5% mais la c'est bien plus!

n°5529437
Kyosh1ro
...
Posté le 16-05-2007 à 15:54:22  profilanswer
 

matthiman a écrit :

tiens voilà le lien, c'est bizarre parce que les 8800 semblent fortement touchées...
http://www.tomshardware.fr/analyse [...] 619-8.html


Wow quand même, bizarre qu'il l'ai pas ressenti sur la DFI... :heink:  
 
En même temps, moi je m'en fout, comme je veux du Multi GPU, j'aurais à chaque fois la plateforme la plus adaptée, que ce soit ATI ou nVidia donc... :p  
 
PS : ça n'a rien à voir, mais Lost Planet m'a arrêté en pleine demo pour me dire que mon pc avait pas assez de pouc et qu'il fallait que je baisse les params graphiques... T_T


Message édité par Kyosh1ro le 16-05-2007 à 15:57:51

---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529450
thehacker2​5
Posté le 16-05-2007 à 15:59:43  profilanswer
 

rosco a écrit :

Tout ce qui est sous 1 kHz et au dessus de 6 kHz subit une atténuation qui est de + en + importante qu'on va vers les basses fréq. et vers les hautes fréq (courbe en forme de cloche). C'est censé être + représentatif des atténuations qui se produisent dans l'oreille humaine, car on est plus sensible aux médiums qu'aux basses/aigus. Mais le domaine du son est extrêmement subjectif contrairement à d'autres domaines, une valeur en dBA reste une valeur, c'est insuffisant pour dire si oui ou non c'est plus gênant (pas dit bruyant), il faut compléter par un spectre fréquentiel et pourquoi pas un enregistrement sonore pour avoir une meilleur appréciation. On peut très bien avoir un son de 50 dBA plus agréable et moins stressant qu'un son de 45 dBA, ça dépendra des fréquences en jeu, des tonalités, des répétitions, des harmoniques, etc. Surtout que c'est pris qu'à 30 cm, donc les différences sont exacerbées du fait de la directivité et de la proximité, à 1 m la différence sera bien plus ténue.


Merci pour ces précisions rosco, toujours là dès que ça parle un peu technique. :whistle:  
 
Et j'ai retrouvé la courbe en question, ça atténue encore plus que je ne pensais certaines fréquences.
http://pix.nofrag.com/ef/85/f971775650a694ed3c322ed6bffat.jpg
 
Le reste ça conforte bien ce que je disais page précedente, qu'un son de 50 dBA n'est pas forcément plus audible et désagréable qu'un son de 45 dBA. :jap:  


Message édité par thehacker25 le 16-05-2007 à 16:01:01
n°5529468
noir27
Posté le 16-05-2007 à 16:06:18  profilanswer
 

bonjour je voudrai vous demander une petite analyse.
 
que pensez vous de la certification pci expres 2.0 et si cela est vraiment interessant en pensant a l avenir vue que cette categorie de carte graphique se trouve plutot dans la grande ecole .
 
donc quel choix est le plus judicieu attendre le pci expres 2.0 ou pas,
et en choisissant ati quel choix judicieux feriez vous -atendre les autre dev -ou pas?
 
ps:pourai-je savoir combien consomerai un crossfire de hd 2900xt??en ne comptant que les cartes graphiques (pour alimentation dediée peu etre)
merci a tous et j esper que ati vat relever le nivau performance de cette carte avec de bon driver je voudrai compter au moin 2 ans pour cette carte voir plus,je veu pas dire que j utilise toute cette puissance mais je voudrai une durée de vie corect pour ce prix.

n°5529478
Profil sup​primé
Posté le 16-05-2007 à 16:08:48  answer
 

cest un peu hasardeux comme choix.
moi j'avais opté pour un SLI de 8800GTX et je le regrette car dans quelques mois il y aura le G90 qui sera sans doute aussi perf que mes deux cartes !
enfin jen ai quand meme bien profité sous DX9 et les jeux recent qui prenent en compte le SLI (et il y en a bcp contrairement à se que j'ai entendu ici)

n°5529492
Activation
21:9 kill Surround Gaming
Posté le 16-05-2007 à 16:13:25  profilanswer
 

noir27 a écrit :

bonjour je voudrai vous demander une petite analyse.
 
que pensez vous de la certification pci expres 2.0 et si cela est vraiment interessant en pensant a l avenir vue que cette categorie de carte graphique se trouve plutot dans la grande ecole .
 
donc quel choix est le plus judicieu attendre le pci expres 2.0 ou pas,
et en choisissant ati quel choix judicieux feriez vous -atendre les autre dev -ou pas?
 
ps:pourai-je savoir combien consomerai un crossfire de hd 2900xt??en ne comptant que les cartes graphiques (pour alimentation dediée peu etre)
merci a tous et j esper que ati vat relever le nivau performance de cette carte avec de bon driver je voudrai compter au moin 2 ans pour cette carte voir plus,je veu pas dire que j utilise toute cette puissance mais je voudrai une durée de vie corect pour ce prix.


pour moi le pci express 2.0 apporte des atout  
pour
 
1) l externalisation des peripherique à qqs dizaine de centimetre du boitier
bon c est pas lié directement au pci express 2.0 c est juste que les nappe pci express sortirons en gros en même temps  
 
2) la virtualisation avec la possibilité qu un soft "verouille" une carte pci express
 
 
après si c est pour pure performance... on en saura plus avec l hypertransport 3 et le K10 avec socket AM2+

n°5529498
bonk1
Elle te plait ma soeur ?
Posté le 16-05-2007 à 16:16:28  profilanswer
 

thehacker25 a écrit :

C'est sur mais là avec seulement 2 ou 3 dBA d'écart selon les fréquences émises le son le plus intense en dBA ne sera pas forcément le plus désagréable à l'oreille, mais quand y a plus de 10 dBA d'écart comme là pour les ati/nvidia c'est même pas la peine de chercher. :o


 
Petit calcul simple...
 
3 dba = 2 fois plus bruyant
 
y'a 10 dba entre 8800 et 2900
 
si on arrondit à 9 cela donne 2 fois (pour 3db de +) * 2 fois (pour 3db de +) * 2 fois (pour 3db de +) = 8
 
La 2900 est donc au moins 8 fois plus bruyante que la 8800..
 
et j'ai été la voir tourner ce matin dans un magasin de hardware... je confirme ! C'est la première fois que j'entendais le bruit d'une carte vidéo ou une alimentation dans une gallerie commerciale avec tout le bruit de fond, c'est dire...

n°5529507
Profil sup​primé
Posté le 16-05-2007 à 16:18:34  answer
 

lol

n°5529508
Kyosh1ro
...
Posté le 16-05-2007 à 16:19:41  profilanswer
 

noir27 a écrit :

bonjour je voudrai vous demander une petite analyse.
 
que pensez vous de la certification pci expres 2.0 et si cela est vraiment interessant en pensant a l avenir vue que cette categorie de carte graphique se trouve plutot dans la grande ecole .
 
donc quel choix est le plus judicieu attendre le pci expres 2.0 ou pas,
et en choisissant ati quel choix judicieux feriez vous -atendre les autre dev -ou pas?
 
ps:pourai-je savoir combien consomerai un crossfire de hd 2900xt??en ne comptant que les cartes graphiques (pour alimentation dediée peu etre)
merci a tous et j esper que ati vat relever le nivau performance de cette carte avec de bon driver je voudrai compter au moin 2 ans pour cette carte voir plus,je veu pas dire que j utilise toute cette puissance mais je voudrai une durée de vie corect pour ce prix.


 
Je ne te conseillerai clairement pas la hd2900xt pour la garder deux ans... Malheureusement sachant que l'archi est bancale, les perfs sont bonnes, et c'est en grande partie grâce aux pilotes... Le jour ou ATI sort une meilleure carte, il n'auront plus de raison d'optimiser cette derniere, et donc elle mourra assez vite... Tout du moins c'est ce que je pense...
 
Pour garder ta carte deux ans, même si on ne sait pas trop ce que ça donnera dans le futur, je te conseillerai plutôt de choisir une 8800gtx... ;)


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529560
Gigathlon
Quad-neurones natif
Posté le 16-05-2007 à 16:31:53  profilanswer
 

Kyosh1ro a écrit :

Je ne te conseillerai clairement pas la hd2900xt pour la garder deux ans... Malheureusement sachant que l'archi est bancale, les perfs sont bonnes, et c'est en grande partie grâce aux pilotes... Le jour ou ATI sort une meilleure carte, il n'auront plus de raison d'optimiser cette derniere, et donc elle mourra assez vite... Tout du moins c'est ce que je pense...


A moins que ça ne soit l'inverse en fait... :o
 
Qui sait, si ça se trouve le R700 n'aura plus du tout d'AA solver dans les ROPs et AMD a peut-être jugé que du coup ça serait pas si grave si ils devaient implémenter ça sur le R600 buggé :pt1cable:  
 
PS: Ah bah tiens, j'ai lancé la demo dx9 de lost planet pour voir, je dois avouer que j'ai du mal à voir la différence avec les screens DX10 et en dehors d'un bug sur le benchmark au moins empêchant de revenir au menu ça tourne plutôt correctement avec 30fps cave 25fps snow en 1366x768 en mettant tout au max de ce que la demo autorise. En tout cas il reste bien trop gourmand pour la qualité visuelle.


Message édité par Gigathlon le 16-05-2007 à 16:53:37
n°5529617
MacIntoc
tu lis une phrase formidable.
Posté le 16-05-2007 à 16:48:20  profilanswer
 

noir27>Les drivers de 2900XT sont une misère à mettre à jour pour ATI. Je penses que ce sera la première Radeon qui aura un support driver inférieur à 1 ans.
Sinon, 1 crossfire de 2900XT consomme 2 fois plus qu'une carte seule, soit ~175W*2 d'après HFR (donc ~350W).

 

Gigathlon>Why not. Mais ça aurait été implémenté avant si les développeurs de jeux avaient éprouvé le besoin de programmer leurs propres filtres AA via les shader, non ?


Message édité par MacIntoc le 16-05-2007 à 16:51:32
n°5529643
aeryon
à 300km/h
Posté le 16-05-2007 à 17:02:18  profilanswer
 

sapphire adepte xd a écrit :

et pis pour les test de lost planet arrétez de vous branler sur les test avec un jeu qui n'est meme pas sorti qui est animé par une carte qui n'a pas été programmée pour.
 
Lost planet n'a jamais été dans les mains des programmeurs des drivers ati, so arrétez de dire que la 8800 bouffe une R600 pasque sa fait 5mois qu'il bossent sur des drivers qui feront tourner ce jeu nickel, alors que amd/ati n'a pas encore eu le droit doptimiser le jeu pour sa carte. :/
 
merci d'en tenir compte.


le probleme est que ca sera pareil avec tous les nouveaux jeux qui vont sortir vu que AMD doit optimiser son AA bugge pour chaque jeu. En d'autres termes quand un nouveau jeu sortira il y a aura 3 cas de figures pour le R600:
1- AMD participe bien a la phase de developpement du jeu et sort avant le jeu le driver qui va bien. Ca sera surement comme ca pour les blockbusters
2- AMD participe un peu au dev mais le driver sort apres le jeu. le consommateur devra attendre plus ou moins longtemps
3- AMD ne participe pas au dev et le driver ne sort que si AMD le juge interessant (genre que ca devient un jeu que tous les sites benchent). Pour cette categorie, c'est la roulette russe et au bon vouloir de AMD.
 
Franchement, je sais pas vous, mais moi ce genre de situation, bah c'est pas le genre de truc que avez envie de vivre quand vous claquez 400 roros dans une carte graphique  :pfff:

n°5529686
Gigathlon
Quad-neurones natif
Posté le 16-05-2007 à 17:22:22  profilanswer
 

aeryon a écrit :

le probleme est que ca sera pareil avec tous les nouveaux jeux qui vont sortir vu que AMD doit optimiser son AA bugge pour chaque jeu. En d'autres termes quand un nouveau jeu sortira il y a aura 3 cas de figures pour le R600


 
Oui enfin pour le coup l'AA y'en a pas donc c'est pas une bonne "excuse"... :non:  
 
De même pour le motion blur sur les screens, car si en effet y'en a un max sur le R600, y'en a tout simplement pas du tout sur le G80.
 
Après, si quelqu'un a envie de s'amuser au jeu des 7 erreurs, je post une caps de mon benchmark perso.
 
Legit Reviews en DX10 sur G80:
http://perso.wanadoo.fr/grmpf/lostplanetdx10-default-mini.png
 
Moi en DX9:
http://perso.wanadoo.fr/grmpf/lostplanet-default-mini.png
 
J'ai un mal de chien à différencier DX9 de DX10 à la vue de ces screens, enfin si je regarde pas en bas à gauche :p

Message cité 2 fois
Message édité par Gigathlon le 16-05-2007 à 17:23:35
n°5529693
shocker13
Posté le 16-05-2007 à 17:25:43  profilanswer
 

c'est vrai que sur ces screen la difference est très minime la version DX9 doit etre mieux vu qu'elle tourne au double de FPS

n°5529708
Gigathlon
Quad-neurones natif
Posté le 16-05-2007 à 17:31:40  profilanswer
 

shocker13 a écrit :

c'est vrai que sur ces screen la difference est très minime la version DX9 doit etre mieux vu qu'elle tourne au double de FPS


Le seul truc que je vois, c'est un HDR un poil moins agressif mais tout aussi présent.
 
Par contre, faut dire ce qui est, et si leurs perfs sont à la ramasse sur la HD2900XT, c'est pas le cas sur ma vieille chose en mode DX9 avec une meilleure qualité... qui a dit foutage de gueule? (de Capcom/nVidia, du site ou d'AMD, là est la question, bien que la logique écarte forcément AMD...)
 
Note: c'est une X1900XT@675/800 la caps DX9.


Message édité par Gigathlon le 16-05-2007 à 17:32:58
n°5529709
san_
Posté le 16-05-2007 à 17:31:52  profilanswer
 

+1 et +1
J'ai juste l'impression que le mode dx10 apporte un léger "flou".. mais c'est ptêtre une idée que jme fait. J'ai testé les deux également et je vois aucune différence à part une grosse baisse du framerate pour la version DX10.

n°5529742
Le Profana​teur
Passéiste désincarné
Posté le 16-05-2007 à 17:47:33  profilanswer
 

Kyosh1ro a écrit :

Le CCC a fait de gros progrès, faut pas le nier...
 
Et j'ai jamais eu de soucis avec le centrage de l'image sur l'écran... ça m'est arrivé une fois, et c'était l'écran qui était en faute... ;) (oui je parle de centrage parce que l'interpolation en elle même elle se fait toute seule hein...)
 
Par contre me rappelle que les 7900gt étaient elles incapables de le faire...
 
Tout ça pour te dire, se baser sur les pilotes, c'est du méga trollisme, parce que l'un où l'autre n'est jamais à l'abris d'avoir des déboires avec un driver pourri...
 
PS : et au passage, le CCC c'est l'interface, pas le pilote, les pilotes en eux même ont jamais eu de problème particulier...


comme dit sur pas mal de topik, j'ai une 7900 Gt et avec tout les pilotes que j'ai testé, je peux faire du centrer l'image (style 1680/1050 sur un 24" (ou encore des réso inférieurs avec mon ancien 19" ) jamais eut de pb.  :hello:

n°5529749
Kyosh1ro
...
Posté le 16-05-2007 à 17:53:01  profilanswer
 

Le Profanateur a écrit :

comme dit sur pas mal de topik, j'ai une 7900 Gt et avec tout les pilotes que j'ai testé, je peux faire du centrer l'image (style 1680/1050 sur un 24" (ou encore des réso inférieurs avec mon ancien 19" ) jamais eut de pb.  :hello:


 
C'est pour ça que je dis que ces arguments ne servent qu'a troller, et que l'un ou l'autre peut très bien avoir des soucis avec des drivers... ;)


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°5529775
aeryon
à 300km/h
Posté le 16-05-2007 à 18:04:01  profilanswer
 

preuve de l'enorme succes du lancement du R600, seulement un jour apres, deja tres dur de trouver des GTS640  [:spamatounet]

n°5529780
matthiman
de Gilead
Posté le 16-05-2007 à 18:05:33  profilanswer
 

ouais sauf que les 640Mo sont dures à trouver depuis des semaines...
aucun rapport avec le R600, c'est nvidia qui n'en produit presque plus...


---------------
Ventes - Feedback
n°5529792
sasuke87
Posté le 16-05-2007 à 18:09:46  profilanswer
 

god is dead a écrit :

Pas vraiment, t'as pleins de jeux lourds là, elle n'est pas vraiment du niveau d'une GTX.
http://www.computerbase.de/artikel [...] _anno_1701
 
Sauf si jeux lourds = jeux issuent de la Box :d


 
oups c'est pas les mêmes drivers que matbe donc ceux qui corrigent pas mal de choses [:aras qui rit]
 
Regarde les perfs d'Oblivion en FSAA... c'est pas comme chez Hardware ou encore matbe. C'est pourquoi j'en reviens à ce que j'ai dis, la HD2900xt a l'air de se comporter comme une GTX dans les jeux récents et bien lourd (avec des drivers précose pourtant).


Message édité par sasuke87 le 16-05-2007 à 18:16:54
n°5529799
sasuke87
Posté le 16-05-2007 à 18:14:21  profilanswer
 

aeryon a écrit :

preuve de l'enorme succes du lancement du R600, seulement un jour apres, deja tres dur de trouver des GTS640  [:spamatounet]


 
même avant le R600 elle devenait dure à trouver hein  :o  troll???

Message cité 1 fois
Message édité par sasuke87 le 16-05-2007 à 18:18:16
n°5529809
aeryon
à 300km/h
Posté le 16-05-2007 à 18:19:03  profilanswer
 

sasuke87 a écrit :

même avant le R600 elle devenait dure à trouver hein  :o  troll???


faut bien relancer le topic, c'est mort dans le coin  [:shinji_kun64]

n°5529810
Bourinatto​r
Posté le 16-05-2007 à 18:19:11  profilanswer
 

Vous avez vus les news de hfr pour les prochains proc millieu de gamme AMD? Ca le hd2600 est potentielement interessant... Esperont que les drivers seront au point (l'arcitecture éventuelement retoucher), et que les perfs soient meilleurs que les 8500gt de nvidia... Au moin au niveau d'une x1950pro...

n°5529820
angela-pcs
Posté le 16-05-2007 à 18:22:14  profilanswer
 

matthiman a écrit :

ouais sauf que les 640Mo sont dures à trouver depuis des semaines...
aucun rapport avec le R600, c'est nvidia qui n'en produit presque plus...


 
Nvidia a du mal a fournir oui ...

n°5529834
sasuke87
Posté le 16-05-2007 à 18:28:58  profilanswer
 

aeryon a écrit :

le probleme est que ca sera pareil avec tous les nouveaux jeux qui vont sortir vu que AMD doit optimiser son AA bugge pour chaque jeu. En d'autres termes quand un nouveau jeu sortira il y a aura 3 cas de figures pour le R600:
1- AMD participe bien a la phase de developpement du jeu et sort avant le jeu le driver qui va bien. Ca sera surement comme ca pour les blockbusters
2- AMD participe un peu au dev mais le driver sort apres le jeu. le consommateur devra attendre plus ou moins longtemps
3- AMD ne participe pas au dev et le driver ne sort que si AMD le juge interessant (genre que ca devient un jeu que tous les sites benchent). Pour cette categorie, c'est la roulette russe et au bon vouloir de AMD.
 
Franchement, je sais pas vous, mais moi ce genre de situation, bah c'est pas le genre de truc que avez envie de vivre quand vous claquez 400 roros dans une carte graphique  :pfff:


 
euh nvidia aussi est obligé d'optimiser, d'ailleurs il y a qu'à voir le pied de nez qu'ils ont fait à ATI avec la démo de Call f juarez... Etant donné que les drivers de nvidia sont assez bons dans la plupart des jeux, il est donc normal d'optimiser sur les démo où ATI veut faire son petit malin. C'est une stratégie qu'ATI n'est encore en mesure de faire, sinon eux aussi aurait sortie leur drivers miracles pour passer devant nvidia dans ce bench.  
Ne pas aimer le R600 c'est une chose, mais de là à déconner comme ça, sèrieux faut arrêter.
 
Par contre je trouve qu'ATI a perdu un temps fou à optimiser 3dmark, la plupart des sites sèrieux on arrêter de l'utiliser comme indicateur de perfs.


Message édité par sasuke87 le 16-05-2007 à 18:31:33
n°5529844
kyky
Je suis newbie et alors,
Posté le 16-05-2007 à 18:31:56  profilanswer
 

Gigathlon a écrit :

Oui enfin pour le coup l'AA y'en a pas donc c'est pas une bonne "excuse"... :non:  
 
De même pour le motion blur sur les screens, car si en effet y'en a un max sur le R600, y'en a tout simplement pas du tout sur le G80.
 
Après, si quelqu'un a envie de s'amuser au jeu des 7 erreurs, je post une caps de mon benchmark perso.
 
Legit Reviews en DX10 sur G80:
http://perso.wanadoo.fr/grmpf/lost [...] t-mini.png
 
Moi en DX9:
http://perso.wanadoo.fr/grmpf/lost [...] t-mini.png
 
J'ai un mal de chien à différencier DX9 de DX10 à la vue de ces screens, enfin si je regarde pas en bas à gauche :p


 
tu es par defaut  :??: , car j'arrive juste a 19  :D
http://img101.imageshack.us/img101/1532/lostplanetjt9.th.jpg

Message cité 1 fois
Message édité par kyky le 16-05-2007 à 18:34:08
n°5529872
boblemagni​fique
Modo de nuit , Dodo de jour
Posté le 16-05-2007 à 18:42:23  profilanswer
 

angela-pcs a écrit :

Nvidia a du mal a fournir oui ...


 
Ah j'ai pas trop de soucit de mon coté , mais ca dépends des marques c'est sur  :jap:

n°5529879
fragme-i'm​famous
Posté le 16-05-2007 à 18:44:26  profilanswer
 

Ati 2600 et 2400 annoncé
 
http://www.hardware.fr/news/lire/16-05-2007/
 
J'attend surtout de voir ce que vont faire les versions mobile face au version mobile de nvidia, nivo conso et perf


Message édité par fragme-i'mfamous le 16-05-2007 à 18:46:35
n°5529883
sasuke87
Posté le 16-05-2007 à 18:45:37  profilanswer
 

boblemagnifique a écrit :

Ah j'ai pas trop de soucit de mon coté , mais ca dépends des marques c'est sur  :jap:


 
et des HD 2900xt t'en a en stock??  :D  ça part vite??  :lol:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  378  379  380  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)