Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
5487 connectés 

 

 

Laquelle pour vous interesse ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  27  28  29  ..  1325  1326  1327  1328  1329  1330
Auteur Sujet :

[Topic Unique] ATI Radeon 4800 Series (RV770 inside)

n°6353604
bilbo248
Posté le 26-04-2008 à 11:11:05  profilanswer
 

Reprise du message précédent :
Faut pas non plus négliger tout les gens qui ont des ati :/


---------------
Photographie |--| Stats BDPV - Photovoltaique
mood
Publicité
Posté le 26-04-2008 à 11:11:05  profilanswer
 

n°6353640
sasuke87
Posté le 26-04-2008 à 11:45:39  profilanswer
 

god is dead a écrit :


En théorie oui, en pratique le c'est le rv670 qui n'est loin d'être dx 10 pour l'instant  [:cobraphil8]  
 
Parce que la situation n'est pas la même qu'à l'époque où le r300 avait le vent en poupe alors que Nv avait bcp de mal à sortir son premier gpu dx9. Qd t'as un marché fortement équipé de g80-g92, avec un Nvidia puissant, les dev devront y réfléchir à deux fois avant de décider de saccager les perfs des gpu Nv au bénéfice des gpu ATI.


 
ben c'est justement ça le problème: Imaginer si le nv30 était sorti bien avant le R300, je me demande sérieusement ce qu'aurait été l'évolution de DX9  :whistle: ...  
Bon en même temps (et comme je l'ai déjà dit), on ne sait pas vraiment si les R6xx sont réellement capable d'expérimenter du DX10 comme le R300 l'avait fait pour le DX9 (ou encore la Geforce 3 pour DX8).  
 
J'espère sincèrement que le GT200 sera enfin une vraie carte DX10, histoire de faire avancer les choses...

n°6353657
god is dea​d
Demain, j'arrête de poster.
Posté le 26-04-2008 à 11:55:11  profilanswer
 

Le r300 était bien plus adapté pour Dx9 que ne l'était le Nv30, mais en même temps sur ma 9800pro les premiers jeux dx9 étaient limite. C'est comme d'hab, même si un gpu est mieux pensé que l'autre pour l'exploitation d'un nouveau Dx, il manquera de toute façon de la puissance pour une bonne exploitation. Dx9 a commencé à être réellement exploitable sur 6800/x800, ensuite on a eu 7800/x1800, 7900/x1900 et même les gpu du moment ne sont pas de trop avec les jeux dx9 du moment !  
 
Donc, je me suis pas posé la question si le r600 c'était mieux pour dx10 que le g80, car je suis sûr que les deux seront de toute façon insuffisant pour les jeux à venir, donc autant prendre la carte qui correspond le mieux aux besoins d'aujourd'hui... Et force est de constater que plus d'un an après, ma gt 640 o/c est tout à fait dans le coup.

Message cité 2 fois
Message édité par god is dead le 26-04-2008 à 12:04:54

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6353685
Profil sup​primé
Posté le 26-04-2008 à 12:09:54  answer
 

god is dead a écrit :

Le r300 était bien plus adapté pour Dx9 que ne l'était le Nv30, mais en même temps sur ma 9800pro les premiers jeux dx9 étaient limite. C'est comme d'hab, même si un gpu est mieux pensé que l'autre pour l'exploitation d'un nouveau Dx, il manquera de toute façon de la puissance pour une bonne exploitation. Dx9 a commencé à être réellement exploitable sur 6800/x800, ensuite on a eu 7800/x1800, 7900/x1900 et même les gpu du moment ne sont pas de trop avec les jeux dx9 du moment !  
 
Donc, je me suis pas posé la question si le r600 c'était mieux pour dx10 que le g80, car je suis sûr que les deux seront de toute façon insuffisant pour les jeux à venir, donc autant prendre la carte qui correspond le mieux aux besoins d'aujourd'hui... Et force est de constater que plus d'un an après, ma gt 640 o/c est tout à fait dans le coup.


 
 
comme du r600 d ailleur... :o


Message édité par Profil supprimé le 26-04-2008 à 12:10:08
n°6353692
Sat45
ÉcouTeSA
Posté le 26-04-2008 à 12:14:10  profilanswer
 

+1 :D


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6353715
sasuke87
Posté le 26-04-2008 à 12:28:38  profilanswer
 

god is dead a écrit :

Le r300 était bien plus adapté pour Dx9 que ne l'était le Nv30, mais en même temps sur ma 9800pro les premiers jeux dx9 étaient limite. C'est comme d'hab, même si un gpu est mieux pensé que l'autre pour l'exploitation d'un nouveau Dx, il manquera de toute façon de la puissance pour une bonne exploitation. Dx9 a commencé à être réellement exploitable sur 6800/x800, ensuite on a eu 7800/x1800, 7900/x1900 et même les gpu du moment ne sont pas de trop avec les jeux dx9 du moment !  
 
Donc, je me suis pas posé la question si le r600 c'était mieux pour dx10 que le g80, car je suis sûr que les deux seront de toute façon insuffisant pour les jeux à venir, donc autant prendre la carte qui correspond le mieux aux besoins d'aujourd'hui... Et force est de constater que plus d'un an après, ma gt 640 o/c est tout à fait dans le coup.


 
ok mais le fait que le R300 gérait assez bien DX9, ça a tout de même accélérer l'implantation de ce DX dans les jeux... Et puis bon c'est surtout avec l'apparition de jeux comme Oblivion que le R300 commençait à être juste... sinon il avait quand même bien encaissé les premiers jeux DX9 comme HL2, Far cry (un peu moins bien certes mais c'était largement suffisant)... de plus pendant une assez longue période la 6600GT était considérée comme LA carte DX9 en milieu de gamme (inutile de rappeler que les perfs de cette carte était équivalente à une 9800pro), elle était largement suffisante pour la majorité des jeux DX9 (pour les moins exigent) et vu son niveau de perfs, les R3xx faisaient aussi bien. Dès lors, on peut dire que le R300 a assez bien encaissé la majorité des jeux DX9.
 
Donc bon, si le nv30 avait dominé le marché comme le fait le g80, il y a de forte chances que des jeux comme HL2 ou encore Far cry auraient dû faire quelques concessions sur les effets DX9.

n°6353724
Gigathlon
Quad-neurones natif
Posté le 26-04-2008 à 12:33:28  profilanswer
 

god is dead a écrit :

la situation n'est pas la même qu'à l'époque où le r300 avait le vent en poupe alors que Nv avait bcp de mal à sortir son premier gpu dx9. Qd t'as un marché fortement équipé de g80-g92, avec un Nvidia puissant, les dev devront y réfléchir à deux fois avant de décider de saccager les perfs des gpu Nv au bénéfice des gpu ATI.


C'est ce que je répète depuis un moment: l'archi GF8 représentait la seule alternative "dx10" pendant très longtemps, mais rien ne garantit que ça dure...
 
L'un dans l'autre, G92 et RV670 sont très proches en perfs pour peu qu'on n'en favorise pas un (voir Unreal Engine par exemple, sans AA évidemment), et ça malgré la puissance de filtrage démentielle des G80 et G92.
 
Maintenant, AMD a écoulé pas mal de RV670 justement entre la pénurie de 8800GT et le prix qui est tombé à un niveau franchement abordable (150€), du coup si ils ont ne serait-ce qu'1 mois de leadership (RV770), plus encore si ils pratiquent des prix agressifs, on risque fort de voir arriver des jeux qui foutent le G92 à genoux.
 
Ca pourrait expliquer la tactique de nVidia visant à vendre du G92 à toutes les sauces car si le G100/GT200 ne fait qu'augmenter la puissance brute ça risque d'être un flop.
 
Actuellement, sauf comm très très agressive de nVidia envers les devs (qui transparaîtrait logiquement), il est évident que les bonnes cartes sont chez AMD, mais encore faut-il qu'ils ne se couchent pas.
 
Le G92b restera à peine plus puissant que le G92 (half node = bonus quasi nul en fréquence quand c'est pas un malus... cf. R430), s'il est décliné en version haut de gamme, tout en étant aussi cher à produire que le RV770, donc là encore AMD a l'avantage, comme lors du duel 8800GT/HD3870.

n°6353742
MacIntoc
tu lis une phrase formidable.
Posté le 26-04-2008 à 12:41:05  profilanswer
 

marllt2>Il se démerdait très bien, les 5800 Ultra étant devant les 9800. Pas dans les même proportions que le G80/G92 face au R6x0 mais devant quand même.
 
Exact, j'avais oublié qu'ATI l'avait activé sur les HD3xx0.


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°6353763
god is dea​d
Demain, j'arrête de poster.
Posté le 26-04-2008 à 12:50:01  profilanswer
 

sasuke87 a écrit :


 
ok mais le fait que le R300 gérait assez bien DX9, ça a tout de même accélérer l'implantation de ce DX dans les jeux... Et puis bon c'est surtout avec l'apparition de jeux comme Oblivion que le R300 commençait à être juste... sinon il avait quand même bien encaissé les premiers jeux DX9 comme HL2, Far cry (un peu moins bien certes mais c'était largement suffisant)... de plus pendant une assez longue période la 6600GT était considérée comme LA carte DX9 en milieu de gamme (inutile de rappeler que les perfs de cette carte était équivalente à une 9800pro), elle était largement suffisante pour la majorité des jeux DX9 (pour les moins exigent) et vu son niveau de perfs, les R3xx faisaient aussi bien. Dès lors, on peut dire que le R300 a assez bien encaissé la majorité des jeux DX9.
 
Donc bon, si le nv30 avait dominé le marché comme le fait le g80, il y a de forte chances que des jeux comme HL2 ou encore Far cry auraient dû faire quelques concessions sur les effets DX9.


J'aime bien joué avec les filtres, et qd t'avais l'habitude de jouer en 1600 aa/af sur un bon 21 crt et qu'avec un Far cry tu devrais te contenter d'un 1280 sans filtres, ça fait bizarre :p C'est pourquoi une x800pro vivo@xt n'a pas été de trop. Ne parlons pas de Doom3, qui été catastrophique avec ma 9800pro. Le R300 a encaissé les premiers jeux dx9 si t'es pas exigeant en fait, puis rappelons qd même qu'entre le r300 9700pro et le r360 9800 xt, t'avais qd même 20-30% de différence sous Far cry. Après tout dépend de tes attentes, mais moi j'aime jouer dans des conditions bien précises, sans pour autant être un intégriste de l'aa 8x@120 fps.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6353770
god is dea​d
Demain, j'arrête de poster.
Posté le 26-04-2008 à 12:59:15  profilanswer
 

Gigathlon a écrit :


C'est ce que je répète depuis un moment: l'archi GF8 représentait la seule alternative "dx10" pendant très longtemps, mais rien ne garantit que ça dure...
 
L'un dans l'autre, G92 et RV670 sont très proches en perfs pour peu qu'on n'en favorise pas un (voir Unreal Engine par exemple, sans AA évidemment), et ça malgré la puissance de filtrage démentielle des G80 et G92.
 
Maintenant, AMD a écoulé pas mal de RV670 justement entre la pénurie de 8800GT et le prix qui est tombé à un niveau franchement abordable (150€), du coup si ils ont ne serait-ce qu'1 mois de leadership (RV770), plus encore si ils pratiquent des prix agressifs, on risque fort de voir arriver des jeux qui foutent le G92 à genoux.
 
Ca pourrait expliquer la tactique de nVidia visant à vendre du G92 à toutes les sauces car si le G100/GT200 ne fait qu'augmenter la puissance brute ça risque d'être un flop.
 
Actuellement, sauf comm très très agressive de nVidia envers les devs (qui transparaîtrait logiquement), il est évident que les bonnes cartes sont chez AMD, mais encore faut-il qu'ils ne se couchent pas.
 
Le G92b restera à peine plus puissant que le G92 (half node = bonus quasi nul en fréquence quand c'est pas un malus... cf. R430), s'il est décliné en version haut de gamme, tout en étant aussi cher à produire que le RV770, donc là encore AMD a l'avantage, comme lors du duel 8800GT/HD3870.


Je suis d'accord, le g92 c'est du g80 en moins puissant, alors que rv670 c'est du r600 avec une conso qui n'a rien à voir et quelques fonctionnalités sympa, en soi c'est plus intéressant si tu possèdes une "vieille" cg dx9. Mais bon, ni l'un ni l'autre ne m'intéresse en fait, ma gts o/c étant soit équivalente soit devant et les solution bi-gpu X2 like c'est du flan. Enfin actuellement la 9600gt trouvable à 130-140 euros fait bcp d'ombre aux HD.
 
J'attends bcp du rv770, qui annonce un beau gain de perf, un peu comme la transition 9800 --> x800. Ce que j'apprécie aussi c'est la conso idle, qui devrait être très faible, je suis bcp moins optimiste pour le gt200. Et le seul regret avec ma gts 640 c'est bien la conso idle, inadmissible. Quant aux futurs jeux dx10, j'en sais rien, j'attends surtout de voir ce que donne Dx 10, parce que pour l'instant je crois que Win XP va encore resté quelques temps chez moi.


Message édité par god is dead le 26-04-2008 à 13:00:38

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 26-04-2008 à 12:59:15  profilanswer
 

n°6353771
Activation
21:9 kill Surround Gaming
Posté le 26-04-2008 à 12:59:57  profilanswer
 

Gigathlon a écrit :


 
Maintenant, AMD a écoulé pas mal de RV670 justement entre la pénurie de 8800GT et le prix qui est tombé à un niveau franchement abordable (150€), du coup si ils ont ne serait-ce qu'1 mois de leadership (RV770),


 
 
lorsqu il y a eu penurie de 8800gt
 
y avait guere plus de hd3870 en magasin
 
c est plus le prix des hd3870/hd3850 qui a joué en leur faveur

n°6353852
dragonlore
Posté le 26-04-2008 à 13:52:47  profilanswer
 

god is dead a écrit :


J'aime bien joué avec les filtres, et qd t'avais l'habitude de jouer en 1600 aa/af sur un bon 21 crt et qu'avec un Far cry tu devrais te contenter d'un 1280 sans filtres, ça fait bizarre :p C'est pourquoi une x800pro vivo@xt n'a pas été de trop. Ne parlons pas de Doom3, qui été catastrophique avec ma 9800pro. Le R300 a encaissé les premiers jeux dx9 si t'es pas exigeant en fait, puis rappelons qd même qu'entre le r300 9700pro et le r360 9800 xt, t'avais qd même 20-30% de différence sous Far cry. Après tout dépend de tes attentes, mais moi j'aime jouer dans des conditions bien précises, sans pour autant être un intégriste de l'aa 8x@120 fps.


c'est sur que voiloir jouer en 1600 avec filtres pour des cartes jamais conçu pour comme les 9700 et 9800, c'est sur que tu peut etre que déçu. :lol:  :lol:  
les 9700pro et 9800pro étaient faites pour les résos standards les plsu courantes chez les joueurs de l'époque soit le 1024 ou le 1280 mais absolument pas pour le 1600 (trop gourmand encore surtout sur les gros jeux) ou alors sur les vieux jeux ou ceux moins gourmands.

Message cité 1 fois
Message édité par dragonlore le 26-04-2008 à 13:52:55
n°6353903
sasuke87
Posté le 26-04-2008 à 14:23:06  profilanswer
 

MacIntoc a écrit :

marllt2>Il se démerdait très bien, les 5800 Ultra étant devant les 9800. Pas dans les même proportions que le G80/G92 face au R6x0 mais devant quand même.
 
Exact, j'avais oublié qu'ATI l'avait activé sur les HD3xx0.


 
seulement en openGL ou dans certains jeux DX8 mais sans filtres.
 
Et puis bon, vous êtes assez gentil avec le RV670, moi je le vois largement largué par rapport aux plus puissants G92 et G80. L'archi d'ATI n'est vraiment pas adaptée pour faire concurrence aux meilleurs GPU de nvidia (aidé en grande parti par les développeurs certes...).  

n°6353915
Cizia
Posté le 26-04-2008 à 14:33:30  profilanswer
 

faut voir qui concurrence quoi....

 

le rv670(3870) na jamais u la prétention de concurrencer une gtx,ultra ou gts 2...

 

hors x2...qui fait très bien son boulot dans ce cas...

 

dans son segment de tarif,la 3870 est une bonne carte perf,pas chére,consommant peu,et bonne capacité d'oc...


Message édité par Cizia le 26-04-2008 à 14:35:19

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6353960
god is dea​d
Demain, j'arrête de poster.
Posté le 26-04-2008 à 15:03:25  profilanswer
 

dragonlore a écrit :


c'est sur que voiloir jouer en 1600 avec filtres pour des cartes jamais conçu pour comme les 9700 et 9800, c'est sur que tu peut etre que déçu. :lol:  :lol:  
les 9700pro et 9800pro étaient faites pour les résos standards les plsu courantes chez les joueurs de l'époque soit le 1024 ou le 1280 mais absolument pas pour le 1600 (trop gourmand encore surtout sur les gros jeux) ou alors sur les vieux jeux ou ceux moins gourmands.


Je jouais sans soucis aux jeux dx8 en 1600 hein. Le soucis c'est la combinaison 1600 + dx 9, sinon à l'époque des jeux dx8, le 1600 était tout à fait possible avec une 9700/9800 ou fx 5800/5900. De plus le 1600 n'était pas une réso de riche, un bête 19 crt permettait de jouer en 1600, mon 19 Acer de merde en témoigne :o UT 2003, Q3, Castle Wolfenstein, ça passait nickel avec les gpu de l'époque en 1600.
 
La 9700 a justement rendu possible le 1600 ... + les fitres ! Elle n'avait aucun intérêt en 1024, va voir les tests de l'époque pour t'en rendre compte.

Message cité 2 fois
Message édité par god is dead le 26-04-2008 à 15:13:42

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6354112
sasuke87
Posté le 26-04-2008 à 16:41:54  profilanswer
 

Gigathlon a écrit :


C'est ce que je répète depuis un moment: l'archi GF8 représentait la seule alternative "dx10" pendant très longtemps, mais rien ne garantit que ça dure...

 

L'un dans l'autre, G92 et RV670 sont très proches en perfs pour peu qu'on n'en favorise pas un (voir Unreal Engine par exemple, sans AA évidemment), et ça malgré la puissance de filtrage démentielle des G80 et G92.

 

Maintenant, AMD a écoulé pas mal de RV670 justement entre la pénurie de 8800GT et le prix qui est tombé à un niveau franchement abordable (150€), du coup si ils ont ne serait-ce qu'1 mois de leadership (RV770), plus encore si ils pratiquent des prix agressifs, on risque fort de voir arriver des jeux qui foutent le G92 à genoux.

 

Ca pourrait expliquer la tactique de nVidia visant à vendre du G92 à toutes les sauces car si le G100/GT200 ne fait qu'augmenter la puissance brute ça risque d'être un flop.

 

Actuellement, sauf comm très très agressive de nVidia envers les devs (qui transparaîtrait logiquement), il est évident que les bonnes cartes sont chez AMD, mais encore faut-il qu'ils ne se couchent pas.

 

Le G92b restera à peine plus puissant que le G92 (half node = bonus quasi nul en fréquence quand c'est pas un malus... cf. R430), s'il est décliné en version haut de gamme, tout en étant aussi cher à produire que le RV770, donc là encore AMD a l'avantage, comme lors du duel 8800GT/HD3870.

 

Perso je crois plutôt que c'est le GT200 qui décidera de l'avenir de DX10 (voire DX10.1), c'est pas 1 ou 2 mois de leardership d'AMD avec leur RV770 qui y changera quelque chose... Si le GT200 est un GPU assez costaud pour DX10, je pense que les développeurs suivront vu la position dominante de nvidia sur le marché et aussi grâce à leur programme "the way it's... ché plus quoi  :o ". Même si les cartes les plus vendues resteront à base de Gf 9 ou encore de RV770/RV670, le haut de gamme du DX10 restera du GT200 et servira donc de base pour les futurs jeux DX10 (mais ça c'est dans le cas où le GT200 assure en DX10  :D )...

 

Par contre si le GT200 n'est juste qu'une évolution du G80 sans réelle changement au niveau de l'archi, là il y a des chances que l'avenir de DX10 retombe dans les mains d'ATI, sauf si la pression de nvidia sur les développeurs restent aussi forte et que les parts de marché n'évoluent que très peu en faveur d'ATI.


Message édité par sasuke87 le 26-04-2008 à 17:04:08
n°6354122
sasuke87
Posté le 26-04-2008 à 16:46:07  profilanswer
 

god is dead a écrit :


Je jouais sans soucis aux jeux dx8 en 1600 hein. Le soucis c'est la combinaison 1600 + dx 9, sinon à l'époque des jeux dx8, le 1600 était tout à fait possible avec une 9700/9800 ou fx 5800/5900. De plus le 1600 n'était pas une réso de riche, un bête 19 crt permettait de jouer en 1600, mon 19 Acer de merde en témoigne :o UT 2003, Q3, Castle Wolfenstein, ça passait nickel avec les gpu de l'époque en 1600.
 
La 9700 a justement rendu possible le 1600 ... + les fitres ! Elle n'avait aucun intérêt en 1024, va voir les tests de l'époque pour t'en rendre compte.


 
Si tu vois les choses comme ça, c'est clair que la première génération supportant un nouveaux DX ne sera jamais de taille pour profiter de ce DX en question  :D et là on est bien parti pour attendre la troisième génération (voire quatrième  :whistle: ) pour enfin avoir du DX10...
 
La faute à qui???  :o
 

god is dead a écrit :


En théorie oui, en pratique le c'est le rv670 qui n'est loin d'être dx 10 pour l'instant  [:cobraphil8]  


donc y a des jeux dx10??? [:mosca]


Message édité par sasuke87 le 26-04-2008 à 17:41:06
n°6354303
bilbo248
Posté le 26-04-2008 à 18:57:14  profilanswer
 

Pour moi, aucun jeux dx10.


---------------
Photographie |--| Stats BDPV - Photovoltaique
n°6354312
Activation
21:9 kill Surround Gaming
Posté le 26-04-2008 à 19:11:05  profilanswer
 

bilbo248 a écrit :

Pour moi, aucun jeux dx10.


 
 
que tu le veuille ou pas les prochains jeux "pretextant" à plus de realisme visuel  
proposeront un mode dx10 en plus de dx9
 
t aura beau jouer qu en dx9 le jeu aura tout de meme du code dx10 meme si t en veux pas

n°6354325
sasuke87
Posté le 26-04-2008 à 19:27:27  profilanswer
 

Activation a écrit :


 
 
que tu le veuille ou pas les prochains jeux "pretextant" à plus de realisme visuel  
proposeront un mode dx10 en plus de dx9
 
t aura beau jouer qu en dx9 le jeu aura tout de meme du code dx10 meme si t en veux pas


 
non il me semble qu'il voulait plutôt dire qu'actuellement on ne peut pas vraiment dire qu'il y a des jeux DX10.

n°6354328
dragonlore
Posté le 26-04-2008 à 19:28:15  profilanswer
 

god is dead a écrit :


Je jouais sans soucis aux jeux dx8 en 1600 hein. Le soucis c'est la combinaison 1600 + dx 9, sinon à l'époque des jeux dx8, le 1600 était tout à fait possible avec une 9700/9800 ou fx 5800/5900. De plus le 1600 n'était pas une réso de riche, un bête 19 crt permettait de jouer en 1600, mon 19 Acer de merde en témoigne :o UT 2003, Q3, Castle Wolfenstein, ça passait nickel avec les gpu de l'époque en 1600.
 
La 9700 a justement rendu possible le 1600 ... + les fitres ! Elle n'avait aucun intérêt en 1024, va voir les tests de l'époque pour t'en rendre compte.


t'inquiètes, j'avais la 9700pro dès sa sortie et pendant 4 ans donc je la connais un minimum et je répète ce que j'ai dit. la 9700pro visait les résos entre le 1024 et le 1280 et pas le 1600. Encore moins avec les filtres. certe ça fonctionnait avec certains jeux plus ancien et  les jeux pas trop gourmand mais elle n'était pas faite vraiment pour à la base.  
regarde ne serait ce que le test de hardware.fr tu verras que sauf sur les vieux jeux ou les jeux peu gourmands elle tenait pas le 1600 avec filtres. et le 1600 c'était assez mais sans beaucoup de marge. bref c'est normal que sur les jeux sortit plus tard et donc plus gourmand elle ne pouvait plus supporter le 1600 (encore plus avec les filtres) mais un petit peu de réflexion suffisait pour s'en rendre compte. Quand je l'ai acheté, ça faisait déjà 2 ans que j'avais un 19"HDG et je savais pertinament que je ne pourrais pas jouer en 1600 sur les jeux sortant après et encore plus sur les jeux dx9.
Mais c'était bien normal car la majorité des gens jouaient soit en 1024 (réso des 15"lcd) soit en 1280 (réso des 17" et de nombreux 19" )
Si tu regarde le test tu verras que dans unreal tournament, jeux dx8, elle rame en 1600 + filtres et tient le choc en 1600 sans filtres sans beaucoup de marge et pourtant c'est pas le jeux le plus gourmand (unreal 2 le sera bien plus et lui ne tiendra pas le 1600 sans ramer, je peut te l'affirmer pour l'avoir finit et pourtant ce n'est qu'un moteur dx8)  http://www.hardware.fr/articles/43 [...] -9700.html
 
 
après oui les 19" font du 1600 mais seuls les HDG le faisait avec une fréquence de balayage à 85 hz au minimum. Or comme en dessous de 85 ça scintille vraiment trop c'est pas très utilisable.

Message cité 1 fois
Message édité par dragonlore le 26-04-2008 à 19:34:15
n°6354344
sasuke87
Posté le 26-04-2008 à 19:44:58  profilanswer
 

dragonlore a écrit :


t'inquiètes, j'avais la 9700pro dès sa sortie et pendant 4 ans donc je la connais un minimum et je répète ce que j'ai dit. la 9700pro visait les résos entre le 1024 et le 1280 et pas le 1600. Encore moins avec les filtres. certe ça fonctionnait avec certains jeux plus ancien et  les jeux pas trop gourmand mais elle n'était pas faite vraiment pour à la base.  
regarde ne serait ce que le test de hardware.fr tu verras que sauf sur les vieux jeux ou les jeux peu gourmands elle tenait pas le 1600 avec filtres. et le 1600 c'était assez mais sans beaucoup de marge. bref c'est normal que sur les jeux sortit plus tard et donc plus gourmand elle ne pouvait plus supporter le 1600 (encore plus avec les filtres) mais un petit peu de réflexion suffisait pour s'en rendre compte. Quand je l'ai acheté, ça faisait déjà 2 ans que j'avais un 19"HDG et je savais pertinament que je ne pourrais pas jouer en 1600 sur les jeux sortant après et encore plus sur les jeux dx9.
Mais c'était bien normal car la majorité des gens jouaient soit en 1024 (réso des 15"lcd) soit en 1280 (réso des 17" et de nombreux 19" )
Si tu regarde le test tu verras que dans unreal tournament, jeux dx8, elle rame en 1600 + filtres et tient le choc en 1600 sans filtres sans beaucoup de marge et pourtant c'est pas le jeux le plus gourmand (unreal 2 le sera bien plus et lui ne tiendra pas le 1600 sans ramer, je peut te l'affirmer pour l'avoir finit et pourtant ce n'est qu'un moteur dx8)  http://www.hardware.fr/articles/43 [...] -9700.html
 
 
après oui les 19" font du 1600 mais seuls les HDG le faisait avec une fréquence de balayage à 85 hz au minimum. Or comme en dessous de 85 ça scintille vraiment trop c'est pas très utilisable.


 
+1 excepté Quake 3 et peut être deux ou trois autres jeux, le 1600 + filtres étaient assez limites à l'époque.

n°6354406
rxjy
JeanZyves
Posté le 26-04-2008 à 20:31:42  profilanswer
 

drapo


---------------
[HFR] JeanZyves
n°6354602
marllt2
Posté le 26-04-2008 à 22:52:02  profilanswer
 

Selon chiphell, le RV770 XT aura un score x2 par rapport à une HD 2900 Pro sur 3DMark 06.

Message cité 1 fois
Message édité par marllt2 le 26-04-2008 à 22:52:54
n°6354616
sasuke87
Posté le 26-04-2008 à 23:03:00  profilanswer
 

marllt2 a écrit :

Selon chiphell, le RV770 XT aura un score x2 par rapport à une HD 2900 Pro sur 3DMark 06.


 
si ce score est vrai et qu'il se vérifie dans les jeux, on sera donc bien loin des 50% en plus annoncé.

n°6354617
Activation
21:9 kill Surround Gaming
Posté le 26-04-2008 à 23:03:55  profilanswer
 

ohh bah si 3dmou 2k6 l'a dit  :o
 
je savais pas que 3dmou 2k6 gérait dx10.x au passage  :o

Message cité 1 fois
Message édité par Activation le 26-04-2008 à 23:04:33
n°6354620
god is dea​d
Demain, j'arrête de poster.
Posté le 26-04-2008 à 23:06:13  profilanswer
 

sasuke87 a écrit :


 
si ce score est vrai et qu'il se vérifie dans les jeux, on sera donc bien loin des 50% en plus annoncé.


Et encore, sachant qu'on est sûrement cpu limited :o
 
Toute façon, tu peux pas avoir 50% de + seulement avec les spéc qu'on connait.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6354623
jeff74700
Posté le 26-04-2008 à 23:07:26  profilanswer
 

vivement qu'elle sorte :)

n°6354641
Activation
21:9 kill Surround Gaming
Posté le 26-04-2008 à 23:20:30  profilanswer
 

computex taipei

n°6354644
Cizia
Posté le 26-04-2008 à 23:25:03  profilanswer
 

pour fin mai logiquement, a ce que j'ai vu....
 
ma petite r600 a trouver ça remplaçante....:D
 


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6354647
Activation
21:9 kill Surround Gaming
Posté le 26-04-2008 à 23:26:59  profilanswer
 

si amd est pas trop con
 
il attendra le 3juin le salon pour marqué des point histoire de remonter ça cote niveau financier
 
et qqs jours de plus ça veut dire plus de stock donc pas lancé une carte qui 2 jours apres sera déjà en rupture

n°6354652
Cizia
Posté le 26-04-2008 à 23:31:14  profilanswer
 

oui,une date proche est une bonne idée..mais il faut du stock...le probleme ce sera encore les sites et intermédiaires qui vont vouloir ce gaufrer...:(


Message édité par Cizia le 26-04-2008 à 23:31:52

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6354688
sasuke87
Posté le 26-04-2008 à 23:58:59  profilanswer
 

Activation a écrit :

ohh bah si 3dmou 2k6 l'a dit  :o
 
je savais pas que 3dmou 2k6 gérait dx10.x au passage  :o


 
hein pk tu dis ça???  :??:

n°6354716
bilbo248
Posté le 27-04-2008 à 00:19:43  profilanswer
 

Parce que l'on ne peut évaluer correctement une carte dx 10 sur 3dmark 2006 en dx 9..
Enfin je pense..
DX10 c'est surtout un put*** d'argument commerciale depuis plus d'un an..
Merci crosoft.


---------------
Photographie |--| Stats BDPV - Photovoltaique
n°6354718
tenseur
Posté le 27-04-2008 à 00:21:11  profilanswer
 

J'espere que le RV770 alias HD4870XT va relancer la concurrence et va permettre à ATI de reprendre le leadership au moins 2 mois. En tout cas il peux reserver bien des surprises en terme de performances, wait & see
DX10 c'est du pur marketing pour le moment et le jeux crysis est un parfait exemple et ce n'est pas le seul

Message cité 1 fois
Message édité par tenseur le 27-04-2008 à 00:25:11
n°6354719
Cizia
Posté le 27-04-2008 à 00:21:34  profilanswer
 

bah c'est tout de même une évolution logique...
 
on va pas rester sur dx9 a vie...
 
après ,a avoir le matos capable de bien le gérer et les développeur a bien l'utiliser...;)


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6354721
marllt2
Posté le 27-04-2008 à 00:23:09  profilanswer
 

tenseur a écrit :

dommage que ATI n'as pas mis de 512 bits, ça aurait pu être une carte plus veloce que le GT200.


Rolala, mais qu'est-que que tu veux qu'une carte "actuelle" fasse de 260 Go/s, alors qu'une 8800 GTX en fait 80Go/s ?  :o
 
Si le GPU en a besoin que de 120-130 Go/s lui en donner plus ne changera rien. Regardez la différence de perf entre une HD 2900XT et une HD 3870. La HD 2900XT a un bus 512 bits et pourtant elle n'est pas plus rapide qu'une HD3870...
 

tenseur a écrit :

J'espere que le RV770 alias HD4870XT va relancer la concurrence et va permettre à ATI de reprendre le leadership au moins 2 mois.


En DX9 sans filtres l'objectif est de dépasser la 9800 GX2. En DX10 AA par contre la 8800 GTX sera dure à battre...


Message édité par marllt2 le 27-04-2008 à 00:32:44
n°6354725
Cizia
Posté le 27-04-2008 à 00:28:34  profilanswer
 

+1 avec marlt 2 la....

 

meme +2 puisque 2 response...:D

 

avec de telle fréquence ram,aucun intérêt de mettre un bus 512bit..surtout que ça augmente le prix de revient...


Message édité par Cizia le 27-04-2008 à 00:30:19

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6354727
tenseur
Posté le 27-04-2008 à 00:32:10  profilanswer
 

je suis d'accord avec toi mais 512 bits ça fait mieux que 256 bits qui est déjà presente sur des cg depuis la ..... 9800 pro d'ATI !
Le 256 bits risque quant même de brider un peu même avec de la GDDR5 gonglé aux hormones ...
 
Du coté de Nvidia c'est pas mieux : 512 bits avec de la GDDR3 déjà presente sur les 6800 GT !. Donc pas genial non plus. Dans tous les cas on aura un truc , soit le bus, soit la ram qui fait penser à la 9800 pro - 6800 GT, donc pas top

Message cité 3 fois
Message édité par tenseur le 27-04-2008 à 00:37:29
n°6354731
marllt2
Posté le 27-04-2008 à 00:34:48  profilanswer
 

En quoi ça fait mieux ?  :heink:  Bus 256 bit GDDR5 ou bus 512 bit GDDR3, c'est bonnet blanc blanc bonnet. Entre 120Go/s et 140Go/s.
 

tenseur a écrit :

Le 256 bits risque quant même de brider un peu même avec de la GDDR5 gonglé aux hormones ...


:hebe:


Message édité par marllt2 le 27-04-2008 à 00:36:02
n°6354734
Cizia
Posté le 27-04-2008 à 00:36:27  profilanswer
 

non....:D
 
ça marche pas comme ça...
 
avec ces énorme fréquence ram(gddr5),la bp sera très elever...le bus 256bit sera bien suffisant...


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  27  28  29  ..  1325  1326  1327  1328  1329  1330

Aller à :
Ajouter une réponse
 

Sujets relatifs
ATI ou problème d'isolation électrique?[Topic Unique] Gigabyte GA-P31-DS3L
[ATI 1950gt] pas d'image hors mode VGA par défaut RADEON 9600 PRO 256 DDR2 est ce compatible ?
carte AGP - Radeon HD2600XT ou X1950Pro ?[Topic Unique] DFI LANPARTY "DK" : P35 T2RS et X38
[Topic Unique] Timings Mémoire [travail commun][Topic Unique] - Western digital 640 Go et 320Go (plateau(x) de 320Go)
Lire une source video extérieur sur le PC avec ATI control center[Topic Unique] DFI LANParty LT X38-T2R
Plus de sujets relatifs à : [Topic Unique] ATI Radeon 4800 Series (RV770 inside)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)