Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1513 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  Compatibilité SM3.0/HDR : une nécessité ?

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Précédente
Auteur Sujet :

Compatibilité SM3.0/HDR : une nécessité ?

n°4451815
Jayk
Posté le 18-11-2005 à 09:04:49  profilanswer
 

Salut à tous,
 
Voilà j’aimerais votre avis sur la question ... Je suis partagé quant à changer ma configuration graphique en AGP ou ne rien updater du tout et si par hasard je me dirige vers un choix, il se fera incontestablement entre la 6800 (GT a priori) et la X850XT. Or, je lis des propos tout à fait contradictoires sur la nécessité d’avoir accès au HDR et au SM3.0 dans l’avenir. Que les choses soient claires, si je change de carte graphique c’est manifestement pour éviter de changer autre chose (de type carte mère and co) dans un avenir assez lointain, c'est-à-dire concrètement au moins 1 an et demi (voire plus …). Ma question est donc simple, est-ce que vous pensez que la compatibilité SM3.0 est indispensable pour quelqu’un qui compte acheter sur le long terme ou que de toute façon, bien qu’elle soit utile, elle serait de toute façon ingérable par une configuration comme la mienne, très loin d’être au top de nos jours et a fortiori dans quelques mois.
 
Je vous remercie beaucoup
 
 

mood
Publicité
Posté le 18-11-2005 à 09:04:49  profilanswer
 

n°4451837
johnbroot
n00b Inside
Posté le 18-11-2005 à 09:27:26  profilanswer
 

Pour moi non car une 6800Gt même en ultra a tout juste assez de puissance pour faire tourner les jeux actuels hors hdr (avec hdr ça devient juste). Pour les jeux à venir ce sera forcément pire pour une carte gfx de ce calibre. le SM3.0 ne s'impose pas sur cette génération de carte. Prends le modele ati ou nvidia que tu trouveras au meilleur prix donc.


Message édité par johnbroot le 18-11-2005 à 09:27:50
n°4451860
Fraisouill​e
Grouik Grouik
Posté le 18-11-2005 à 09:44:02  profilanswer
 

Johnny le brooteur a raison ;)

n°4451865
johnbroot
n00b Inside
Posté le 18-11-2005 à 09:46:59  profilanswer
 

connaisseur. :D

n°4451892
Fraisouill​e
Grouik Grouik
Posté le 18-11-2005 à 10:16:18  profilanswer
 

Ben quand je vois qu'avec une X700Pro qui est entre la 6600 et la 6600GT, je peux pas mettre d'anti aliasing et de filtres aniso sur les derniers jeux, je me dis qu'une 6800GT permettra d'utiliser ces filtres et que seuls les 7800 permettent d'utiliser les filtres et le hdr...

n°4451900
johnbroot
n00b Inside
Posté le 18-11-2005 à 10:20:42  profilanswer
 

Moi pareil avec un équivalent 850XTPE je peux pas tout mettre à fond sur des jeux comme CODII ou fear. A partir de là tout est dit...

n°4451924
LePcFou
Delinquant textuel
Posté le 18-11-2005 à 10:38:46  profilanswer
 

Ben moi sur mon portable et sa "petite" x700
Lost coast marche bien avec le hdr activé
 
Bon c'est pas tout à fond, mais le hdr marche aussi sur ati Xxx0:)

n°4451940
krio
Mamouth sous gravier
Posté le 18-11-2005 à 10:54:34  profilanswer
 

Moi j'ai tranché comme toi je me posais la question...
J'ai un athlon 2500+@3200+ avec 1Go de ram.
Je me fais pas d'ilusion pour dans 1an et demi donc j'ai opté pour la x850xt parce que financierement la difference n'est pas enorment mais on gagne en puissance "brute".
J'ai quasi jamais joué avec les filtres, je trouve les jeux deja sympas en medium à l'heure actuel.
Fear en 1280*1024 avec les details en bas c'est deja tres jolie.
Bref la x850xt me permettra de remonter tout ca.
 
Donc hdr m'en fou (deja ca regle un point).
Pour le SM3, le parc de carte ne le gerant pas est bcp trop important.
 
Pas compliqué seul les nouvelles cartes ATI le font, et les 6800 sont tout juste assez balaise.
Bilan ca va faire comme avec le PCI express, on a 1an, 1an et demi pour etre bloqué.
Bah voila mon investissement sera amorti...

n°4452043
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 12:06:18  profilanswer
 

Jayk a écrit :

Salut à tous,
 
Voilà j’aimerais votre avis sur la question ... Je suis partagé quant à changer ma configuration graphique en AGP ou ne rien updater du tout et si par hasard je me dirige vers un choix, il se fera incontestablement entre la 6800 (GT a priori) et la X850XT. Or, je lis des propos tout à fait contradictoires sur la nécessité d’avoir accès au HDR et au SM3.0 dans l’avenir. Que les choses soient claires, si je change de carte graphique c’est manifestement pour éviter de changer autre chose (de type carte mère and co) dans un avenir assez lointain, c'est-à-dire concrètement au moins 1 an et demi (voire plus …). Ma question est donc simple, est-ce que vous pensez que la compatibilité SM3.0 est indispensable pour quelqu’un qui compte acheter sur le long terme ou que de toute façon, bien qu’elle soit utile, elle serait de toute façon ingérable par une configuration comme la mienne, très loin d’être au top de nos jours et a fortiori dans quelques mois.
 
Je vous remercie beaucoup


 
c evident ca :)
 
moi ce ke je t'ai dit sur le sujet a été confirmé par tridam, maintenant que tout les nouvelle games ATI sont compatible Sm3, et ke les Nvidia le sont depuis 1.5 an, ya un moment les programeurs vont plus trop se faire chier a optimiser le SM2 et feront tout en SM3, la principale difference entre les 2 c k'il faut moins de code pour faire la meme chose, les SM3 c pas ke le HDR, c'est surtout la facon de programmer qui est plus facile.
 
la peut etre ke les perf vont se faire sentir, cela dit c un pari sur l'avenir.
 
maintenant le 1er facteur limitant sera ton cpu, dans 1 an ta config sera l agonie, et deja aujourdhuis tu sentiras un manke de framerate ds les gros jeux.
 
a oui, si tu veux vraiment garder ta carte longtps,  vista demandera  des sm3  [:xp1700]  
 
 
pour l avenir (genre garder 2 ans ta carte) il te faut une carte compatible SM3.
 
si c pour tenir cette année, prends la moins cher des 2 entre les 6800gt/X800


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 12:22:06
n°4452053
Profil sup​primé
Posté le 18-11-2005 à 12:14:24  answer
 

Je te conseillerai plutôt un 6800 GT... tu les trouve pour pas trop cher maintenant!


Message édité par Profil supprimé le 18-11-2005 à 12:49:07
mood
Publicité
Posté le 18-11-2005 à 12:14:24  profilanswer
 

n°4452080
Fraisouill​e
Grouik Grouik
Posté le 18-11-2005 à 12:33:06  profilanswer
 

De toutes façons, tenir 2 ans avec une carte graphique en voulant avoir des graphismes haute qualité, c'est de l'utopie. Même en prenant une 7800GTX... Faut pas rêver les gars.
Là, maintenant, prend une carte sm2 sans HDR, ça ira très bien. Quand il faudra passer au sm3 et HDR, tu prendras une carte nouvelle génération.

n°4452088
johnbroot
n00b Inside
Posté le 18-11-2005 à 12:37:10  profilanswer
 

c'est une evidence. Prendre une carte de génération précédente uniquement parcequ'elle gère le sm3.0 en espérant grace à ça tenir 2 ans... Je ne dis pas qu'il faut forcément prendre prendre une carte SM2.0 mais prendre la moins chère (à puissance équivalente) entre une ATI X8xx (sm2.0) et nvidia 6xxx(sm3.0).

Message cité 1 fois
Message édité par johnbroot le 18-11-2005 à 12:39:49
n°4452096
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 12:41:49  profilanswer
 

Fraisouille a écrit :

De toutes façons, tenir 2 ans avec une carte graphique en voulant avoir des graphismes haute qualité, c'est de l'utopie. Même en prenant une 7800GTX... Faut pas rêver les gars.
Là, maintenant, prend une carte sm2 sans HDR, ça ira très bien. Quand il faudra passer au sm3 et HDR, tu prendras une carte nouvelle génération.


 
 
moi ma gf4 a tenu 3 ans :)  les 2 1ere annnée c etait nikel :) c'est a partir de Doom3 ke ca a été plus hard mais les jeux DX8 tournaient bien :)
 
 
une gtx de nos jours tiendra 2 ans sans pb :)
 
ps : le HDR on s'en tape  :D


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 12:53:04
n°4452116
johnbroot
n00b Inside
Posté le 18-11-2005 à 12:48:36  profilanswer
 

le sm3.0 on s'entape aussi :D

n°4452126
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 12:51:01  profilanswer
 

johnbroot a écrit :

c'est une evidence. Prendre une carte de génération précédente uniquement parcequ'elle gère le sm3.0 en espérant grace à ça tenir 2 ans... Je ne dis pas qu'il faut forcément prendre prendre une carte SM2.0 mais prendre la moins chère (à puissance équivalente) entre une ATI X8xx (sm2.0) et nvidia 6xxx(sm3.0).


 
 
de toute facon faut pas mettre plus de 250 pour une carte de la generation precedente, surtout en AGP.
 
mais ce choix de generation precedente est le meilleur choix, elles sont puissantes, loin d'etre largé meme avek les gros jeux actuel, et seront dans pb enkore ds le coup pour facile 1 an, la 2eme année faudra baisser un peu les details par contre :D


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 12:55:18
n°4452129
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 12:52:02  profilanswer
 

johnbroot a écrit :

le sm3.0 on s'entape aussi :D


 
ben non justement, si le HDR est un gadget les SM3 ca touche a la programation du jeu en lui meme  cf mon post plus haut

n°4452151
bjone
Insert booze to continue
Posté le 18-11-2005 à 13:09:22  profilanswer
 

B&W 2 utilise le SM3 et le Geometry Instancing.
 
Unreal Engine 3 sera massivement HDR.
 
Perso, si tu devais acheter ce serait entre 6800/7800 & x1800.
 
je pense que prendre une x800 maintenant c'est être dans le mauvais cycle. (y'a 1 an une x800 aurait été plus amortie)
 
enfin c'est ce que j'en dis....

Message cité 1 fois
Message édité par bjone le 18-11-2005 à 13:09:53
n°4452152
bjone
Insert booze to continue
Posté le 18-11-2005 à 13:10:23  profilanswer
 

en fait ça dépend combien de temps tu veux la garder.

n°4452160
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 13:16:34  profilanswer
 

il est en AGP surtout.

n°4452161
bjone
Insert booze to continue
Posté le 18-11-2005 à 13:16:59  profilanswer
 

ha oué :/

n°4452168
Wilfried28​28
Posté le 18-11-2005 à 13:19:18  profilanswer
 

Moi maintenant j'ésite à garder ma 6600GT PCi-E Leadtek o/c à 550MHz/1.19GHz  (500MHz/1.0GHz d'origine) ! et tenir jusqu'a la prochaine génération de carte supportant DirectX 10 et acheter une haut de game à leurs sortie !!! C'est une bonne idée ou pas ??? je joue bcp mais j'ai pas trouver de jeux qui font ramer la 6600GT encore (je passe BF2 tout en ultra sans blem avec AA2x meme) !

n°4452172
Frogyman
Giggity giggity goo
Posté le 18-11-2005 à 13:21:32  profilanswer
 

Pour être tranquille pour 5 ans et avoir des jeux de plus en plus beau il faut acheter une xbox 360. ;)  
 
Sinon j'ai acheté une 6800 GS, avant-hier.

n°4452173
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 13:21:55  profilanswer
 

Wilfried2828 a écrit :

Moi maintenant j'ésite à garder ma 6600GT PCi-E Leadtek o/c à 550MHz/1.19GHz  (500MHz/1.0GHz d'origine) ! et tenir jusqu'a la prochaine génération de carte supportant DirectX 10 et acheter une haut de game à leurs sortie !!! C'est une bonne idée ou pas ??? je joue bcp mais j'ai pas trouver de jeux qui font ramer la 6600GT encore (je passe BF2 tout en ultra sans blem avec AA2x meme) !


 
 
tu changeras dans un an a la sortie de UT2007 :)
 
jamais acheter de haut de gamme, tu payes un max et t'en profitte pas vraiment (enfin tu gagne une reso koi...), faut toujours acheter dekalé d'une generation (si on veux acheter malin) c pas cher et ca tourne bien.

Message cité 1 fois
Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 13:25:02
n°4452174
Wilfried28​28
Posté le 18-11-2005 à 13:22:55  profilanswer
 

THE REAL KRYSTOPHE a écrit :

tu changeras dans un an a la sortie de UT2007 :)


Sa sera du  DX 10 ?

n°4452179
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 13:24:37  profilanswer
 

Wilfried2828 a écrit :

Sa sera du  DX 10 ?


 
 
UT ou la generation de CG  dans un an ?


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 13:24:49
n°4452183
johnbroot
n00b Inside
Posté le 18-11-2005 à 13:25:55  profilanswer
 

bjone a écrit :

B&W 2 utilise le SM3 et le Geometry Instancing.
 
Unreal Engine 3 sera massivement HDR.
 
Perso, si tu devais acheter ce serait entre 6800/7800 & x1800.
 
je pense que prendre une x800 maintenant c'est être dans le mauvais cycle. (y'a 1 an une x800 aurait été plus amortie)
 
enfin c'est ce que j'en dis....


 
et grace à ça les 6800 rendent plus vite les scènes que les x800 (à catégorie de perf équivalente)?
 
[edit]
je suis ni pro ati ni pro nvidia mais quand j'ai changé en juin de CG (6800 128 MoDDRI en 16pipes de chez dabs flambée après un mois d'utilisation)
j'ai trouvé une x800provivo 256MoDDRIII @200€ debridée en 16p fonctionnant en 550/564. Pour du pareil matos à un tel prix, j'ai pas réfléchi 2 fois à renoncer aux sm3.0.

Message cité 1 fois
Message édité par johnbroot le 18-11-2005 à 13:33:34
n°4452195
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 13:32:55  profilanswer
 

en PCIe ya le choix en rapport kalité prix les GTO2 et les 6800GS sont bien :)
 
par contre en AGP le choix est bien plus serré.......

n°4452199
johnbroot
n00b Inside
Posté le 18-11-2005 à 13:34:26  profilanswer
 

les GTO² y'en a en quasiement plus et les prix ont bien flambé vu la demande. :D

n°4452280
bjone
Insert booze to continue
Posté le 18-11-2005 à 14:28:32  profilanswer
 

johnbroot a écrit :

et grace à ça les 6800 rendent plus vite les scènes que les x800 (à catégorie de perf équivalente)?


Oui & non dans le cas de B&W 2.
J'ai pas vu tests de framerate, déjà il faudrait une démo, et ensuite c'est vachement plus complié:
 
Les ATI actuelles ont un le geometry instancing de manière officieuse, mais il faut que le moteur le gère.
le GI peut mettre un sacré coup de fouet en termes de rendement sur les objets peu complexes géométriquement (arbres & autres trucs dans le cas de B&W).
 
mais Black & White (le 1 comme le 2), sont vachement dépendant du CPU passé un certain nombres d'habitants etc.... donc ça doit casser ce que le GI peut procurer en rendement.
 
j'ai déjà fait freezer B&W 2 sans le dernier patch, en bloquant ma créature entre des arbres :D
 
---
 
pour en revenir, ça dépends du prix et dans combien de temps tu comptes revendre ta carte, et si la décote ne te gêne pas.
par exemple si tu prends Unreal 2007, normalement d'après ce que j'ai lu, en HDR c'est du 1024x768 sur 6800gt, 1280x1024 sur un sli de 6800gt ou 7800gtx.
la différence c'est qu'à la revente, une 6800gt pourra toujours prétendre faire tourner les derniers jeux du moment de la revente, alors qu'une x800 peut-être mais en moins bonne qualité (je penses qu'une x800 aura plus décote qu'une 6800, pas autant qu'un fx actuellement).
 
ceci dit sur une x800 tu peux prétendre faire du HDR, mais ce sera un chemin moins aisé pour les devs. (et des fois les devs ne se prennent plus la tête: cf les jeux qui veulent plus de gf4 comme bf2)

Message cité 1 fois
Message édité par bjone le 18-11-2005 à 14:30:03
n°4452829
johnbroot
n00b Inside
Posté le 18-11-2005 à 18:24:22  profilanswer
 

bjone a écrit :

Oui & non dans le cas de B&W 2.
J'ai pas vu tests de framerate, déjà il faudrait une démo, et ensuite c'est vachement plus complié:
 
Les ATI actuelles ont un le geometry instancing de manière officieuse, mais il faut que le moteur le gère.
le GI peut mettre un sacré coup de fouet en termes de rendement sur les objets peu complexes géométriquement (arbres & autres trucs dans le cas de B&W).
 
mais Black & White (le 1 comme le 2), sont vachement dépendant du CPU passé un certain nombres d'habitants etc.... donc ça doit casser ce que le GI peut procurer en rendement.
 
j'ai déjà fait freezer B&W 2 sans le dernier patch, en bloquant ma créature entre des arbres :D
 
---


 
Bon à savoir :jap:  
 
 

bjone a écrit :


pour en revenir, ça dépends du prix et dans combien de temps tu comptes revendre ta carte, et si la décote ne te gêne pas.
par exemple si tu prends Unreal 2007, normalement d'après ce que j'ai lu, en HDR c'est du 1024x768 sur 6800gt, 1280x1024 sur un sli de 6800gt ou 7800gtx.
la différence c'est qu'à la revente, une 6800gt pourra toujours prétendre faire tourner les derniers jeux du moment de la revente, alors qu'une x800 peut-être mais en moins bonne qualité (je penses qu'une x800 aura plus décote qu'une 6800, pas autant qu'un fx actuellement).
 
ceci dit sur une x800 tu peux prétendre faire du HDR, mais ce sera un chemin moins aisé pour les devs. (et des fois les devs ne se prennent plus la tête: cf les jeux qui veulent plus de gf4 comme bf2)


 
c'est là qu'on est pas d'accord. ce n'est pas parcequ'une carte intègre une technologie qu'elle aura la puissance nécessaire pour l'exploiter. C'est déjà pour le cas actuellement avec la 6800GT qui est juste pour faire tourner les derniers jeux, alors dans l'avenir sm3.0 ou pas elle sera à la ramasse comme les copines... Ca me rappelle les 1ere cartes à intégrer le bump mapping alors que dès que t'activais la feature les perfs plongeaient. La possibilité d'utiliser cette techno ne s'est démocratisée qu'une voir 2 générations plus tard.

Message cité 1 fois
Message édité par johnbroot le 18-11-2005 à 18:26:17
n°4452996
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 19:24:55  profilanswer
 

moi ca me ferais plutot penser au GF4 1.3 et au 9700 2.0  qui etaient proche (d'une reso et donk hors AA) sous DX8  mais ont connu un fossé depuis DOOM3 et son DX9 donk,  si ca tombe ca peux faire ca ds le futur
 
on peux pas enkore savoir.


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 23:02:07
n°4453043
johnbroot
n00b Inside
Posté le 18-11-2005 à 19:51:55  profilanswer
 

Attends y'a pas du tout le même écart entre les sm2.0 et 3.0 que le fossé monumental existant entre le 1.3 et le 2.0. En attestent les débats contradictoires sm3.0 vs 2.0 qui animent le forum depuis un moment :lol:
 
 
Pour moi c'est tout vu que le sm3.0 ne donnera pas d'avantage aux gf6xxx par rapport aux X8xx mais comme tu dis mieux vaut la jouer humble: On ne peut pas encore savoir.
 

n°4453064
bjone
Insert booze to continue
Posté le 18-11-2005 à 20:01:19  profilanswer
 

johnbroot a écrit :

Bon à savoir :jap:  
 
 
 
 
c'est là qu'on est pas d'accord. ce n'est pas parcequ'une carte intègre une technologie qu'elle aura la puissance nécessaire pour l'exploiter. C'est déjà pour le cas actuellement avec la 6800GT qui est juste pour faire tourner les derniers jeux, alors dans l'avenir sm3.0 ou pas elle sera à la ramasse comme les copines... Ca me rappelle les 1ere cartes à intégrer le bump mapping alors que dès que t'activais la feature les perfs plongeaient. La possibilité d'utiliser cette techno ne s'est démocratisée qu'une voir 2 générations plus tard.


 
bin y'a qu'a voir entre une 9600pro et une fx5700, laquelle est le plus utilisable actuellement, et a le meilleur prix de revente...
 
pour moi c'est clairement la 9600pro, alors que pendant un moment, au tout début de 9600 beaucoup hésitaient entre la gf4ti et la 9600pro.
 
ceci dit l'écart entre x800 et 6800 n'est pas aussi important en feature & perfs qu'entre 9600 & fx5700 (perfs) et gf4ti (features, là c'est un autre monde).
 
mais bon oui du HDR tu peux en faire sur x800/9800, mais c'est via une forme moins triviale (et plus restreinte en précision aussi) que via des rendertargets fp16, et par contre le Geometry Instancing officieux sur les x800/9800 je sais pas trop si il diverge énormément de l'approche SM3.0 (ça doit être assez proche avec plus de restrictions).
 
après à mon avis, ce que l'on peut craindre, c'est que passé un certain parc SM 3.0, les devs lacheront les cartes SM 2.0 comme la Geforce 4 a été lachée.
bon c'est vrai que le niveau de fonctionnalitées SM 2.0 étant bien moins éloignées du SM 3.0 que le SM 1.x du 2.0, fait qu'effectivement les cartes SM 2.0 ne souffriront pas de mort commerciale violente.
 
mais disons que pour le même prix, j'aurai tendance à conseiller la carte qui a le plus features si en contre-coup tu perds 5/10% de perfs sur le moment.

n°4453072
bjone
Insert booze to continue
Posté le 18-11-2005 à 20:05:39  profilanswer
 

johnbroot a écrit :


Pour moi c'est tout vu que le sm3.0 ne donnera pas d'avantage aux gf6xxx par rapport aux X8xx mais comme tu dis mieux vaut la jouer humble: On ne peut pas encore savoir.


 
Pour moi c'est loin d'être tout vu, ce qui me gêne d'ailleurs c'est que le X1800 fasse pas le filtrage en fp16 et que en int16, mais j'ai pas vu de doc pour voir si c'était pénalisant ou po (en termes algo/effets/efficacité).
 

n°4453094
Fraisouill​e
Grouik Grouik
Posté le 18-11-2005 à 20:17:22  profilanswer
 

bjone a écrit :

Pour moi c'est loin d'être tout vu, ce qui me gêne d'ailleurs c'est que le X1800 fasse pas le filtrage en fp16 et que en int16, mais j'ai pas vu de doc pour voir si c'était pénalisant ou po (en termes algo/effets/efficacité).


 
Ben de toutes façons, vu les perfs globales de la carte, ça la pénalise pas trop... Le contrôleur mémoire a l'air de bien faire son boulot.

n°4453222
johnbroot
n00b Inside
Posté le 18-11-2005 à 21:09:29  profilanswer
 

concernant le hdr je cite tridam
 

ATI et Nvidia supportent chacun un certain nombre de format HDR différents. Au niveau des différences importantes entre ATI et Nvidia :
- ATI supporte le blending FX10, Nvidia pas
- ATI supporte l’antialiasing de type multisample en FX10 et en FP16, Nvidia pas
- Le filtrage des textures FP16 est gratuit chez Nvidia mais pas chez ATI
 
Globalement, ATI est plus souple que Nvidia au niveau des formats HDR supportés, mais étant donné que Nvidia a été le premier sur la technologie, le FP16 est le principal format utilisé ce qui peut poser problèmes aux Radeon X1K qui ne filtrent pas nativement les textures FP16, ce qui peut causer quelques soucis tant que les shaders n’ont pas été adaptés pour pallier à ce manque.


 
Donc historiquement avantage à nvidia avec le fp16 par contre comme ça a été dit il n'y a pas qu'1 seul algo de hdr et hl2 lostcoast (qui n'est pas programmé par une bande d'oscurs developpeurs) n'utilise pas justement le fp16. Reste donc à savoir quel algo s'imposera par son efficacité.
 
Je trouve ça fort de ta part bjone d'oser faire un parallèle
fx5700 (fausse carte DX9 à l'archi moisie) ou gfti4200(DX 8 ps1.2)  vs 9600pro (vraie carte DX9)
et
X8xx vs GF6xxx.
 
Ca revient encore une fois à dire qu'il y a le même ecart entre les sm3.0 et 2.0 qu'entre sm1.2 et 2.0  :pt1cable:  
Quant à sous entendre que les X8xx sont pourries niveau archi comme ont pu l'etre les fx5700....
 
M'enfin pour finir s'il y a moyen de trouver une GF6xxx au même prix qu'une X8xx pourquoi se priver de sm3.0?  [:spamafote]
On verra bien si les sm3.0 donnent un avantage significatif aux gf68xx / X8xx...


Message édité par johnbroot le 18-11-2005 à 21:18:59
n°4453419
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 22:59:53  profilanswer
 

johnbroot a écrit :

Attends y'a pas du tout le même écart entre les sm2.0 et 3.0 que le fossé monumental existant entre le 1.3 et le 2.0. En attestent les débats contradictoires sm3.0 vs 2.0 qui animent le forum depuis un moment :lol:
 
 
Pour moi c'est tout vu que le sm3.0 ne donnera pas d'avantage aux gf6xxx par rapport aux X8xx mais comme tu dis mieux vaut la jouer humble: On ne peut pas encore savoir.


 
 
 
kan y aura 0 optimisation sur les Sm2.0 paske les 3.0 seront la depuis 2 ans tu peux pas savoir.
 
 
sinon plus realiste ya les ti4200 face au 9600xt, = sur les jeux Dx8 c etait plus dutout pareil sur les jeux Dx9.


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 23:01:30
n°4453439
johnbroot
n00b Inside
Posté le 18-11-2005 à 23:10:30  profilanswer
 

et tu peux pas non plus savoir si le temps que l'on passe au tout shader 3.0 les 68xx seront encore dans le coup.
A vérifier si ATI s'est vu forcé d'intégrer les shaders 3.0 sur la série x18xx car c'est une réelle avancée ou bien parceque Nvidia a si bien communiqué sur les shaders 3.0 qu'ils ont du les intégrer pour des raisons marketing.  
 
Comme tu dis en comparant les Ti aux 9600 la question est de savoir ce qu'apportent réellement les 3.0 / 2.0.
Faut bien faire la différence entre optimisation qui consiste à grater qq % d'efficacité et introduire de réelles avancées avec de vraies nouvelles fonctions. J'ai (peut être à tord) l'impression que le passage sm2.0 sm3.0 c'est de l'optimisation et le passage sm1.2 sm2.0 une vraie évolution quant aux rendus graphiques obtenus.
 
A ce sujet faudra que je décortique les différences de fonctions offertes par les shaders 1.2/2.0/3.0


Message édité par johnbroot le 18-11-2005 à 23:14:07
n°4453459
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2005 à 23:18:05  profilanswer
 

mais jai pas dis ke je savait j expose mes craintes c tout
 
 
les Sm30 c loin d'etre du marketing comme l etaient les 1.4 des 8500, la tout les jeux sont maintenant programés avek des Sm3 (facilité de programation inside)
 
moi dans le doute j'ai preferé prendre du Nvidia, on aurra la reponse d'ici 1 an :D


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 23:20:03
n°4453463
johnbroot
n00b Inside
Posté le 18-11-2005 à 23:21:29  profilanswer
 

dans 1 an la question ne se posera plus (pour moi) car je pourrai m'acheter une 78xx ou 18xx :D
et dans un an les 68xx ou les x8xx seront à la rue toutes les 2. Si dans un 1an les 68xx font la peau aux x8xx grace aux sm3.0 je heuuu je sais pas ce que je fais...  [:ddr555]


Message édité par johnbroot le 18-11-2005 à 23:23:45
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Carte graphique

  Compatibilité SM3.0/HDR : une nécessité ?

 

Sujets relatifs
composition pc et compatibilitéComposant grillé ou pb de compatibilité ?
compatibilité a7n8x-VM (pas 400) et sempronproblème compatibilité mémoire vive pc3200 et carte mère dfi ad77
CompatibilitéCompatibilité FSB carte mère - CPU
compatibilité carte mere / graphiqueCompatibilité ! Help
Compatibilité Ati et SLI ???!meilleur compatibilité processeur pour XP 64
Plus de sujets relatifs à : Compatibilité SM3.0/HDR : une nécessité ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR