Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1282 connectés 

 


Ma prochaine carte graphique sera une :




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6
Auteur Sujet :

X800 vs GF6800

n°3299656
Gonishi
Posté le 28-06-2004 à 17:28:44  profilanswer
 

Reprise du message précédent :

Killerspre a écrit :

Pour Far Cry c'est tt a fait normale parce qu'il est trés trés gourment en mémoire et comme cet 6800normale na que 128Mo ... Puis si elle pert beaucoup de perf en AA4x/Aniso8x c'est ptet que les driver son pas encore pres enfin bon pour sa je sais pas trop :??:  
 
Pour les perf global :
 
http://www.materiel.be/cg/13cg/page19.php


de toute façon les benchs far cry n'ont aucune valeure actuellement  [:sebkom]  
faut attendre le patch 1.2, ou alors faut un bench avec les 6800 détecté avec l'id des ati  [:sebkom]

mood
Publicité
Posté le 28-06-2004 à 17:28:44  profilanswer
 

n°3299665
Gonishi
Posté le 28-06-2004 à 17:31:30  profilanswer
 

alex17 a écrit :

tout simplement parce que la 6800 a beaucoup plus de parametres evolutifs que la X800
ceci dit cela reste tout deux de tres tres bonnes cartes ;)


l'opengl devrait nettement s'améliorer chez ATI dans les prochains mois  [:sebkom]  
 
Ou alors peut-être dans les prochaines années  :o  :whistle:

n°3299668
Z_cool
HFR profile rating:⭐⭐⭐⭐
Posté le 28-06-2004 à 17:32:13  profilanswer
 

Z_cool a écrit :

ca je suis bien d accord ke seul leur profi compt.
 
sauf kil y en a un ki arrete pas de raconter des conneries  
 
Protagoponiste 1 :
- Mais non nos driver ne sont pas optimiser ke pour les bench.
- Regardez les mechants concurent il optimisent leurs drivers pour les bench eux.
- Regardez au RayonX les GPU de la mechante concurance ils tentent de vous enfumer.
 
Protagoniste 2 :
- Certe nos drivers sont optimisé, mais pas que pour les bench. d ailleur, personne ne s etone que les meme optimisation sont utilisé dans d autre serie de nos carte.
 
 
Protagoniste 1 :
- Non, non, notre USB est tres bien geré par notre chipset, c est le reste du monde ki ne respect pas les specifications ( Calimero inside)
Edit : - Non non, notre chipset n a pas de probleme et il n existe pas de Nforce2Bug. c est le hasard si 10% des carte mere revienent en SAV.
 
-------
 
quand au 128/256 bits, le GPU ATI est le meme, c est comment il est utilisé qui change, et ca il faut vouir avec les monteurs de cartes video directement.


 
voila ce ke j avais mis dans un autre topic


Message édité par Z_cool le 28-06-2004 à 17:33:18

---------------
#mais-chut
n°3299675
Gonishi
Posté le 28-06-2004 à 17:33:51  profilanswer
 

Z_cool a écrit :

Je me suis deja expliké sur pourkoi je boude Nvidia.
 
mais en gros :  
Drivers optimisé : difference de reaction de ATI et Nvidia.
ploitique des drivers des 2 marques,...
 
si tu veux, je doit pouvoir retrouver le topic ou je m explikais, c etait la semaine derniere.


Je soupsonne nvidia de tricher avec les 6800 dans 3dmark et aquamark (au moins d'avoir des optimisations pour ces 2 benchs, hors chacun sait qu'un bench ça ne s'optimise pas).
Oups j'ai pensé tout haut  :whistle:

n°3299678
wilka91
Murders and Executions
Posté le 28-06-2004 à 17:34:21  profilanswer
 

pour l'instant il est difficile de se prononcer avec certitude sur la superiorite de telle ou telle carte dans la mesure où les performances vont encore pas mal évoluer avec les nouveaux pilotes FW et Catalyst :D


---------------
I'm into, well, murders and executions ... I mean mergers and acquisitions.
n°3299681
Ernestor
modo-coco :o
Posté le 28-06-2004 à 17:35:37  profilanswer
 

Killerspre a écrit :

Ba tu sais trés bien que les 6800 supporte tt les nouveaux truc, PS3 DirectX9.0c ...
 
AH tien en parlant de directX 9.0C ba nvidia a dit que les 6800 montron leur pleine pluissance avec des driver terminer et directX9.0C :jap:


Oui je le sais bien :)
 
Mais bon, jusqu'à présent, et sauf erreur de ma part, on ne sait pas :
- ce que ca va apporter en pratique en terme de perfs
- ce que ca va apporter en pratique d'un point de vue esthétique
- combien de jeu vont réellement en profiter
 
A partir de là, même s'il est clair que la 6800 a une excellente architecture, on ne sait pas encore qu'elle sera l'utilité réelle de ces nouvelles fonctionnalités. C'est un peu tôt pour le savoir ;)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3299686
amdmanu
I'm still alive
Posté le 28-06-2004 à 17:38:35  profilanswer
 

Interessant, les avis sont vraiment partagés ... et on arrive presque à eviter les méchants trolls :jap:
 
L'evolution des perf de ces deux cartes via de nouveaux pilotes reste donc une grande inconnue même si potentiellement les pilotes 6800 ont peut etre plus de marge car l'architecture est plus récente ... meilleure pour autant :??:


---------------
Team HFr ArmA - Aujourd'hui, je sauve une vie ... ou deux !
n°3299687
Gonishi
Posté le 28-06-2004 à 17:39:00  profilanswer
 

Killerspre a écrit :

http://www.materiel.be/cg/13cg/page1.php
 
[:banditsuzukixp] La 6800normale avec seulement 128Mo et des driver beta bas presque la X800Pro voir meme la X800XT sans AA4x/Aniso8x [:al zheimer]  
Avec la 6800ULTRA sa va ROXORISER tout [:cutter]  
 
C'est encore mieu que je penser [:dariuss]


oui donc cpu limited  :pfff: , déjà dit sur un autre topic.

n°3299689
rycky
Posté le 28-06-2004 à 17:39:39  profilanswer
 

Gonishi a écrit :

Je soupsonne nvidia de tricher avec les 6800 dans 3dmark et aquamark (au moins d'avoir des optimisations pour ces 2 benchs, hors chacun sait qu'un bench ça ne s'optimise pas).
Oups j'ai pensé tout haut  :whistle:


 

Citation :

Update June 21st, 2004: Futuremark has reviewed the ForceWare 60.85 WHQL drivers for the the GeForce 6800 Series graphics cards at NVIDIA's specific request. We found that the 60.85 drivers used with the GeForce 6800 Series fulfill the optimization guidelines for 3DMark03 Build 340. Please note that the ForceWare 60.85 drivers are approved only for the GeForce 6800 Series graphics cards.


http://www.futuremark.com/community/drivers/?approved
 
 :ange:


Message édité par rycky le 28-06-2004 à 17:40:13
n°3299695
Gonishi
Posté le 28-06-2004 à 17:41:31  profilanswer
 

evildeus a écrit :

Heu, 2-3 petits trucs.
- La GT est plus performante que la pro
- La Ultra est moins rapide que la XT PE (enfin faudrait voir de nouveaux benchs)
- Les 256Mo et les quelques MHz de plus de la mémoire de la 9800XT fait que cette dernière est moins limité en 16*12 + 4*AA/8*AF. Cependant, elle sont prix conseillé est de 359€ soit moins que le prix en boutique de la plupart des 9800XT (enfin elle est dispo en très petite quantité).
 
Sinon, après les gouts et couleurs....


Je te reprends en disant que la GT reprend l'avantage avec les nouveaux drivers grâce aux optimisations sur le trilinéaire et l'aniso. Hors j'aimerais bien un test qui compare la qualité de ces différentes optimisations chez ati et nvidia.

mood
Publicité
Posté le 28-06-2004 à 17:41:31  profilanswer
 

n°3299699
sniper 46
Posté le 28-06-2004 à 17:42:41  profilanswer
 

de toute facon pour linstant les meilleur c est nvidia dans la plupart des bench de jeux entre 6800 gt et x800 pro de plus nvidia n est meme pas A 100% de la puissance de la 6800 car les pixel shader 3.0 et directx 9.0 c est pas encore sortit mais des qu il vont etre sorti sa va etre une claque pour ati dans les bench de jeux

n°3299707
rycky
Posté le 28-06-2004 à 17:43:40  profilanswer
 

Gonishi a écrit :

ben je m'étais pas trompé  :sol:


 
Révises un peu ton anglais  ;)


Message édité par rycky le 28-06-2004 à 17:47:13
n°3299716
Gonishi
Posté le 28-06-2004 à 17:46:26  profilanswer
 

rycky a écrit :

Apprends un peu l'anglais  ;)


de toute façon c'est dans GT2 & 3 que la 6800 fait des points  :o

n°3299718
rycky
Posté le 28-06-2004 à 17:47:25  profilanswer
 

Gonishi a écrit :

de toute façon c'est dans GT2 & 3 que la 6800 fait des points  :o


 
 :lol:  ;)

n°3299733
evildeus
Posté le 28-06-2004 à 17:53:30  profilanswer
 

Gonishi a écrit :

Je te reprends en disant que la GT reprend l'avantage avec les nouveaux drivers grâce aux optimisations sur le trilinéaire et l'aniso. Hors j'aimerais bien un test qui compare la qualité de ces différentes optimisations chez ati et nvidia.

Oui bien sur, ùais je penses que si je te mets du bilinéaires et 16*AF et trilinéaire 16*AF tu auras du mal (je suis gentil) à voir une quelquonque diff ;)


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°3299740
Gonishi
Posté le 28-06-2004 à 17:55:39  profilanswer
 

evildeus a écrit :

Oui bien sur, ùais je penses que si je te mets du bilinéaires et 16*AF et trilinéaire 16*AF tu auras du mal (je suis gentil) à voir une quelquonque diff ;)


si entre bilinéaire et trilinéaire la différence est flagrante même avec l'aniso 16x (j'ai déjà vérifié chez moi sur quake3 sans les color mipmaps).
A moins que tu parlais du brilinéaire.

n°3299746
Ernestor
modo-coco :o
Posté le 28-06-2004 à 17:56:33  profilanswer
 

sniper 46 a écrit :

de toute facon pour linstant les meilleur c est nvidia dans la plupart des bench de jeux entre 6800 gt et x800 pro de plus nvidia n est meme pas A 100% de la puissance de la 6800 car les pixel shader 3.0 et directx 9.0 c est pas encore sortit mais des qu il vont etre sorti sa va etre une claque pour ati dans les bench de jeux

C'est mamadou le marabout ou madame Irma qui t'as dit ça :??:
 
Deuxième :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3299757
Gonishi
Posté le 28-06-2004 à 18:00:27  profilanswer
 


ça me rappelle que le patch 340 devait désactiver les optimisations des fx avec les 52.16, pourtant le score PS2 était cheaté  [:sebkom]
 
http://www.hardware.fr/medias/photos_news/00/07/IMG0007686.gif

Citation :


Il est intéressant de remarquer que le GeForce FX 5950 est ici 2x moins performant que le Radeon alors qu´il affiche un score identique quand le même shader tourne dans 3DMark03...


http://www.hardware.fr/medias/photos_news/00/07/IMG0007285.gif
Bref même avec le patch le comportement restait étrange.
 
(je vais me faire incendier moi  :whistle: )


Message édité par Gonishi le 28-06-2004 à 18:08:20
n°3299773
rycky
Posté le 28-06-2004 à 18:06:48  profilanswer
 

Gonishi a écrit :

ça me rappelle que le patch 340 devait désactiver les optimisations des fx avec les 52.16, pourtant le score PS2 était cheaté  [:sebkom]
 
http://www.hardware.fr/medias/phot [...] 007686.gif

Citation :


Il est intéressant de remarquer que le GeForce FX 5950 est ici 2x moins performant que le Radeon alors qu´il affiche un score identique quand le même shader tourne dans 3DMark03...




Il désactive uniquement les cheat au niveau des game tests qui donne le score c'est connu que le test PS2 des Fx n'est pas équitable car remplacement de shader chez nv [:spamafote]


Message édité par rycky le 28-06-2004 à 18:13:16
n°3299785
Z_cool
HFR profile rating:⭐⭐⭐⭐
Posté le 28-06-2004 à 18:11:54  profilanswer
 

il y a une chose ki a pas ete comparé entre toutes ces carte, et je trouve ke c est domage : le prix.
 
 
est ce ke kk& aurrait un recapitulatif de s toutes les carte ATI et NV ki sont/vont sortir avec leur prix ?


---------------
#mais-chut
n°3299798
jojolapin
Posté le 28-06-2004 à 18:17:06  profilanswer
 

6800 Ultra et x800 xt : 550 euros
6800 GT et x800 pro : 450 euros
6800 tout court : 350 euros.
Ce n'est pas vraiment départageant (par contre la dispo....)

n°3299841
Z_cool
HFR profile rating:⭐⭐⭐⭐
Posté le 28-06-2004 à 18:33:12  profilanswer
 

jojolapin a écrit :

6800 Ultra et x800 xt : 550 euros
6800 GT et x800 pro : 450 euros
6800 tout court : 350 euros.
Ce n'est pas vraiment départageant (par contre la dispo....)


 
des tranche de 100€pour toi c est pas departageant ?


---------------
#mais-chut
n°3299862
Profil sup​primé
Posté le 28-06-2004 à 18:42:05  answer
 

Killerspre a écrit :

Ba tu sais trés bien que les 6800 supporte tt les nouveaux truc, PS3 DirectX9.0c ...
 
AH tien en parlant de directX 9.0C ba nvidia a dit que les 6800 montron leur pleine pluissance avec des driver terminer et directX9.0C :jap:


nvidia a aussi dit que la fx5800 allait faire l'effet du'un bombe a sa sortie  [:timour]

n°3299867
Killerspre
Posté le 28-06-2004 à 18:44:26  profilanswer
 

djangolefous a écrit :

nvidia a aussi dit que la fx5800 allait faire l'effet du'un bombe a sa sortie  [:timour]


 
Ba on verra bien :jap:

n°3299868
Ernestor
modo-coco :o
Posté le 28-06-2004 à 18:44:47  profilanswer
 

Z_cool a écrit :

des tranche de 100€pour toi c est pas departageant ?


Il voulait dire : les cartes de même niveau de perf coutent le même prix. Donc non, c'est pas départageant.


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3299871
Profil sup​primé
Posté le 28-06-2004 à 18:46:27  answer
 

Killerspre a écrit :

Ba on verra bien :jap:


 
a quand le retour de bobaflet pour nosu raconter l'histoire de la longueur des pipes d'ati et de nvidia  [:timour]

n°3299873
Killerspre
Posté le 28-06-2004 à 18:47:08  profilanswer
 

djangolefous a écrit :

a quand le retour de bobaflet pour nosu raconter l'histoire de la longueur des pipes d'ati et de nvidia  [:timour]


 
 :heink:

n°3299878
Ernestor
modo-coco :o
Posté le 28-06-2004 à 18:48:39  profilanswer
 

djangolefous a écrit :

a quand le retour de bobaflet pour nosu raconter l'histoire de la longueur des pipes d'ati et de nvidia  [:timour]


Et nicolas_b, il est où :whistle:


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3299946
Ernestor
modo-coco :o
Posté le 28-06-2004 à 19:30:29  profilanswer
 

Qu'est ce qu'il y a Killerspre ?
 
Tu connais pas ces 2 grands personnages haut en couleur ? :D
 
Ow31 > tu parles de Gnaag là ?


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3299965
trueunborn
Posté le 28-06-2004 à 19:38:31  profilanswer
 

Ben pour faire simple moi g craqué pour une x800 pro car dans l'immédiat c'est sans doute le meilleur choix (et le plus disponible). Mais je suis aussi le premier conscient du fait que je risque de pleurer quand je verrai tourner doom 3 sur les nvidia notamment à cause du ultra shadow...
 
Mais en même temps, si il est louable de voir un constructeur se fendre pour innover, il est plus regrettable, mais bien réel de constater que toutes ces belles innovations prennent des mois sinon des années pour être exploitées et surtout assez puissantes nivo hard.. souvenez vous le pixel shader dans les geforces 2GTS...
 
Alors moi je pense que les deux acrtes sont un bon choix.
 
Perso j'ai craqué, j'ai voulu de la plus puissante tout de suite et surtout j'ai voulu sanctionner nvidia pour ses délais de production à la limite du ridicule, ses coups marketing pourris, ses deux prises d'alim et ses turbines en guise de ventilo.  
Voilà! Ceci étant ptet que dans un an et demie je reviendrai chez nvidia qui sait?

n°3299972
Ernestor
modo-coco :o
Posté le 28-06-2004 à 19:41:13  profilanswer
 

Il n'y avait pas de pixel shader dans les GF 2 GTS [:aloy]
 
C'est du T&L. Les PS sont apparus avec la GF 3 Ti.
 
Et c'est vrai sinon que les premières cartes a incorporé une nouvelle techno sont généralement dépassées quand les jeux utilisant massivement cette techno arrivent.


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3299977
power600
Toujours grognon
Posté le 28-06-2004 à 19:43:21  profilanswer
 

djangolefous a écrit :

nvidia a aussi dit que la fx5800 allait faire l'effet du'un bombe a sa sortie  [:timour]

Ben quoi? c'était bien une bombe....
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
nVidia s'est fait exploser sur ce coup là  [:yes papa !!!]


---------------
Tiens? Y a une signature, là.
n°3300000
Killerspre
Posté le 28-06-2004 à 19:48:18  profilanswer
 

C'est clair que sur les FX nvidia a completement planter mais bon c'est du passer faut dire que sur les FX5900,5950 ils sont tres bien ratraper le coup quand meme

n°3300008
trueunborn
Posté le 28-06-2004 à 19:50:10  profilanswer
 

Ernestor a écrit :

Il n'y avait pas de pixel shader dans les GF 2 GTS [:aloy]
 
C'est du T&L. Les PS sont apparus avec la GF 3 Ti.
 
Et c'est vrai sinon que les premières cartes a incorporé une nouvelle techno sont généralement dépassées quand les jeux utilisant massivement cette techno arrivent.


 
Il me semble pourtant que GTS signifiait "Giga Texel Shader" (j'en suis sur en fait :ange: ), et, donc que les Geforces 2 GTS avaient déjà les prémisces de pixel shader... mais tu vois à quel point ça a servi à quelque chose... personne ne s'en souvient lol! CQFD


Message édité par trueunborn le 28-06-2004 à 19:51:11
n°3300011
Gonishi
Posté le 28-06-2004 à 19:51:08  profilanswer
 

ow31 a écrit :

Non !
Le plus grand... :ange:  
Comme il n'y en a qu'un, si tu ne le trouves pas, shame on yu... :lol:


c'est qui et c'était quand ?

n°3300019
Gonishi
Posté le 28-06-2004 à 19:53:03  profilanswer
 

trueunborn a écrit :

Il me semble pourtant que GTS signifiait "Giga Texel Shader" (j'en suis sur en fait :ange: ), et, donc que les Geforces 2 GTS avaient déjà les prémisces de pixel shader... mais tu vois à quel point ça a servi à quelque chose... personne ne s'en souvient lol! CQFD


oui des prémices et je pense que ernestor s'en souviens, mais on ne parlait pas vraiment encore de pixel shader à l'époque. D'ailleurs ces fonctions ne sont pas considérées comme telles par les programmeurs je crois.
 

Citation :


Les shaders sont donc soit des paramètres, soit des formules mathématiques qui sont associées à chaque pixel ou objet de la scène 3D pour avoir un rendu hyper réaliste. Chaque logiciel de rendu utilise un mode de programmation particulier pour ses shaders, en général une sorte de C. Ainsi chaque pixel est calculé à l’aide de shaders. Grâce au shaders, il est donc possible de programmer n´importe quel effet librement, et au pixel près.
 
En attendant l´arrivée de DirectX 8, qui gérera pleinement les Pixel Shader, NVIDIA nous propose avec le GeForce 2 un mode particulier de shader : le light shader, qu’il effectue en temps réel ! Pour se faire, chaque pixel est défini par deux textures : la texture de base et la "normal map". What is it ? Il s´agit en fait d´une texture indiquant pour chacun des pixel de la texture de base son orientation grâce à un code de couleur. Grâce à ces informations, le GeForce 2 est capable de calculer l´intensité et la direction de la lumière au pixel près … ce qui permet notamment d´effectuer un Bump Mapping très précis (appelé Dot Product 3), un peu comme le fait Matrox avec l´Environment Map Bump Mapping. Mais alors que l´EMBM nécessite 3 textures, le Dot Product 3 se contente de deux textures … et est donc en théorie bien plus rapide.


http://www.hardware.fr/articles/208/page3.html


Message édité par Gonishi le 28-06-2004 à 19:55:53
n°3300027
trueunborn
Posté le 28-06-2004 à 19:55:44  profilanswer
 

Gonishi a écrit :

oui des prémices et je pense que ernestor s'en souviens, mais on ne parlait pas vraiment encore de pixel shader à l'époque. D'ailleurs ces fonctions ne sont pas considérées comme telles par les programmeurs je crois.


 
+1 :jap:

n°3300031
Zeross
Posté le 28-06-2004 à 19:57:43  profilanswer
 

Les GF2 (tout comme les GF avant elles) sont équippées des Registers Combiners qui permettent des calculs arithmétiques au niveau de fragments. C'est cette fonctionnalité qui une fois étendue (en autorisant plus de passages dans les combiners, et un contrôle de l'adressage de texture) sera appelée Pixel Shader.


Message édité par Zeross le 28-06-2004 à 19:58:30
n°3300051
trueunborn
Posté le 28-06-2004 à 20:05:25  profilanswer
 

Enfin, la conclusion de tout ça c'est que personne ne sait encore s'il y a un intérêt à avoir une carte avec du PS3 de nos jours... et ça seul l'avenir nous le dira! Moi je dis faites vous plaisir les gars et prenez la carte que vous voulez, quoiqu'il en soit vous serez content et chacun trouvera que sa carte et la mieux, et ça sera sans doute vrai selon les jeux dont on parle (ATI = half life, Nvidia=Doom)

n°3300054
Ernestor
modo-coco :o
Posté le 28-06-2004 à 20:06:01  profilanswer
 

Ok :)
 
Mais en résumé, on ne pas dire que la GF 2 offrait des "vrais" pixel shaders tel que ceux de la GF 3 Ti. Me trompe-je ?
 
Ow31 > je vois pas de qui tu parles [:spamafote]
Et désolé, mais le plus grand trolleur de tous les temps concernant les cartes graphiques c'est Gnaag, aucun doute la dessus :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3300059
trueunborn
Posté le 28-06-2004 à 20:07:07  profilanswer
 

Par contre, une fonction qui m'intéressait chez nvidia, c'était la compression video... ATI avait répondu que chez eux aussi c'était possible... mais au final j'ai l'impression que ça n'est disponible sur aucune des deux acrtes à l'heure actuelle.. qu'en est-il?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6

Aller à :
Ajouter une réponse
 

Sujets relatifs
x800X800 Pro: Laquelle choisir?
ATI X800 Pro: AGP désactivé ?X800 XT --> C'est parti !!
Cherche site vendant X800 XT platinium[MSI] Bonne marque de Cartes Graphiques ? + Conseils entre X800 pro's
ATI 9800 XT ou ATI X800 Pro ?6800 ultra, gt ou x800 pro,xt
X800 vs 9600proRefroidir une X800
Plus de sujets relatifs à : X800 vs GF6800


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR