Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2087 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Auteur Sujet :

ATI à sortie la XT "PE" pour battre la 6800 ultra ??? (Troll party!)

n°3515459
Ernestor
modo-coco :o
Posté le 23-09-2004 à 12:42:09  profilanswer
 

Reprise du message précédent :
Visiblement t'es le seul à comprendre l'aspect comique de la chose :p
 
Mais j'ai du raté un détail [:columbo2]


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
mood
Publicité
Posté le 23-09-2004 à 12:42:09  profilanswer
 

n°3515548
Toasted
Posté le 23-09-2004 à 13:25:41  profilanswer
 

rycky a écrit :

L'ecart de perfs entre la 6800GT et la X800XT PE ne justifie même pas 100€ de + et les X800XT PE à 480€ tu en trouves pas des masses [:spamafote] http://www.rue-hardware.com/prix/c [...] nom&show=0


 
Sur adbs les connect3D sont à 480€
 
Pour ton histoire de 6800GT qui passent toutes en ultra, c'est faux. T'as pas besoin d'aller loin pour trouver des GT qui ne dépassent pas 380, il y a des exemples sur ce forum.
 
Enfin, j'aimerais bien que l'on m'explique où l'intérêt des SM 3.0 a été prouvé, j'ai dû manquer un épisode :??:
Le premier qui me parle du patch 1.2 de FarCry... :lol:

n°3515551
downHCrer
Posté le 23-09-2004 à 13:26:25  profilanswer
 

Faut arreter toutes ces petites gueguerres pour voir que ces 2 marques sont tres proches. C'est meme tres impressionnant que ces deux marques sortenet des cartes doté de technologie assez differente mais de performances tres proches. On peut imaginer que ces deux marques ont poussé le devellopement de ces cartes a l'extreme et qu'on se situe a la limite de la technologie.
 
Pour parler de la disponibilité de ces cartes, elles sont toutes les deux aussi dur a trouver (j'en ai fait l'experience) (x800xt pe et 6800 ultra)
mais la plus dur a trouver est la xt toute simple qui n'existe que dans tres peu de marques ( ce qui pourrai prouver que la xt PE n'a pas été sortis pour contrer les ultra).
 
C'est clair que les editeurs qui font des test avec la ultra extreme sont des sombres cretins qui travaille au fond pour nvidia.
 
D'aprés les rumeurs, la ultra extreme va bientot sortir avec 512 Mo de GDDR3 et ATi a prevu une carte avec également 512 Mo. (elles ne serviront qu'aux bench....)
 
Mais ce qui va faire gagner Nvidia dans la guerre des bench ca sera 2 ultra extreme 512 Mo en SLI sur le Nforce 4... :lol:  
 

n°3515556
Toasted
Posté le 23-09-2004 à 13:28:35  profilanswer
 

rycky a écrit :

Tu as lu les derniers tests de Marc? La X800XT PE est à peine plus performante que l'ultra qd on utilise les 61.77 or avec les 65.76 sorti avec les 6600GT les gains sont de 3-5% sur la 6800ultra du coup si la XT PE est encore devant c'est vraiment impossible à discerner... En plus les X800 vivo passent presque toutes en 16pipes par contre aux fréquences de la XT PE c'est une autre paire de manches du coup tu paies 100€ de + pour des fonctions vivos c'est un fait mais surement pas pour plus de perfs et sans SM3.0... En fonction de cela à chacun de faire son choix dans tous les cas il sera bon  ;)


 
http://www.hardware.fr/medias/phot [...] 009044.gif
 
Et ça c'est en comptant Doom III, jeu à peine optimisé...
 

Citation :


Pour information, en 1600*1200 32 bits 4x/8x, si l’on exclu Doom 3, on obtient les chiffres suivants : X800 XT 202%, 6800 Ultra 188%


 
14%, ça commence à faire beaucoup quand même...

n°3515662
Ummon
Posté le 23-09-2004 à 14:17:15  profilanswer
 

Vivement la X800XT PE platinum pro deluxe ultra extreme GT special edition ...


Message édité par Ummon le 23-09-2004 à 14:18:53
n°3515879
rycky
Posté le 23-09-2004 à 16:15:20  profilanswer
 

Toasted a écrit :

Sur adbs les connect3D sont à 480€
 
Pour ton histoire de 6800GT qui passent toutes en ultra, c'est faux. T'as pas besoin d'aller loin pour trouver des GT qui ne dépassent pas 380, il y a des exemples sur ce forum.
 
Enfin, j'aimerais bien que l'on m'explique où l'intérêt des SM 3.0 a été prouvé, j'ai dû manquer un épisode :??:
Le premier qui me parle du patch 1.2 de FarCry... :lol:

Des exemples je suis curieux d'en voir car il doivent etre très restreints, (du même niveau que les vivo ne passant pas à 16pipes) les SM3.0 c'est le futur std car même ATI le supportera dans son futur GPU donc c'est forcément un plus, le patch 1.2 aucun soucis avec une 6800u et un gain de perfs appréciable sans bug qd à tes 14% en excluant Doom3  pourquoi exclure le jeux de référence actuel (je parle niveau technique pas gameplay) dont le moteur sera sans nul doute réutilisé à foison. Parcequ'il montre un avantage de l'archi NV40 bien utilisée sur la veillissante R300 oups pardon R420? C'est n'importe quoi c'est comme dire qu'il ne faudra pas introduire HL2 dans le comparo parcequ'il sera plus ATI... Enfin les 65.76 réduisent bien la marge en 4x/8x grace à des compromis façon ATI (désactivable!) des filtrages. Du coup dire qu'il y a un ecart significatif entre X800XT PE et 6800U c'est manqué franchement de bonne fois pour peu que l'on ouvre un peu les yeux.
Personnellement mon opinion (attention je ne vais formuler la qu'une hypothèse je peux me tromper) est que plus le tps va passer plus la 6800u se rapprochera voir dépassera la XT PE car ATI tire actuellement parti du fait que le R300 était la plateforme de référence pour le développement du fait qu'elle était bien supérieure au NV30 à présent le NV40 présente bien plus d'interet pour le developpement des moteurs du à la presence des fameux SM3.0 et d'une vitesse de traitement des shaders plus que suffisante (quoiqu'inférieure à la XT PE il est vrai) donc en théorie les jeux tireront à priori mieux parti de son architecture.  
Voila cela ne reste que mon avis  ;)  :hello:


Message édité par rycky le 23-09-2004 à 16:18:12
n°3515899
magic-sim
Attention, pougnat radioactif
Posté le 23-09-2004 à 16:25:41  profilanswer
 

Avis que je partage personnellement. D'ailleurs Zeross a expréimé son point de vue de Dev là dessus (sur le GOB). En gros, à part quelques exceptions, les futures moteurs se baseront sur SM2.0 et 3.0. Les PS 2.0a b seront marginalement utilisés.
 
En revanche, là où je suis assez en désaccord avec toi, c'est point de vue moteur. Si exclure e moteur de Doom3 n'es tpas forcément utile, extrapoler les perfs d'autres jeux à partir des perfs de Doom3 est maladroit, enfin, ça c'es tmon avis.
 
Avis que je fonde sur le fait que Q3 n'est nullement représentatif des perfs de RTCW, JK2 et j'en passe. Doom3 est intéressant en tant que lui-même.
 
Après, y'a la question des drv perfectibles d'ATI en OpenGL. ça c'est une autre hitoire.
 
En moralité, d'un point de vue joueur, comme tu le disais, il n'y a pas de mauvais choix. Le développeur qui préfère développer pour la future base commune se tournera vers les 6800.
 
Après, c'est une affaire de goûts personnels ;)
 
Voilà, en gros je suis d'accord :)


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°3515926
Toasted
Posté le 23-09-2004 à 16:37:40  profilanswer
 

Pour les shaders 3.0, on ne sait pas si toutes ses specs sont utilisables sur les générations actuelles car ils se pourraient bien qu'elles soient trop gourmandes, on ne connaît pas l'impact d'une utilisation massive de branchement dynamiques sur les Geforce 6800, on peut aussi penser que ce sera trop coûteux pour cette génération de gpu.
Et justement, à part les branchements dynamiques, entre les shaders 2.0b (R420) et les 3.0 (NV40), la différence est euh... ben marketing en fait.
 
Deuxième point, je n'en parle pas normalement comme argument pour les X800 puisque son utilisation est pour l'instant aussi hypothétique que les shaders 3.0: le 3dc.
Voilà, mais puisqu'on parle de SM 3.0, pourquoi occulter le 3DC?
 
"Mes 14%" sans DOOM III comme tu dis me paraissent légitimes: puisqu'on teste un jeu optimisé Nvidia, pourquoi alors ne pas inclure par exemple ce qui risque d'être le prochain moteur de référence D3D, le source engine?
Moi je veux bien qu'on inclue un jeu optimisé nvidia dans les comparos, ça me dérange pas mais dans ce cas il faut inclure son équivalent ATI.
Sans rentrer dans la comparaison des moteurs d'ailleurs, j'ai ouï dire que le Source Engine était d'ailleurs le moins cher des deux et qu'il risquait d'attirer plus de monde.
 
Pour ta théorie, il y a très peu de jeux qui sont optimisés pour une architecture ou pour l'autre, très peu de boîtes ont le temps et les moyens de le faire. Ils s'en tiennent généralement aux standards DirectX, après c'est au constructeur de respecter et d'optimiser ces normes. Donc les jeux optimisés Nvidia ou ATI, faut pas trop rêver, tu pourras les compter sur les doigts d'une main pendant les 18 mois que va vivre ta carte.
 
Franchement, arrêtez de penser tabler sur l'avenir en achetant une CG, le temps que ses super fonctions marketing soient utilisés, elle sera déjà à la rue de toute façon. Je sais plus où j'ai lu l'autre jour qu'un type voulait prendre une 6800 en pensant qu'elle ferait mieux tourner le Unreal Engine 3 que la X800.
La vérité, c'est que de toute façons ce moteur mettra complètement à genoux les cartes actuelles, alors...
Voilà, ce qui me saoule dans tout ça, c'est de voir les gens brandir les SM 3.0 comme argument alors que finalement ils se font complètement enfiler en pensant vraiment que ça va leur servir un jour sur cette génération.

n°3515929
rycky
Posté le 23-09-2004 à 16:38:54  profilanswer
 

Magic-Sim a écrit :

Avis que je partage personnellement. D'ailleurs Zeross a expréimé son point de vue de Dev là dessus (sur le GOB). En gros, à part quelques exceptions, les futures moteurs se baseront sur SM2.0 et 3.0. Les PS 2.0a b seront marginalement utilisés.
 
En revanche, là où je suis assez en désaccord avec toi, c'est point de vue moteur. Si exclure e moteur de Doom3 n'es tpas forcément utile, extrapoler les perfs d'autres jeux à partir des perfs de Doom3 est maladroit, enfin, ça c'es tmon avis.
 
Avis que je fonde sur le fait que Q3 n'est nullement représentatif des perfs de RTCW, JK2 et j'en passe. Doom3 est intéressant en tant que lui-même.
 
Après, y'a la question des drv perfectibles d'ATI en OpenGL. ça c'est une autre hitoire.
 
En moralité, d'un point de vue joueur, comme tu le disais, il n'y a pas de mauvais choix. Le développeur qui préfère développer pour la future base commune se tournera vers les 6800.
 
Après, c'est une affaire de goûts personnels ;)
 
Voilà, en gros je suis d'accord :)


 
:jap: par contre à ton avis un jeux utilisant le moteur de Doom3 ne donnera pas forcément des résultats comparables (je ne dis pas identiques  ;) ) à ceux de Doom3? (en excluant bien sur un gain lié au progres des pilotes ATI en opengl) Je suis perplexe car je pensais que les perfs dans un jeu étaient conditionnées par son moteur donc j'avoue avoir du mal à comprendre pourquoi les résultats entre 2 jeux employant le même moteur seraient fondamentalement différente. J'avoue que la programmation d'un jeu vidéo n'est pas mon domaine  ;)  
 :hello:


Message édité par rycky le 23-09-2004 à 16:40:09
n°3515977
magic-sim
Attention, pougnat radioactif
Posté le 23-09-2004 à 16:59:51  profilanswer
 

Tu as deux possibilités :
Si tu prends Jedi Outcast, le moteur a été revisité : des effets en plus, projection d'ombres, etc.
 
L'autre paramètre, c'est la charge.
 
Si tu regarde Q3, on aligne les centaines de FPS sans broncher. Et il faut souvent pas mal baisser la résolution pour trouver la limitation CPU.
 
RTCW (surtout son extension), ça a longtemps été le contraire, fortement limité CPU (je crois que c'est encore le cas).
 
 
Et peux-ton par exemple comparer Call Of Duty à Q3 ? assurément, non.
 
Enfin voilà quoi. Un jeu, c'est un moteur (qui peut être modifié par l'équipe de développement), qui comporte des graphismes, du son, de l'IA.............
 
Si tu prends Q3, et que tu le compare à COD, l'IA est fondamentalement différente. L'imact sur le CPU sera différent. Le moteur sonore aussi. re impact différent.  
 
Et après, tu as le contenu..... Là, il suffit de lancer les jeux pour s'en rendre compte ;)
 
J'espère ne pas avoir été trop brouillon ;)
 
Ah, si, autre exemple, pire. Avec le Unreal Engine, tu as la révision de base du moteur utilisée par les développeurs + toutes ls petites choses rajoutées. C'est pour ça que Unreal 2 est très lourd, par exemple.
 
;)
 
En fait, on peut comparer un moteur de jeu à un moteur de voitures, comme les moteurs PSA, qui ne s'exprimerait pas pareil suivant ce qui l'entoure (chassis, boite, etc), e tles règlages apportés par le contructeur (Peugeot, ou Citroën). :)


Message édité par magic-sim le 23-09-2004 à 17:01:08

---------------
Recueille pougnats islandais suite à éruption volcanique.
mood
Publicité
Posté le 23-09-2004 à 16:59:51  profilanswer
 

n°3515981
rycky
Posté le 23-09-2004 à 17:00:34  profilanswer
 

Toasted a écrit :

Pour les shaders 3.0...

J'occulte le 3dc pour une raison simple, c'est une fonction propriétaire et tant qu'elle le restera il y a peu de chance qu'elle connaisse le succés (d'autre en position + favrable qu'ATI s'y sont cassés les dents) alors que le SM3.0 est un std, la différence dans l'adoption sera fondamentale d'autant qu'ATI utilisera ce std alors que nvidia jusqu'a preuce du contraire n'adoptera pas le 3dc. De plus le passage d'un path SM2.0 à SM3.0 est visiblement relativement simple à réaliser c'est pourquoi je sui plutot confiant dans la disponibilité de titre profitant de cet atout.
Concernant Doom3 excuses moi mais c'est n'importe quoi tu voudrais intégrer un bench synthétique alors que le jeu n'est pas sorti!! Je suis pleinement d'accord avec Marc qui considère qu'il sera temps de tester HL2 qd ce dernier sera dispo (et dieu sait qd vu le passé de valve...) et qu'il sera possible d'y jouer car ce qui importe c'est les perfs d'une carte dans un jeu car elle est faite pour jouer! Ce bench code source est clairement sorti pour contrebalancer la supériorité des nv40 dans Doom3 et ATI tout comme valve voulait quelque chose en face des 6800/Doom3. Ce n'est pas etre pro ATI de tester les jeux les + representatifs et HL2 n'est pas encore un jeu donc il n'y aucune raison qu'il fasse parti du panel alors que Doom3 n'a aucune raison d'être exclu. Je trouve même Marc gentil d'avoir intégrer IL2 avec paysage à High et Max car s'il n'avait pris que Max (ce qui fait dans tous les autres jeux les graph à max) vu l'écart que font les 6800 nul doute que c'est fois elle seraient bien devant... Enfin je ne vais pas continuer plus loin tu ne supportes pas de t'entendre dire que la 6800U n'a rien à envier à la X800XT PE, à présent c'est un fait que tu l'acceptes ou non c'est ton pb et je n'alimenterai pas davantage une guerre de marque d'autant que je dispose des 2 marques et n'ai pas de préférence pour l'une ou l'autre mais pour le produit spécifique de l'une ou l'autre. (Enfin j'avoue avoir une préférence pour l'ergonomie et l'interface des pilotes nvidia mais bon tu sais les gouts et les couleurs ;) )


Message édité par rycky le 23-09-2004 à 17:06:02
n°3515987
rycky
Posté le 23-09-2004 à 17:03:48  profilanswer
 

Magic-Sim a écrit :

Tu as deux possibilités :
Si tu prends Jedi Outcast, le moteur a été revisité : des effets en plus, projection d'ombres, etc.
 
L'autre paramètre, c'est la charge.
 
Si tu regarde Q3, on aligne les centaines de FPS sans broncher. Et il faut souvent pas mal baisser la résolution pour trouver la limitation CPU.
 
RTCW (surtout son extension), ça a longtemps été le contraire, fortement limité CPU (je crois que c'est encore le cas).
 
 
Et peux-ton par exemple comparer Call Of Duty à Q3 ? assurément, non.
 
Enfin voilà quoi. Un jeu, c'est un moteur (qui peut être modifié par l'équipe de développement), qui comporte des graphismes, du son, de l'IA.............
 
Si tu prends Q3, et que tu le compare à COD, l'IA est fondamentalement différente. L'imact sur le CPU sera différent. Le moteur sonore aussi. re impact différent.  
 
Et après, tu as le contenu..... Là, il suffit de lancer les jeux pour s'en rendre compte ;)
 
J'espère ne pas avoir été trop brouillon ;)
 
Ah, si, autre exemple, pire. Avec le Unreal Engine, tu as la révision de base du moteur utilisée par les développeurs + toutes ls petites choses rajoutées. C'est pour ça que Unreal 2 est très lourd, par exemple.
 
;)

:jap: Non tu n'as pas été brouillon mais ma question était plutot est-ce que le comportement d'un même moteur (favorisant telle ou telle archi) peut changer d'un jeux à l'autre? Je suis bien conscient du fait que d'autre élements que la cg peuvent entrer en compte à cause notament de L'IA du son ... mais pour autant le moteur même avec des petits rajouts ne se comporte t'il pas de la même manière sur les différents hardware? Du coup si le moteur de Doom3 se comporte mieux sur nv40 est-ce que les choses changeront fondamentalement dans Quake4 ou la hierarchie sera semblable?


Message édité par rycky le 23-09-2004 à 17:08:35
n°3516004
magic-sim
Attention, pougnat radioactif
Posté le 23-09-2004 à 17:11:34  profilanswer
 

On va prendre deux extrèmes.
 
Imagine deux développeurs de jeux qui veulent faire des FPS concurrents sur le Troubadour Engine.
 
La société Fear & Eternity veut faire un jeu assez sombre, où les jeux d'ombres seront prédominants. Là, clairement, l'archi des 6800 sera très contente.
 
La société Bells & Whistles veut faire un jeu très accés arcade, où ça ^ète dans tous els coins, avec des shaders de malade à gogo (genre explosions de Doom3 et leurs déformations, mais en pire, avec textures procédurales, calculées en temps réel, des shaders d'illumination plus orientés sur les calculs mathématiques que sur les texture lookups).... Là, ce seront les X800 qui apprécieront.
 
Et là, on a pas touché au moteur, on a juste touché au contenu, et à la manière de calculer. (shading).
 
C'est ce que Humus a fait pour faire avancer plus vite les Radeon. Dans son fichier Interactions.vfp, il a juste remplacé (grosso modo) une fonction de lecture de texture précalculée, par un calcul mathématique. Et ça va plus vite sur les Radeon.
 
C'est très con, et c'est qu'une modif mineure sur un shader omniprésent dans un jeu.
 
Imagine ce que peuvent faire deux sociétés où les programmeurs vont écrire leurs shaders différemennt. Même moteur, même contenu, vitesse différente. SI tu ajoute le fait que le contenu sera foncièrement différent, que certains programmeurs sont meilleurs que d'autres et ne sauront peut-être pas déceler ce qui est le plus "équitable"........ Bref, on peut aller loin ;)
 
Et moi je me trouve toujours aussi brouillon.... :D


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°3516026
ixo
Posté le 23-09-2004 à 17:21:30  profilanswer
 

Magic-Sim a écrit :

On va prendre deux extrèmes.
 
Imagine deux développeurs de jeux qui veulent faire des FPS concurrents sur le Troubadour Engine.
 
La société Fear & Eternity veut faire un jeu assez sombre, où les jeux d'ombres seront prédominants. Là, clairement, l'archi des 6800 sera très contente.
 
La société Bells & Whistles veut faire un jeu très accés arcade, où ça ^ète dans tous els coins, avec des shaders de malade à gogo (genre explosions de Doom3 et leurs déformations, mais en pire, avec textures procédurales, calculées en temps réel, des shaders d'illumination plus orientés sur les calculs mathématiques que sur les texture lookups).... Là, ce seront les X800 qui apprécieront.
 
Et là, on a pas touché au moteur, on a juste touché au contenu, et à la manière de calculer. (shading).
 
C'est ce que Humus a fait pour faire avancer plus vite les Radeon. Dans son fichier Interactions.vfp, il a juste remplacé (grosso modo) une fonction de lecture de texture précalculée, par un calcul mathématique. Et ça va plus vite sur les Radeon.
 
C'est très con, et c'est qu'une modif mineure sur un shader omniprésent dans un jeu.
 
Imagine ce que peuvent faire deux sociétés où les programmeurs vont écrire leurs shaders différemennt. Même moteur, même contenu, vitesse différente. SI tu ajoute le fait que le contenu sera foncièrement différent, que certains programmeurs sont meilleurs que d'autres et ne sauront peut-être pas déceler ce qui est le plus "équitable"........ Bref, on peut aller loin ;)
 
Et moi je me trouve toujours aussi brouillon.... :D


Explication plus simple, trouvée sur Presence-PC:
"L’erreur à ne pas faire ici, serait de considérer que puisque les 6800 Ultra sont largement en tête sur Doom 3, elles le seront aussi sur les nombreux jeux à venir reprenant ce moteur. En effet, John Carmack lui-même a annoncé que les drivers nVidia contenaient des optimisations très spécifiques au code de Doom 3. Encore une fois cela ne nous pose aucun problème dans la mesure où la qualité reste identique, mais en revanche, cela veut dire que ces optimisations ne seront pas présentes sur les différentes licences de ce moteur. Quelle est l’importance de ces optimisations dans l’avantage des 6800 sur les X800 ? Impossible de le savoir."  

n°3516028
Zeross
Posté le 23-09-2004 à 17:21:38  profilanswer
 

Toasted a écrit :

utilisation massive de branchement dynamiques sur les Geforce 6800, on peut aussi penser que ce sera trop coûteux pour cette génération de gpu.


 
L'utilisation massive de branchements sera de toute façon toujours à proscrire car trop coûteuse et ça n'est pas bien grâve car ce n'est pas une utilisation intelligente du hardware.
 

Citation :

Et justement, à part les branchements dynamiques, entre les shaders 2.0b (R420) et les 3.0 (NV40), la différence est euh... ben marketing en fait.


 
Le principal problème ne se posera pas ainsi. Les développeurs commenceront par écrire la version complète du shader en 3.0, ensuite ils créeront une version "dégradée" en adaptant pour tenir dans les limites des PS2.0 (pour la base installée). Mais n'espère pas trop les voir créer des tas de versions intermédiaires.
 

Citation :

Deuxième point, je n'en parle pas normalement comme argument pour les X800 puisque son utilisation est pour l'instant aussi hypothétique que les shaders 3.0: le 3dc.


 
Le 3dc peut être émulé avec du S3TC, ça marche sur toutes les cartes pour une différence de qualité quasi nulle à mon avis les développeurs ne se poseront pas trop la question.

n°3516029
Ernestor
modo-coco :o
Posté le 23-09-2004 à 17:21:42  profilanswer
 

Magic-Sim > C'était très clair :o ;)


Message édité par Ernestor le 23-09-2004 à 17:22:03

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3516040
magic-sim
Attention, pougnat radioactif
Posté le 23-09-2004 à 17:26:07  profilanswer
 

Merci :)
 
ixo  -> Bon complément ;)


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°3516047
bothary
pas barbare, tasmanien !!
Posté le 23-09-2004 à 17:27:51  profilanswer
 

rhhaaa
 
vous avez transformé un topicatroll en annexe du GOB tendance post à rallonge compréhensible seulement par les bac+5  :pfff:  
 
 
 
 :kaola:  [:sstarshoot]


---------------
...Tuco Benedictio Pacifico Juan Maria Ramirez "dit LE PORC"...
n°3516049
Ernestor
modo-coco :o
Posté le 23-09-2004 à 17:28:26  profilanswer
 

C'est un bar clandestin ici :d


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3516052
magic-sim
Attention, pougnat radioactif
Posté le 23-09-2004 à 17:29:04  profilanswer
 

Palsambleu, amis c'est qu'il a raison ma parole ! :ouch:


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°3516064
Ernestor
modo-coco :o
Posté le 23-09-2004 à 17:31:56  profilanswer
 

bothary a écrit :

rhhaaa
 
vous avez transformé un topicatroll en annexe du GOB tendance post à rallonge compréhensible seulement par les bac+5  :pfff:


Si ca peut te rassurer, j'ai un Bac + 8 mais je comprends rarement ce que dit Zeross  [:tinostar]


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3516069
magic-sim
Attention, pougnat radioactif
Posté le 23-09-2004 à 17:33:41  profilanswer
 

Moi ça va, j'arrive à peu près à suivre, et je viens de torcher mon +5 :D


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°3516096
Toasted
Posté le 23-09-2004 à 17:44:17  profilanswer
 

rycky a écrit :

J'occulte le 3dc pour une raison simple, c'est une fonction propriétaire et tant qu'elle le restera il y a peu de chance qu'elle connaisse le succés (d'autre en position + favrable qu'ATI s'y sont cassés les dents) alors que le SM3.0 est un std, la différence dans l'adoption sera fondamentale d'autant qu'ATI utilisera ce std alors que nvidia jusqu'a preuce du contraire n'adoptera pas le 3dc. De plus le passage d'un path SM2.0 à SM3.0 est visiblement relativement simple à réaliser c'est pourquoi je sui plutot confiant dans la disponibilité de titre profitant de cet atout.
Concernant Doom3 excuses moi mais c'est n'importe quoi tu voudrais intégrer un bench synthétique alors que le jeu n'est pas sorti!! Je suis pleinement d'accord avec Marc qui considère qu'il sera temps de tester HL2 qd ce dernier sera dispo (et dieu sait qd vu le passé de valve...) et qu'il sera possible d'y jouer car ce qui importe c'est les perfs d'une carte dans un jeu car elle est faite pour jouer! Ce bench code source est clairement sorti pour contrebalancer la supériorité des nv40 dans Doom3 et ATI tout comme valve voulait quelque chose en face des 6800/Doom3. Ce n'est pas etre pro ATI de tester les jeux les + representatifs et HL2 n'est pas encore un jeu donc il n'y aucune raison qu'il fasse parti du panel alors que Doom3 n'a aucune raison d'être exclu. Je trouve même Marc gentil d'avoir intégrer IL2 avec paysage à High et Max car s'il n'avait pris que Max (ce qui fait dans tous les autres jeux les graph à max) vu l'écart que font les 6800 nul doute que c'est fois elle seraient bien devant... Enfin je ne vais pas continuer plus loin tu ne supportes pas de t'entendre dire que la 6800U n'a rien à envier à la X800XT PE, à présent c'est un fait que tu l'acceptes ou non c'est ton pb et je n'alimenterai pas davantage une guerre de marque d'autant que je dispose des 2 marques et n'ai pas de préférence pour l'une ou l'autre mais pour le produit spécifique de l'une ou l'autre. (Enfin j'avoue avoir une préférence pour l'ergonomie et l'interface des pilotes nvidia mais bon tu sais les gouts et les couleurs ;) )


 
Oui oui... Je suis Pro ATI... D'ailleurs je suis tellement Pro ATI que j'ai du Nvidia dans mes deux PC :lol:
 
Les ravages de la rubrique psychologie de Télé 7 jours quand même [:cirius]  
 
Pour le reste, Doom III étant clairement poussé par nvidia, pourquoi ne pas autoriser la même demo techno par ATI? Dans les deux cas ça donnera un bench sur quelque chose qui n'est de toute façon pas objectif, selon moi, et pas représentatif de l'ensemble des jeux, de toute façon.
Je pense que Marc a bien agi en donnant les résultats avec et sans Doom III, ça démontre qu'effectivement il faut bien comprendre qu'il ne faut pas trop prendre les résultats donnés sur ce jeu comme quelque chose de fiable et représentatif... tout comme le Stress Test de Valve d'ailleurs...
 
Bref, la seule différence notable entre les 2.0b et les 3.0 sont les branchements dynamiques.
Les shaders 2.0b et 3 sont aussi longs.
Le Geometry Instancing, même s'il a été lié par MS aux SM 3.0 pour certaines raisons, n'est pas une exclusivité des SM 3.0 et est également supporté par les cartes ATI.
Non, il n'y a définitivement que les branchements dynamiques qui fassent la différence et qui seront certainement massivement utilisés, il est vrai, dans euh, dans combien de temps en fait? Personne n'en sait rien mais vu le temps que chaque migration de techno met à se faire, je suis prêt à parier que d'ici là la génération actuelle sera enterrée.
Encore une fois, on ne sait même pas si de toute façon ils ne seront pas trop coûteux pour cette génération de cartes, comment alors baser un argument là-dessus?
 
Nvidia camoufle son "lack of power" derrière les SM 3.0 et tout le monde saute dedans en disant "ouais, classe, ils ont refait une toute nouvelle architecture!"
Mais EVIDEMMENT qu'ils allaient refaire une nouvelle architecture, ils n'avaient pas le choix, ils n'allaient quand même pas se baser sur cette merde de NV30 non plus?
 
Fillrate is life  [:hill]

n°3516098
Toasted
Posté le 23-09-2004 à 17:46:01  profilanswer
 

Magic-Sim a écrit :

On va prendre deux extrèmes.
 
Imagine deux développeurs de jeux qui veulent faire des FPS concurrents sur le Troubadour Engine.
 
La société Fear & Eternity veut faire un jeu assez sombre, où les jeux d'ombres seront prédominants. Là, clairement, l'archi des 6800 sera très contente.
 
La société Bells & Whistles veut faire un jeu très accés arcade, où ça ^ète dans tous els coins, avec des shaders de malade à gogo (genre explosions de Doom3 et leurs déformations, mais en pire, avec textures procédurales, calculées en temps réel, des shaders d'illumination plus orientés sur les calculs mathématiques que sur les texture lookups).... Là, ce seront les X800 qui apprécieront.
 
Et là, on a pas touché au moteur, on a juste touché au contenu, et à la manière de calculer. (shading).
 
C'est ce que Humus a fait pour faire avancer plus vite les Radeon. Dans son fichier Interactions.vfp, il a juste remplacé (grosso modo) une fonction de lecture de texture précalculée, par un calcul mathématique. Et ça va plus vite sur les Radeon.
 
C'est très con, et c'est qu'une modif mineure sur un shader omniprésent dans un jeu.
 
Imagine ce que peuvent faire deux sociétés où les programmeurs vont écrire leurs shaders différemennt. Même moteur, même contenu, vitesse différente. SI tu ajoute le fait que le contenu sera foncièrement différent, que certains programmeurs sont meilleurs que d'autres et ne sauront peut-être pas déceler ce qui est le plus "équitable"........ Bref, on peut aller loin ;)
 
Et moi je me trouve toujours aussi brouillon.... :D


Pourtant je te rassure, tu es très clair ;)

n°3516136
extraterre​stre
Posté le 23-09-2004 à 18:05:02  profilanswer
 

Toasted a écrit :

Oui oui... Je suis Pro ATI... D'ailleurs je suis tellement Pro ATI que j'ai du Nvidia dans mes deux PC :lol:
 
Les ravages de la rubrique psychologie de Télé 7 jours quand même [:cirius]  
 
Pour le reste, Doom III étant clairement poussé par nvidia, pourquoi ne pas autoriser la même demo techno par ATI? Dans les deux cas ça donnera un bench sur quelque chose qui n'est de toute façon pas objectif, selon moi, et pas représentatif de l'ensemble des jeux, de toute façon.
Je pense que Marc a bien agi en donnant les résultats avec et sans Doom III, ça démontre qu'effectivement il faut bien comprendre qu'il ne faut pas trop prendre les résultats donnés sur ce jeu comme quelque chose de fiable et représentatif... tout comme le Stress Test de Valve d'ailleurs...
 
Bref, la seule différence notable entre les 2.0b et les 3.0 sont les branchements dynamiques.
Les shaders 2.0b et 3 sont aussi longs.
Le Geometry Instancing, même s'il a été lié par MS aux SM 3.0 pour certaines raisons, n'est pas une exclusivité des SM 3.0 et est également supporté par les cartes ATI.
Non, il n'y a définitivement que les branchements dynamiques qui fassent la différence et qui seront certainement massivement utilisés, il est vrai, dans euh, dans combien de temps en fait? Personne n'en sait rien mais vu le temps que chaque migration de techno met à se faire, je suis prêt à parier que d'ici là la génération actuelle sera enterrée.
Encore une fois, on ne sait même pas si de toute façon ils ne seront pas trop coûteux pour cette génération de cartes, comment alors baser un argument là-dessus?
 
Nvidia camoufle son "lack of power" derrière les SM 3.0 et tout le monde saute dedans en disant "ouais, classe, ils ont refait une toute nouvelle architecture!"
Mais EVIDEMMENT qu'ils allaient refaire une nouvelle architecture, ils n'avaient pas le choix, ils n'allaient quand même pas se baser sur cette merde de NV30 non plus?
 
Fillrate is life  [:hill]


Petit renseignement les 6800 sont basées sur une nouvelle architecture ou pas ou il s'agit de la même que les 5900? Tandis que j'ai entendu parler que les X800 sont basées sur celle des 9XXX. Merci.

n°3516138
Ernestor
modo-coco :o
Posté le 23-09-2004 à 18:05:30  profilanswer
 

C'est une nouvelle architecture :)
 
Les X800 sont par contre une évolution des 9700/9800. Tout comme l'était la GF 4 Ti par rapport à la GF 3 Ti.


Message édité par Ernestor le 23-09-2004 à 18:06:06

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3516191
Zeross
Posté le 23-09-2004 à 18:20:33  profilanswer
 

Toasted a écrit :


Bref, la seule différence notable entre les 2.0b et les 3.0 sont les branchements dynamiques.


 
Tu t'entêtes mais c'est faux (dérivées partielles, predicate, swizzle arbitraire, absence de limites sur les indirections ce sont des différencesn otables à mes yeux). A la limite avec les 2.0a ce serait plus correct de dire ça.


Message édité par Zeross le 23-09-2004 à 18:22:00
n°3516199
Toasted
Posté le 23-09-2004 à 18:23:28  profilanswer
 

Ah bon? Et ça ce sont des différences notables?  [:columbo2]  
 
Hmmm intéressant :o

n°3516359
ceasar
Créateur Topic Radeon Driver
Posté le 23-09-2004 à 19:41:58  profilanswer
 

Mais pourquoi se battre pour des différences minimes?
 
Perso, je trouve que ce topic est une daube inutile, mis à part à donner de l'angrais au trolls je vois pas à quoi il sert.
 
Edit : Après réflexion, peut être à faire grandir les trolls. :D


Message édité par ceasar le 23-09-2004 à 19:46:33
n°3516389
rycky
Posté le 23-09-2004 à 19:57:01  profilanswer
 

Toasted a écrit :

Oui oui... Je suis Pro ATI... D'ailleurs je suis tellement Pro ATI que j'ai du Nvidia dans mes deux PC :lol:
 
Les ravages de la rubrique psychologie de Télé 7 jours quand même [:cirius]  
 
Pour le reste, Doom III étant clairement poussé par nvidia, pourquoi ne pas autoriser la même demo techno par ATI? Dans les deux cas ça donnera un bench sur quelque chose qui n'est de toute façon pas objectif, selon moi, et pas représentatif de l'ensemble des jeux, de toute façon.
Je pense que Marc a bien agi en donnant les résultats avec et sans Doom III, ça démontre qu'effectivement il faut bien comprendre qu'il ne faut pas trop prendre les résultats donnés sur ce jeu comme quelque chose de fiable et représentatif... tout comme le Stress Test de Valve d'ailleurs...
 
Bref, la seule différence notable entre les 2.0b et les 3.0 sont les branchements dynamiques.
Les shaders 2.0b et 3 sont aussi longs.
Le Geometry Instancing, même s'il a été lié par MS aux SM 3.0 pour certaines raisons, n'est pas une exclusivité des SM 3.0 et est également supporté par les cartes ATI.
Non, il n'y a définitivement que les branchements dynamiques qui fassent la différence et qui seront certainement massivement utilisés, il est vrai, dans euh, dans combien de temps en fait? Personne n'en sait rien mais vu le temps que chaque migration de techno met à se faire, je suis prêt à parier que d'ici là la génération actuelle sera enterrée.
Encore une fois, on ne sait même pas si de toute façon ils ne seront pas trop coûteux pour cette génération de cartes, comment alors baser un argument là-dessus?
 
Nvidia camoufle son "lack of power" derrière les SM 3.0 et tout le monde saute dedans en disant "ouais, classe, ils ont refait une toute nouvelle architecture!"
Mais EVIDEMMENT qu'ils allaient refaire une nouvelle architecture, ils n'avaient pas le choix, ils n'allaient quand même pas se baser sur cette merde de NV30 non plus?
 
Fillrate is life  [:hill]

:??: Ou as tu vu que je te traitais de pro Ati? Je crois que la rubrique de psychologie de tele 7j tu ferais bien de la lire tu appprendrais peut être à lire tout court  :sarcastic:  Enfin trouver que la 6800u a un "lack of power"  montre bien que tu parles sans discernement... Inutile d'aller plus loin dans la discution avec quelqu'un tel que toi...


Message édité par rycky le 23-09-2004 à 20:02:06
n°3516395
rycky
Posté le 23-09-2004 à 20:00:48  profilanswer
 

Magic-Sim a écrit :

On va prendre deux extrèmes.
 
Imagine deux développeurs de jeux qui veulent faire des FPS concurrents sur le Troubadour Engine.
 
La société Fear & Eternity veut faire un jeu assez sombre, où les jeux d'ombres seront prédominants. Là, clairement, l'archi des 6800 sera très contente.
 
La société Bells & Whistles veut faire un jeu très accés arcade, où ça ^ète dans tous els coins, avec des shaders de malade à gogo (genre explosions de Doom3 et leurs déformations, mais en pire, avec textures procédurales, calculées en temps réel, des shaders d'illumination plus orientés sur les calculs mathématiques que sur les texture lookups).... Là, ce seront les X800 qui apprécieront.
 
Et là, on a pas touché au moteur, on a juste touché au contenu, et à la manière de calculer. (shading).
 
C'est ce que Humus a fait pour faire avancer plus vite les Radeon. Dans son fichier Interactions.vfp, il a juste remplacé (grosso modo) une fonction de lecture de texture précalculée, par un calcul mathématique. Et ça va plus vite sur les Radeon.
 
C'est très con, et c'est qu'une modif mineure sur un shader omniprésent dans un jeu.
 
Imagine ce que peuvent faire deux sociétés où les programmeurs vont écrire leurs shaders différemennt. Même moteur, même contenu, vitesse différente. SI tu ajoute le fait que le contenu sera foncièrement différent, que certains programmeurs sont meilleurs que d'autres et ne sauront peut-être pas déceler ce qui est le plus "équitable"........ Bref, on peut aller loin ;)
 
Et moi je me trouve toujours aussi brouillon.... :D

:jap:  :jap:  Et je confirme les propos d'Ernestor tu es très clair (en tout cas j'ai tout compris faut dire que je m'entraine avec la rubrique psy de tele 7j  ;) ) et je n'avais pas vu effectivement la réaction du moteur en fonction de son contenu  ;)  
 :hello:

n°3516401
magic-sim
Attention, pougnat radioactif
Posté le 23-09-2004 à 20:03:33  profilanswer
 

:love: ENfin reconnu à ma juste valeur :love:


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°3516402
Kornwall
Posté le 23-09-2004 à 20:04:06  profilanswer
 

Ceasar a écrit :

Mais pourquoi se battre pour des différences minimes?
Perso, je trouve que ce topic est une daube inutile, mis à part à donner de l'angrais au trolls je vois pas à quoi il sert.
Edit : Après réflexion, peut être à faire grandir les trolls. :D


 
t'as pas tord je trouve  :D  
et puis qd on lit les résultats des differents jeux testés
 
http://www.hardware.fr/articles/513/page1.html
 
grosso modo : que ce soit ati ou nvidia c'est pareil
voir la difference entre 150fps et 155fps pour l'autre  :whistle:  
breff ati / nvidia même combat  :D

n°3517596
downHCrer
Posté le 24-09-2004 à 12:40:07  profilanswer
 

C'est encore un topic sans fin comme il y a sur beaucoup de sujet dans chaques forum: 6800ultra VS x800xt PE. Mais si le resultats des benchs entre ces deux cartes est si proche, ne pourrai t'on pas conclure qu'elles sont égales. Sur certains points les ATI sont meilleurs et sur d'autres c'est les Nvidia. Donc on pourrait en conclure qu'elles sont de performances égales pour l'instant. Le combat n'est pas aussi facile que l'époque des fx5900 VS 9800pro ou la puissante des deux n'etait pas difficile a determiner.
Et puis faut arrêter de defendre aveuglement sa marque de carte comme des nationalistes racistes... Personnelement je possede l'une des marques et je pense que l'autre est un tantinet meilleur mais ca c'est mon avis et je suis quand meme totalement satisfait de ma CG.
 

Citation :

breff ati / nvidia même combat  :D

n°3520488
ticceuf
Viva Corsica
Posté le 25-09-2004 à 22:37:04  profilanswer
 

Ben le truc du topic en fait (pour rapelle) est que les comparatifs sont :
 
6800 gt             / x800 pro
????                / x800 xt
6800 ultra          / x800 xt pe
6800 ultra extreme  / ????
 
Moi je voit qu'une erreur c'est glissé la dedans, mais ça parait normal à tous le monde alors que peut ont dire ???
 
Pour ceux qui veulent me sortir "oui mais la ultra extreme on la trouve nul part, ha ha"
 
voila : http://www.overclockers.co.uk/acat [...] Ultra.html
(voir la XFX et la Chaintech)
 
Bien sur me direz vous, elle ne sont pas dispos !!!.
Oui mais les X800 xt pe non plus ;)
 
 
ps : Je pense qu'un site réputé comme hardware.fr ne doit pas avoir trop de mal à ce procurer une ultra extreme pour comparer à une xt pe !


Message édité par ticceuf le 25-09-2004 à 22:47:46
n°3521191
ixo
Posté le 26-09-2004 à 12:40:26  profilanswer
 

ticceuf a écrit :

Ben le truc du topic en fait (pour rapelle) est que les comparatifs sont :
 
6800 gt             / x800 pro
????                / x800 xt
6800 ultra          / x800 xt pe
6800 ultra extreme  / ????
 
Moi je voit qu'une erreur c'est glissé la dedans, mais ça parait normal à tous le monde alors que peut ont dire ???
 
Pour ceux qui veulent me sortir "oui mais la ultra extreme on la trouve nul part, ha ha"
 
voila : http://www.overclockers.co.uk/acat [...] Ultra.html
(voir la XFX et la Chaintech)
 
Bien sur me direz vous, elle ne sont pas dispos !!!.
Oui mais les X800 xt pe non plus ;)
 
 
ps : Je pense qu'un site réputé comme hardware.fr ne doit pas avoir trop de mal à ce procurer une ultra extreme pour comparer à une xt pe !


Les XT PE sont dispos pas plus loin qu'à Montgallet  :heink:

n°3522219
ticceuf
Viva Corsica
Posté le 26-09-2004 à 20:03:25  profilanswer
 

:heink:  
 
Bah de toute façons je croit que je vais abandonner ce topic, car trop sterile à mon avis, et il n'attire que des trolls.
 
Personne n'à l'air d'avoir un avis sur la question, et apparement tt le monde s'en fout  :sweat:  
 
On continueras donc à comparer la 6800 ultra à la x800 xt "pe" vu que tous le monde est satisfait (sauf moi ;)).
 
@+++ tous le monde, sur un autre topic  :hello:


Message édité par ticceuf le 26-09-2004 à 20:04:33
n°3522224
Ernestor
modo-coco :o
Posté le 26-09-2004 à 20:04:34  profilanswer
 

On ?
 
C'est qui on ?


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°3522226
Toasted
Posté le 26-09-2004 à 20:05:23  profilanswer
 

Ben c'est surtout que t'es le seul à ne pas te rendre compte que la 6800 Extreme n'est pas un design de référence Nvidia...

n°3522233
ticceuf
Viva Corsica
Posté le 26-09-2004 à 20:08:00  profilanswer
 

Ernestor a écrit :

On ?
 
C'est qui on ?


 
Les sites de comparatifs de matos, les forumeurs, la presse, etc...
 

n°3522236
Ernestor
modo-coco :o
Posté le 26-09-2004 à 20:09:29  profilanswer
 

C'est un complot des chinois du FBI alors  [:shurik_tt_bis]  
 
:D
 
Si tout le monde le fait c'est qu'il y a une raison alors :)
 
Le post de Toasted apporte surement une information pertinente à ce sujet on dirait ;)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4

Aller à :
Ajouter une réponse
 

Sujets relatifs
comment overclooker ma 6800 gtMsi geforce 6800 !sortie tv!
opengl + 6800 + via driver = problemeArctic-Cooling ATI Silencer 3 sur radeon AIW 9800pro
[*Pb avec Asus FX 5900 Ultra pour passer sur un TV*]Changer de carte graphique - ATI 9600SE ?
probleme de carte graphique ati radeon 9550 256 mo aidez moi svp !!!Drivers ATI et reglage de la luminosité
radiateurs de chaque coté sur GeForce 6800 ? 
Plus de sujets relatifs à : ATI à sortie la XT "PE" pour battre la 6800 ultra ??? (Troll party!)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR