Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2973 connectés 

 


Attendre ou la 8800 gtx




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13
Auteur Sujet :

8800 GTX ou attendre Le R600

n°5428225
uNReaLx77
üNReaL
Posté le 23-03-2007 à 17:15:16  profilanswer
 

Reprise du message précédent :
Si tu peux attendre, attend que les seconde gamme DX10 sortent (8900, etc...) devrait y avoir de bon prix apres ca
 
Edit: je croyais qu'il n'y avait qu'une seule page :D


Message édité par uNReaLx77 le 23-03-2007 à 17:16:44
mood
Publicité
Posté le 23-03-2007 à 17:15:16  profilanswer
 

n°5428231
Gigathlon
Quad-neurones natif
Posté le 23-03-2007 à 17:22:46  profilanswer
 

Stef.D a écrit :

et si tu reprends mon précédent post, tu verras qu'en aucun cas je me permet d'affirmer de telles choses comme des "vérités établies"... choses que j'ai déjà vu ici (genre les 40% de perf en plus du R600). C'est d'ailleurs ce comportement qui m'a fait réagir à la base.
J'ai jamais dit NVidia c'est mieux qu'ATI ou vice-versa mais simplement que si on regard les faits :
 - un G80 très performant
 - de multiples retards du R600
 - des premiers benchs pas très convaincants
 
Il est tout à fait légitime d'en tirer certaines conclusions comme le fait que les retards sont principalement dues à un problème de performance (pas vraiment un problème en fait mais en retrait par rapport avec le G80). Après bien sûr, je dis pas que c'est forcément la vérité mais qu'il y a de forte chance que ça le soit.


On reprend point par point:
 
1) nVidia ont-ils fait l'annonce d'une TeraFlop box? Si le R600 était tout juste un poil de cul au dessus voire en dessous du G80, ils ne se seraient pas privés. Reste une inconnue, pour laquelle il faudrait embêter Marc puisque sa niouze fait mention de 345GFlops pour le G80 GTX alors que l'article sur les 8800 indique 500GFlops...  
 
2) Oui, le G80 est performant, comme dit et répété environ 2x plus qu'un R580.
 
3) En effet, le R600 est à la bourre... par rapport au G80? Rappelons nous qu'ATI a eu le même genre de retard sur la génération R500/G70, or ces R500 et plus particulièrement les R580/RV570 commencent seulement à montrer leur véritable potentiel... (une X1650XT fait déjà mieux qu'une 7900gt/7800gtx)
 
4) UN premier bench dont la source reste douteuse et qui aurait été fait sur une machine influençant fortement le résultat... Si on veut un bench intéressant, il faut déjà se débarrasser au maximum des goulets d'étranglement, donc on va éviter un CPU mainstream ou presque au profit d'un CPU plus puissant (C2D o/c @4GHz?)

n°5428238
Stef.D
hip..
Posté le 23-03-2007 à 17:33:15  profilanswer
 

vlad drac a écrit :

Le G80 est très performant : OK
Pour les multiples retards : OK (quoique pas tant que ça finallement .. le R600 était prévu pour fin janvier : +1 retard vers mars, +1 retard vers avril/mai => 2 retards donc mais là bon ok je chipotte)
 
Ensuite, comment peux-tu en tirer des "conclusions légitimes" sur des benchs dont l'approximation frise le néant ?  :sweat:
 
Personnellement pour que j'en tire des conclusions légitimes il va me falloir la carte sous le nez c'est tout. Après si ces benchs vous suffisent tant mieux (ou tant pis) pour vous.


 
Ok, j'ai pas utilisé le mot "légitimes" correctement, mais on va dire qu'il est facile de tirer certaines conclusions avec toutes ces hypothèses :)
Mais j'ai pas envie de lancer une gueguerre débile, au final mes propos initiaux étaient justement là pour éviter d'affirmer dés aujourd'hui que "le R600 va tout arracher" ou que "le R600 va être une mer**"


Message édité par Stef.D le 24-03-2007 à 00:26:01
n°5428571
paladin333​3
Posté le 23-03-2007 à 21:14:38  profilanswer
 

il est surtout important de dir que la gamme 8800 c'est la carte du moment... et vu la puissance de la bete je ne vois mal cette carte se cratcher dans l'avenir. Ce n'est pas l'interet des devellopeurs, si ça rame avec les 8800 alors la gamme en dessou je ne vous en parle meme pas.

n°5428611
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 23-03-2007 à 21:41:46  profilanswer
 

Gigathlon a écrit :

1) nVidia ont-ils fait l'annonce d'une TeraFlop box? Si le R600 était tout juste un poil de cul au dessus voire en dessous du G80, ils ne se seraient pas privés. Reste une inconnue, pour laquelle il faudrait embêter Marc puisque sa niouze fait mention de 345GFlops pour le G80 GTX alors que l'article sur les 8800 indique 500GFlops...


Je ne suis pas spécialiste des archis des derniers GPU mais dans la news Teraflops il est question de la puissance sur un type d'opération spécifique (MADD), hors les shader core sont composés d'une unité pour le MADD et d'une unité pour le MUL (dont le fonctionnement n'as pas pu être vérifié lors de nos tests).
 
Avec la seule unité pour le MADD, on est à 1350 (MHz) * 8 (shader core) * 16 (unités de calculs 16 way SIMD) * 2 (MADD = multiplication et addition, deux opérations) = 345600 Mflops /s
 
Si on rajoute le mul on ajoute 50% de puissance théorique soit 518400 Mflops /s


Message édité par Marc le 23-03-2007 à 21:42:10
n°5428677
Gigathlon
Quad-neurones natif
Posté le 23-03-2007 à 22:43:58  profilanswer
 

En gros faudrait sortir les specs exactes du G80, mais il me semble qu'il y a une subtilité.
 
Ce qui m'intriguait c'était le chiffre étrangement identique à celui de la GTS dans l'article en fait, mais je vois mal nVidia ne pas réagir face à a démo d'AMD si ils sont capables de sortir la même puissance, sachant qu'ils sont eux aussi intéressés par le marché GPGPU.

n°5428697
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 23-03-2007 à 23:04:01  profilanswer
 

1200 (MHz) * 6 (shader core) * 16 (unités de calculs 16 way SIMD) * 3 (MADD+MUL = multiplication et addition+multiplication, trois opérations)  = 345600 Mflops [:spamafote] :D

n°5428751
Gigathlon
Quad-neurones natif
Posté le 24-03-2007 à 00:09:50  profilanswer
 

En fait la grande question est de savoir où sont ces MUL, vu que personne n'a pu les voir en pratique [:ddr555]
 
Il me semblait avoir lu un truc à leur sujet mais j'ai pas retrouvé l'article, en tout cas ils ont pas l'air là dans les tests que j'ai zieuté.

n°5428770
Stef.D
hip..
Posté le 24-03-2007 à 00:29:14  profilanswer
 

ok, donc :
GTS = 345600 Mflops
GTX = 518400 Mflops soit ~ puissance Mflops du R600...
Super... moi qui pensait que les chiffres en la faveur du R600.

n°5428773
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 24-03-2007 à 00:33:23  profilanswer
 

Non
 
GTX = 500 Mflops sur toutes les opérations en théorie, 345 sur les MADD en théorie, 345 en pratique car unité dédié MUL pas pu être mis en avant
R600 = 500 Mflops sur les MADD en théorie

mood
Publicité
Posté le 24-03-2007 à 00:33:23  profilanswer
 

n°5428789
Stef.D
hip..
Posté le 24-03-2007 à 00:49:00  profilanswer
 

Marc a écrit :

Non
 
GTX = 500 Mflops sur toutes les opérations en théorie, 345 sur les MADD en théorie, 345 en pratique car unité dédié MUL pas pu être mis en avant
R600 = 500 Mflops sur les MADD en théorie


 
je comprends pas :

Citation :


1200 (MHz) * 6 (shader core) * 16 (unités de calculs 16 way SIMD) * 3 (MADD+MUL = multiplication et addition+multiplication, trois opérations)  = 345600 Mflops


 
ct bien la GTS ? pour la GTX c'est 8 * 16 unités que l'on a ?
pis oui je parlais des chiffres théoriques (le R600 n'a pas de MUL supplémentaire ?) :) en pratique c'est rarement identique...


Message édité par Stef.D le 24-03-2007 à 00:49:48
n°5428790
alvandar
Posté le 24-03-2007 à 00:49:29  profilanswer
 

Marc a écrit :

Non
 
GTX = 500 Mflops sur toutes les opérations en théorie, 345 sur les MADD en théorie, 345 en pratique car unité dédié MUL pas pu être mis en avant
R600 = 500 Mflops sur les MADD en théorie


 
 
je comprend rien mais ca à l'air vachement important ce que vous dites  :D  
 
Et sinon en termes de perfs ca donne quoi ces chiffres avec des tests poussés et tout ? Ah mince j'oubliais que le R600 n'est toujours pas sortis...
 
 
Mais je rigoooooooole  :lol:  
 
Vivement qu'un troisième guignol se mette a faire des cartes graphiques parcequ' ATI et Nvidia, ils nous la mettent profond avec leur gueguerre pérpetuelle, et résultat, qui en fait les frais ?
Si un jour il est prouvé qu'une entente illicite existe entre les deux constructeurs ( ce qui n'est pas impossible, meme nous autres francais on y arrive, hein messieurs les operateurs téléphoniques  :kaola: ) ca va etre l'apocalypse, mais peut etre qu'on pourra respirer un peu, nous autres pauvres con-sommateurs.

n°5428819
tridam
Profil : Equipe HardWare.fr
Posté le 24-03-2007 à 01:27:49  profilanswer
 

flops égal dans tous les cas un truc très simplifié. On compare sur quelque chose de similaire. Sur du FMAD/FMAC, on a xxx flops. Après il y a 36 autres choses que l'on peut compter sur GPU.
 
Sur G8x, visiblement, le MUL supplémentaire ne pourrait pas être utilisé directement par le shader, mais uniquement pour certains opérations indirectes. Bref il ne faut pas le compter quand on parle de la puissance de calcul générale disponible. Nvidia ne le compte d'ailleurs pas dans ses documentations sur CUDA.
 
http://www.hardware.fr/medias/phot [...] 019321.gif
 
Dans le premier test des 8800 nous nous sommes basés sur les documentations officielles de Nvidia qui mentionnaient un MUL fonctionnel de manière générale.


Message édité par tridam le 24-03-2007 à 01:38:31
n°5428832
sasuke87
Posté le 24-03-2007 à 01:55:09  profilanswer
 

Stef.D a écrit :

ok, donc :
GTS = 345600 Mflops
GTX = 518400 Mflops soit ~ puissance Mflops du R600...
Super... moi qui pensait que les chiffres en la faveur du R600.


 
hé t'avais raison, les chiffres sont bien en faveur du R600 :D

n°5428839
Gigathlon
Quad-neurones natif
Posté le 24-03-2007 à 02:01:45  profilanswer
 

En gros, de là à dire que ce MUL supplémentaire n'existe pas y'a pas grand chose... :/
 
En tout cas ça confirme bien la puissance nettement supérieure du R600 sur les MADD, qui logiquement devrait se traduire grosso modo par le même rapport pour toutes les opérations de shaders (ce que la team en charge de l'upgrade DX10 de FSX semble confirmer).
 
Reste maintenant à voir l'archi globale vu qu'elle est encore sous NDA, un "manque" en texturing me semble peu enclin à provoquer une baisse de perfs amenant un gain aussi faible que ce qu'annonce VR-Zone.

Message cité 1 fois
Message édité par Gigathlon le 24-03-2007 à 03:21:12
n°5428917
god is dea​d
Demain, j'arrête de poster.
Posté le 24-03-2007 à 09:22:49  profilanswer
 

Amha, la puissance en texturing pur n'est pas, plus, vraiment un paramètre primordial maintenant. On le voit bien sur les x1xxx, qui sont nettement en retrait face au 79xx sur ce point précis, pourtant on ne peut vraiment pas dire que ça pose problème en pratique. Il faut surtout une archi efficace.

Message cité 1 fois
Message édité par god is dead le 24-03-2007 à 09:23:15

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5429178
Stef.D
hip..
Posté le 24-03-2007 à 13:07:27  profilanswer
 

god is dead a écrit :

Amha, la puissance en texturing pur n'est pas, plus, vraiment un paramètre primordial maintenant. On le voit bien sur les x1xxx, qui sont nettement en retrait face au 79xx sur ce point précis, pourtant on ne peut vraiment pas dire que ça pose problème en pratique. Il faut surtout une archi efficace.


 
 
Oui je pense plutot que c'est l'efficacité SIMD qui est à voir plus que le texturing...

n°5429461
Gigathlon
Quad-neurones natif
Posté le 24-03-2007 à 16:25:39  profilanswer
 

Que le "processeur" soit SIMD ou MIMD, au final ça peut revenir strictement au même, d'ailleurs le SIMD perd en souplesse si on fait dans le VLIW pour le processeur MIMD (1 instruction longue = 320 instructions pratiques, potentiellement la même instruction sur les 320 unités... certes les instructions deviennent interminables, mais pour un GPU les fonctions restent limitées donc c'est acceptable)

n°5430971
tridam
Profil : Equipe HardWare.fr
Posté le 25-03-2007 à 16:35:21  profilanswer
 

Gigathlon a écrit :

En gros, de là à dire que ce MUL supplémentaire n'existe pas y'a pas grand chose... :/
 
En tout cas ça confirme bien la puissance nettement supérieure du R600 sur les MADD, qui logiquement devrait se traduire grosso modo par le même rapport pour toutes les opérations de shaders (ce que la team en charge de l'upgrade DX10 de FSX semble confirmer).
 
Reste maintenant à voir l'archi globale vu qu'elle est encore sous NDA, un "manque" en texturing me semble peu enclin à provoquer une baisse de perfs amenant un gain aussi faible que ce qu'annonce VR-Zone.


 
Le texturing reste très important dans de nombreux jeux. Les très bonnes performances du G80 sont en parite liées à ses nombreuses unités de filtrage.
 
Un autre point à prendre en compte niveau puissance de calcul, c'est l'efficacité en pratique. Le fonctionnement scalaire du G80 lui apporte un excellent rendement. Mais est-ce que le R600 disposra d'un rendement similaire ?
 
Pour info, une GeForce 7900 GTX a une puissance de calcul en FMAD de 305.6 Gflops (249.6 sans compter les VS) et donc la GeForce 8800 GTX n'a en pratique "que" 345.6 Gflops. L'écart de performances en pratique n'a rien avoir avec ces valeurs, autrement dit ces chiffres tels quels ne veulent strictement rien dire.

n°5431027
cacakipu
Posté le 25-03-2007 à 17:17:24  profilanswer
 

+1 :)

n°5431071
johnbroot
n00b Inside
Posté le 25-03-2007 à 17:42:17  profilanswer
 

Avec ton +1 je parie que tu n'as absolument rien capté au(x) post(s) avant le tien. :o

n°5431352
MacIntoc
tu lis une phrase formidable.
Posté le 25-03-2007 à 20:01:45  profilanswer
 

tridam>Tu oublies aussi le fait que les Pixel Cores étaient obligé d'attendre après les Vertex Cores avant de pouvoir exécuter de nouvelles instructions. Maintenant, dés qu'une unité de calcule a terminé sont travail, il traite une nouvelle donnée en mémoire.
Ensuite, un Shader Core est capable de traiter 2 instructions par cycle d'horloge, au lieu d'une seule sur le G70.

n°5431464
oraclesse
Posté le 25-03-2007 à 20:54:50  profilanswer
 

j'ai essayé sur mon shuttle la 8800gtx chez msi, résultat c'est un monstre tout à fond y a rien qui rame c'est impressionnant par rapport à une 8800gts320 que j'ai testé et renvoyer. Cependant je reste encore bien hésitant de l'achat d'une gtx ou attendre que le r600 sorte...

n°5431511
jeanjean15
buy cheap, buy twice
Posté le 25-03-2007 à 21:16:36  profilanswer
 

A propos du R600 , il sera aussi indispensable de prendre en compte son potentiel d'overclocking car si ATI l'optimise à mort , ce dernier deviendra sans doute faible ce qui fait qu'une GTX overclockée pourra facilement reprendre le dessus sur le R600 , si on part du postulat  que les resultats de benchs parus jusqu'a maintenant sont veridiques .
 


---------------
mes_feeds
n°5431691
tridam
Profil : Equipe HardWare.fr
Posté le 25-03-2007 à 22:40:51  profilanswer
 

MacIntoc a écrit :

tridam>Tu oublies aussi le fait que les Pixel Cores étaient obligé d'attendre après les Vertex Cores avant de pouvoir exécuter de nouvelles instructions. Maintenant, dés qu'une unité de calcule a terminé sont travail, il traite une nouvelle donnée en mémoire.


 
C'est un petit peu différent, le problème n'était pas que les "pixels cores" devaient attendre les "vertex cores" (vu qu'on est dans un pipeline) mais plutôt que l'équilibre entre leurs capacités respectives (fixes) était rarement atteint ce qui faisait que certaines unités se tournaient les pouces parce qu'elles ne pouvaient pas être alimentées en suffisance. Sur G80 toutes les unités peuvent exécuter toutes les tâches, les capacités en traitement de vertices et de pixels sont donc adaptées dynamiquement de manière à ne pas avoir d'unité non alimentée.
 

MacIntoc a écrit :

Ensuite, un Shader Core est capable de traiter 2 instructions par cycle d'horloge, au lieu d'une seule sur le G70.


Hein ? Ca sort d'où ça ? Il n'y a pas de rapport de ce style entre G80 et G70.

n°5431754
MacIntoc
tu lis une phrase formidable.
Posté le 25-03-2007 à 23:13:53  profilanswer
 

Tridam>J'ai utilisé les terme Pixel Core et Vertex Core par analogie aux Shader Core. Mais le résultat est le même, on est bien d'accord.
 
Pour les Shader Core, je me suis référé au dossier de HFR sur CUDA.

n°5431785
Stef.D
hip..
Posté le 25-03-2007 à 23:33:36  profilanswer
 

je pense qu'ils voulaient faire référence au fait qu'elles soient clockées à 2x la freq du GPU sur G80.


Message édité par Stef.D le 26-03-2007 à 09:43:26
n°5431881
tridam
Profil : Equipe HardWare.fr
Posté le 26-03-2007 à 01:00:07  profilanswer
 

MacIntoc a écrit :

Tridam>J'ai utilisé les terme Pixel Core et Vertex Core par analogie aux Shader Core. Mais le résultat est le même, on est bien d'accord.
 
Pour les Shader Core, je me suis référé au dossier de HFR sur CUDA.


 
C'est moi qui ai écrit ce dossier et je suis certain de ne pas avoir dit ça ;) Les unités de calcul travaillent effectivement à une fréquence double, mais il y en a +/- 2x moins dans un 8800 GTX (16x vec8 -> 128 FMAD) que dans une 7900 GTX (6x (vec16 + vec16) + 8x vec5 -> 232 FMAD).

n°5431943
Gigathlon
Quad-neurones natif
Posté le 26-03-2007 à 04:01:12  profilanswer
 

tridam a écrit :

Pour info, une GeForce 7900 GTX a une puissance de calcul en FMAD de 305.6 Gflops (249.6 sans compter les VS) et donc la GeForce 8800 GTX n'a en pratique "que" 345.6 Gflops. L'écart de performances en pratique n'a rien avoir avec ces valeurs, autrement dit ces chiffres tels quels ne veulent strictement rien dire.


En fait je crois qu'il y a méprise sur le SIMD "plus efficace"...
 
Sauf à faire des instructions très spécifiques (exemple fictif: MADD x,y -> effectue les opérations MADD a,x,y à MADD f,x+5,y+5 au lieu de "SMADD" a,x,y,b,x+1,y+1,c,x+2,y+2... c'est seulement partiellement le cas), une unité SIMD ne sera pas souvent utilisée à plein et n'aura pas réellement de meilleur rendement puisque toutes les données devront être listées, ce qui la place au même niveau que X unités MIMD contrôlées par des instructions "typées VLIW". Je doute qu'on ait suffisamment de fonctions dans un GPU pour qu'une instruction prenne plus de 32 bits, quand bien même il s'agirait d'une composition de 320 instructions, et on est pu obligés de chercher à remplir les unités pour regrouper les instructions.

Message cité 2 fois
Message édité par Gigathlon le 26-03-2007 à 04:02:22
n°5431976
MacIntoc
tu lis une phrase formidable.
Posté le 26-03-2007 à 08:12:13  profilanswer
 

tridam>

Citation :

Dans les documentations de CUDA, les multiprocesseurs ne sont pas décrits comme fonctionnant à 1350 MHz mais bien à 675 MHz avec des unités d'exécution de type "double pumped", c'est-à-dire qui fonctionnent à une fréquence double comme c'était le cas des ALU du Pentium 4.

n°5432038
Stef.D
hip..
Posté le 26-03-2007 à 09:47:51  profilanswer
 

Gigathlon a écrit :

En fait je crois qu'il y a méprise sur le SIMD "plus efficace"...


 
Le SIMD à la base permet de maximiser le nombre d'unités de calcul au détriment de l'efficacité. A 2 architectures "identiques" (même nombre d'unités), la SIMD sera la moins performante.

Message cité 1 fois
Message édité par Stef.D le 26-03-2007 à 09:48:30
n°5432653
tridam
Profil : Equipe HardWare.fr
Posté le 26-03-2007 à 16:15:34  profilanswer
 

Gigathlon a écrit :

En fait je crois qu'il y a méprise sur le SIMD "plus efficace"...
 
Sauf à faire des instructions très spécifiques (exemple fictif: MADD x,y -> effectue les opérations MADD a,x,y à MADD f,x+5,y+5 au lieu de "SMADD" a,x,y,b,x+1,y+1,c,x+2,y+2... c'est seulement partiellement le cas), une unité SIMD ne sera pas souvent utilisée à plein et n'aura pas réellement de meilleur rendement puisque toutes les données devront être listées, ce qui la place au même niveau que X unités MIMD contrôlées par des instructions "typées VLIW". Je doute qu'on ait suffisamment de fonctions dans un GPU pour qu'une instruction prenne plus de 32 bits, quand bien même il s'agirait d'une composition de 320 instructions, et on est pu obligés de chercher à remplir les unités pour regrouper les instructions.


 
Ton raisonnement n'est pas valide dans le cas d'un GPU puisque les instructions sont appliquées à chaque fois sur un nombre important de données distinctes, ce qui entraîne un certains nombre d'opportunités pour remplir les unités SIMD.. Par exemple dans le cas du G80, le fonctionnement des unités SIMD a été modifié de manière à travailler sur une seule composante à la fois mais sur plus d'éléments (c'est pour ça que Nvidia parle de processeurs scalaires alors qu'il s'agit d'unités SIMD 8-way). Chaque instruction est appliquée sur 32 éléments par ces unités SIMD 8-way (ce qui prend donc 4 cycles de leur point de vue et 2 cycles du point de vue du scheduler). Ce fonctionnement permet de maximiser l'utilisation de ces unités SIMD qui est largement supérieur à celui des unités MIMD 16-way des GeForce 7.

n°5432659
tridam
Profil : Equipe HardWare.fr
Posté le 26-03-2007 à 16:18:43  profilanswer
 

Stef.D a écrit :

Le SIMD à la base permet de maximiser le nombre d'unités de calcul au détriment de l'efficacité. A 2 architectures "identiques" (même nombre d'unités), la SIMD sera la moins performante.


 
Encore une fois, c'est une simplification qui n'est donc pas toujours correcte, et qui ne l'est pas particulièrement dans ce cas.
GeForce 7 : MIMD
GeForce 8 : SIMD
L'efficacité des GeForce 8 est très nettement supérieure à celle des GeForce 7.

n°5432778
Stef.D
hip..
Posté le 26-03-2007 à 17:20:20  profilanswer
 

tridam a écrit :

Encore une fois, c'est une simplification qui n'est donc pas toujours correcte, et qui ne l'est pas particulièrement dans ce cas.
GeForce 7 : MIMD
GeForce 8 : SIMD
L'efficacité des GeForce 8 est très nettement supérieure à celle des GeForce 7.


 
ok  :jap:
mes connaissance en hardware on du s'arrêter au Pentium MMX  :lol:  

n°5432990
CrashOverR​ide3
Posté le 26-03-2007 à 19:08:47  profilanswer
 

salut j'ai une question.
 
Si j'ai bien compris le r600 sera compatible seulement dx10 et ne supportera plus le dx9? One pourra donc plus joue avec les jeux anciens fonctionnant sur dx9 ?
 
merci de votre réponse

n°5433011
dami1stm
Eco-coco φ
Posté le 26-03-2007 à 19:17:35  profilanswer
 

CrashOverRide3 a écrit :

salut j'ai une question.
 
Si j'ai bien compris le r600 sera compatible seulement dx10 et ne supportera plus le dx9? One pourra donc plus joue avec les jeux anciens fonctionnant sur dx9 ?
 
merci de votre réponse


 
Euhhh non, je crois que tu as mal compris. :)


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5433014
blob
In vino veritas
Posté le 26-03-2007 à 19:17:40  profilanswer
 

CrashOverRide3 a écrit :

salut j'ai une question.
 
Si j'ai bien compris le r600 sera compatible seulement dx10 et ne supportera plus le dx9? One pourra donc plus joue avec les jeux anciens fonctionnant sur dx9 ?
 
merci de votre réponse


 
le R600 est un GPU DX9C/DX10

n°5433015
god is dea​d
Demain, j'arrête de poster.
Posté le 26-03-2007 à 19:17:48  profilanswer
 

Il supporte dx10 et dx9.
Mais pas contre, Vista = dx10/dx9 (XP = dx9 only).


Message édité par god is dead le 26-03-2007 à 19:19:09

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5433062
Gigathlon
Quad-neurones natif
Posté le 26-03-2007 à 19:33:17  profilanswer
 

tridam a écrit :

Encore une fois, c'est une simplification qui n'est donc pas toujours correcte, et qui ne l'est pas particulièrement dans ce cas.
GeForce 7 : MIMD
GeForce 8 : SIMD
L'efficacité des GeForce 8 est très nettement supérieure à celle des GeForce 7.


Mais on part justement du principe qu'on utilise les mêmes opérations/données pour que ça soit efficace, chose tout à fait possible en MIMD et ne présentant pas d'inconvénient.


Message édité par Gigathlon le 26-03-2007 à 19:33:35
n°5433111
tafkap
Posté le 26-03-2007 à 19:47:32  profilanswer
 

Bon alors les gars voilà, je dois changer d'ici fin avril/début mai maxi ma config.  
Donc est-ce que je me jette tout de suite sur une 8800 GTX pour être tranquil quelques mois, ou bien dois-je attendre le R600 en espérant dans le même temps une baisse des 8800 GTX ou éventuellement les nouveaux modèles HDG de chez NVidia, tout en sachant que pour l'instant je ne passe pas sur Vista...
 
Merci pour vos réponses...  :jap:

n°5433305
sasuke87
Posté le 26-03-2007 à 21:15:51  profilanswer
 

tafkap a écrit :

Bon alors les gars voilà, je dois changer d'ici fin avril/début mai maxi ma config.  
Donc est-ce que je me jette tout de suite sur une 8800 GTX pour être tranquil quelques mois, ou bien dois-je attendre le R600 en espérant dans le même temps une baisse des 8800 GTX ou éventuellement les nouveaux modèles HDG de chez NVidia, tout en sachant que pour l'instant je ne passe pas sur Vista...
 
Merci pour vos réponses...  :jap:


 
Je pense que maintenant si on veux du haut de gamme autant attendre le R600 et voir ce qu'il en est, plus qu'un mois pour être fixé niveau perf.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13

Aller à :
Ajouter une réponse
 

Sujets relatifs
8800 GTX a tout prix8800 GTS avec mobo asrock 939 VSTA
conseil alim pour 8800 GTSQuelle marque pour une 8800 GTX?
La carte mère idéale pour un Core Duo et une 8800Conseils 8800 GTX
probleme 8800 GTX twintech 
Plus de sujets relatifs à : 8800 GTX ou attendre Le R600


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR