Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3135 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  12  13  14  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6956876
Yoyo_5
Posté le 14-05-2009 à 18:56:00  profilanswer
 

Reprise du message précédent :

wizerty a écrit :

Intel Geforce  :lol:...
 
Ca le fait pas non plus... Il faut absolument que le GT300 marche  :sarcastic:


ATI Geforce... [:afrojojo]
(Joke hein, je sais bien que nVidia a plus de sousous que AMD...! :o )


---------------
¤ Paix et félicité ¤

mood
Publicité
Posté le 14-05-2009 à 18:56:00  profilanswer
 

n°6956890
mikestewar​t
Air Roll Spinnin'
Posté le 14-05-2009 à 19:09:37  profilanswer
 

wizerty a écrit :


Intel Geforce  :lol:...

 

Ca le fait pas non plus... Il faut absolument que le GT300 marche  :sarcastic:

 

Intel Z5600HD, ça le fait.  :sol:


Message édité par mikestewart le 14-05-2009 à 19:13:22
n°6956899
Activation
21:9 kill Surround Gaming
Posté le 14-05-2009 à 19:13:54  profilanswer
 

Yoyo_5 a écrit :

Non mais après tout le monde sera vert, que ce soit ATI en devenant AMD ou nVidia qui l'a toujours été, comment on fera pour ne pas taper la mauvaise personne...? :D


 
intel ils sont resté bleu
 
bon ils ont des période fluo quand ils se drogues pour dansé en combi antifeu  :o

n°6956909
kaiser52
Posté le 14-05-2009 à 19:24:25  profilanswer
 
n°6956923
Yoyo_5
Posté le 14-05-2009 à 19:33:38  profilanswer
 

nVidia Larrabeon... [:afrojojo]
On va se faire TT à raconter des âneries comme celles-là, c'est pas dredaï aujourd'hui... :o


---------------
¤ Paix et félicité ¤

n°6956926
wizerty
Posté le 14-05-2009 à 19:35:57  profilanswer
 

kaiser52 a écrit :

:o  Intel Gefeon  :o


Je veux bien qu'AMD et Nvidia n'aient pas des très bon résultat, mais de la à être racheter tous les 2 par intel  :pt1cable:  
 
Déjà qu'ils doivent 1milliard pcq il domine alors imagine les amendes si il avais plus de concurrent en processeur, chipset et CG  :D  
 
 

n°6956937
kaiser52
Posté le 14-05-2009 à 19:42:42  profilanswer
 

Oui c'est sûr,
 
j'ai pas eu le courage de lire tous le pavé de super_newbie_pro !
 
Mais moi j'y crois encore au combat de titant entre RV870 et GT300 de fin d'année ! (Quoi ? Qui a dit la sourd oreille ?)
D'un coté, ca peut-pas être aussi mauvais que ma 8800GTX (même si elle est tres loin d'être mauvaise, je veu dire, en decas de ma 8800GTX).


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6957038
sasuke87
Posté le 14-05-2009 à 21:09:40  profilanswer
 

mikestewart a écrit :

Pfff...trop pessimiste The Inq. :/ (marrant comment ils défoncent Fud  :D )

 

On verra mais ça sent un remake de la GF FX, en pire.  :sweat:

 

Ce serait une première, dans la lignée de leurs résultats financiers. :/

 

Non,

 

Dans la mesure où l'on considère le g80 et tout dernièrement le gt200 comme des cancres en DX10 (donc les FX actuelle si on fait l'analogie avec le nv30), la génération suivante sera sans doute une tuerie en DX10/DX11 (comme le nv40 pour DX9) et enfin on aura droit à des nouveautés au niveau des technos pour les graphismes. A part si nvidia continue à se focaliser sur ses toutes nouvelles valeurs ajoutées à savoir le physX (via CUDA) et le 3dvision.

 

D'ailleurs je me demande quelle sera la réaction de nvidia pour faire à l'openCL, parce que même si les technos sont très similaires (l'un a pompé l'autre pour voir le jour :D ), ils n'ont quand même pas dépensé des millions en R&D pour se faire violer par la concurrence aussi facilement.

Message cité 1 fois
Message édité par sasuke87 le 14-05-2009 à 21:10:35
n°6957293
marllt2
Posté le 15-05-2009 à 00:46:11  profilanswer
 

sasuke87 a écrit :

quelle sera la réaction de nvidia pour faire à l'openCL


CUDA 3.0 par exemple...

n°6957339
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 15-05-2009 à 03:57:47  profilanswer
 

CUDA 3.0 c'est le fils de Glide ?
Ah, on me dit à l'instant même que Glide avait "fusionné" avec OpenGL.
Peut-être que CUDA va fusionner avec OpenCL.
Tel père, tel fils ?

mood
Publicité
Posté le 15-05-2009 à 03:57:47  profilanswer
 

n°6957373
kaiser52
Posté le 15-05-2009 à 08:31:36  profilanswer
 

mikestewart a écrit :

Pfff...trop pessimiste The Inq. :/ (marrant comment ils défoncent Fud  :D )
 
On verra mais ça sent un remake de la GF FX, en pire.  :sweat:
 
Ce serait une première, dans la lignée de leurs résultats financiers. :/


 
Hum hum,
a l'epoque, les geforces FX, avaient la moitié des specs (PS et VS) des 9800  :love:, et étaient aussi puissante en DX 8.1.
Les 9800 n'étaient pas forcement deux fois plus performante sous DX 9.0.
Donc les perfs des PS et VS des geforces FX n'étaient pas forcement mauvaises, mais juste sous scalé face au rivale.
 
La avec les SP, les cartes on beaucoup plus de différences qu'à l'époque.
Et a ce qu'on peut-en voire, a part le fiasco du début de l'archi ATI (j'ai bien précisé début  :jap: ), les SP nVidia son assé bien fait.
Donc si DX11 est ce qu'aurais du être DX10 (juste le tesselator quoi, sans avoir a charger DX 9.0), 512 SP retravaillé ne peuvent pas donné des perfs en deça des des cartes actuel.
Moi je suis confiant, c'est juste dans la date de sortie ou le doute plane !
 
Puis chacun a eu son épisode FX, ils en devraient plus y avoir de problémes.
 

Wirmish a écrit :

CUDA 3.0 c'est le fils de Glide ?
Ah, on me dit à l'instant même que Glide avait "fusionné" avec OpenGL.
Peut-être que CUDA va fusionner avec OpenCL.
Tel père, tel fils ?


 
 
CUDA c'est un peut la grosse base de OpenCL.  :o  
 
Enfin en parlant d'OpenGL 2.0 / 2.1, plus on avance dans le temps, plus il sert a rien, depuis DX9.0 c'est fini, et ne parlons pas d'OpenGL 3.0 . :lol:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6957667
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 15-05-2009 à 12:41:39  profilanswer
 

kaiser52 a écrit :

CUDA c'est un peut la grosse base de OpenCL.  :o


Sauf qu'OpenCL est un concurrent de CUDA.
Et que lorsque CUDA tombera, comme Glide est tombé avant lui, il ne restera qu'OpenCL.
Et les applis compatibles OpenCL fonctionneront parfaitement sur les Radeon et le Larrabee.
nVidia devra alors se battre à arme égale avec AMD et Intel.
Alors, laisse-moi te dire que nVidia ne dois pas vraiment aimer OpenCL.
 
 
NOTE: Dans le PDF officiel d'OpenCL on retrouve, à la page 4, la phrase suivante:
          "Close-to-the-metal interface to support a rich diversity of middleware and applications"
Cette formulation me rappelle vaguement quelque chose...
 
Et à la page 6 : "Many industry-leading experts involved in OpenCL’s design"
Suivi d'une liste des compagnies qui participent à l'élaboration des specs d'OpenCL.
nVidia ne semble pas seul sur cette liste.
 
À la page 7, Apple affirme avoir créé OpenCL en partenariat avec nVidia, AMD et Intel.
Et je ne pense pas qu'AMD et Intel se sont assis dans un coin de la salle pendant qu'Apple copiait CUDA dans l'autre coin.

Message cité 1 fois
Message édité par Wirmish le 15-05-2009 à 12:54:31
n°6957725
Activation
21:9 kill Surround Gaming
Posté le 15-05-2009 à 13:22:38  profilanswer
 

Wirmish a écrit :


Sauf qu'OpenCL est un concurrent de CUDA.
Et que lorsque CUDA tombera, comme Glide est tombé avant lui, il ne restera qu'OpenCL.
Et les applis compatibles OpenCL fonctionneront parfaitement sur les Radeon et le Larrabee.
nVidia devra alors se battre à arme égale avec AMD et Intel.
Alors, laisse-moi te dire que nVidia ne dois pas vraiment aimer OpenCL.
 
 
NOTE: Dans le PDF officiel d'OpenCL on retrouve, à la page 4, la phrase suivante:
          "Close-to-the-metal interface to support a rich diversity of middleware and applications"
Cette formulation me rappelle vaguement quelque chose...
 
Et à la page 6 : "Many industry-leading experts involved in OpenCL’s design"
Suivi d'une liste des compagnies qui participent à l'élaboration des specs d'OpenCL.
nVidia ne semble pas seul sur cette liste.
 
À la page 7, Apple affirme avoir créé OpenCL en partenariat avec nVidia, AMD et Intel.
Et je ne pense pas qu'AMD et Intel se sont assis dans un coin de la salle pendant qu'Apple copiait CUDA dans l'autre coin.


 
 
CUDA tout comme OpenCL est multiplateforme
 
sauf que d'un coté OpenCL sera avant tout promu par apple à partir de Mac OS X.6 (linux osef... linux c est 1% dans le monde)
dans le monde windows microsoft va plutot promouvoir les compute shader directx et pas vraiment opencl
 
CUDA est déjà dispo depuis un moment et est donc déjà plus répandu, qui plus est un SDK régulièremen,et mit à jour, du support
bref nvidia met les petits plat dans les grands
qui plus est dans le monde windows pour les devs qui s interesse au jeu y a une petite pépité à savoir PhysX (meme si clairement pas indispensable... mais c est un plus)
 
enfin  
d'ici que CUDA en cas d absence de carte nvidia débraille en mode opencl dans une prochaine version du SDK
 
vu que CUDA en cas d absence d une carte NV doit débraillé en emulation cpu... là je sais pas si c est dispo dans le sdk actuel mais en tout cas c'est prévu si pas encore dispo)
 
bref pour le developpeur un seul code
et pas un code en opencl, un code en cuda, en code en directx
 
bien sur je parle application
pour les jeux les devs se feront pas chier ils vont faire ça à l ancienne avec le sdk directx
 
par principe la moyenne haute des dev... moins y a à faire de boulot mieux c'est pour ça pomme
donc un sdk cuda a de quoi séduire.
 
maintenant dans le monde windows microsoft et intel on déjà sous le coude des module ou compilateur pour aussi privilégié normalement dès l an prochain l'application du parallèlisme
parlant d'intel ça touche donc aussi le monde macintel
 
à savoir maintenant si dans le monde mac les devs vont pas putot au départ promouvoir l usage du multicore cpu plutot que de opencl  
 
vu que la majorité des mac excusé du peut ça a plus un cpu multicore qu'un gpu performant pour opencl
 
car sorti de 8800GT dans les imac et de carte cossu dans les mac pro à 2500€ le monstre ou là y a enfin une carte graphique potentiellement potable
 
c'est bien beau de promouvoir opencl mais sidans le mac y a rien pour faire du gpgpu viable... ça pue la mort avancé comme opengl
faudra un jour qu on m explique comment apple se veut le promotteur de solution sans y mettre au cul le hard nécessaire dans ses machines
 
le plus gros des vente de apple... du macbook et du macbook pro
 
au putain escusé y a des gpu de roxor la dedant pour donner envie de developper du code opengl et opencl  :pfff:  
 
je sais pas pourquoi y a comme un arière gout de solution morte né avec ce opencl ... comme opengl 3.0

n°6957738
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 15-05-2009 à 13:30:39  profilanswer
 

OpenCL mort né ?
 
Peut-être qu'Intel va changer d'idée et utiliser CUDA pour son Larrabee...

n°6957748
Activation
21:9 kill Surround Gaming
Posté le 15-05-2009 à 13:35:20  profilanswer
 

Wirmish a écrit :

OpenCL mort né ?
 
Peut-être qu'Intel va changer d'idée et utiliser CUDA pour son Larrabee...


 
 
euuh tu te rappel que larabee c est ni plus ni moins que du X86 avec un nouveau jeu d instruction à la "mmx"
 
ils s en tape intel de opencl
 
il a déjà un module à intégré dans des visual studio et etc... pour optimisé le dev de facon parallele
 
larabee c est de facon caricatural une mobo 40 socket avec 40 petit pentium x86
 
en quoi c est différent d'un i7 ou pour imagé dans le i7 c'est 4 petit pentium4 prescott
 
tu peut m expliqué l interet de opencl dans larabee vu qu il peut passer outre avec le langage de programmation x86... qu existe depuis quoi 1985 (je parle du premier processeur x86 32bits... pas des version 16bits)
 
nop moi je dis ça car depuis que je suis dans le monde PC (environ 1993) j ai jamais ressenti le besoin d avoir opencl pour que mon PC tourne

Message cité 1 fois
Message édité par Activation le 15-05-2009 à 13:37:00
n°6957876
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 15-05-2009 à 14:34:52  profilanswer
 

En même temps opencl n'existait pas avant.. donc je vois pas comment t'aurais pu en ressentir le besoin..


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°6957898
Gigathlon
Quad-neurones natif
Posté le 15-05-2009 à 14:44:07  profilanswer
 

Activation a écrit :

tu peut m expliqué l interet de opencl dans larabee vu qu il peut passer outre avec le langage de programmation x86... qu existe depuis quoi 1985 (je parle du premier processeur x86 32bits... pas des version 16bits)


C'est pas à l'utilisateur que ça profite hein, pis bon, OCL c'est mort-né mais pour la même raison qu'OGL est mort, il se fera inévitablement bouffer par DirectX.
 
Après, qu'on prenne OCL ou les CS de DX11, ça permet surtout d'être multi-plateformes, contrairement à du C++, et ça sans nécessiter de machine virtuelle comme le C#. Du coup, pour tout ce qui est graphique, DX11 sera largement préféré à ces solutions.


Message édité par Gigathlon le 15-05-2009 à 14:46:08
n°6958245
Sam Erousi​s
Posté le 15-05-2009 à 17:54:03  profilanswer
 

Quoi de neuf dans les 8 dernières pages ?  :whistle:  
 
Changement d'odi, toussa.....j'ai pas eu le temps de suivre  :D .


---------------
Le bien ou le mal n'existe pas, ce n'est qu'une différence de point vue.
n°6958250
ftp381
ça fûme!
Posté le 15-05-2009 à 17:56:34  profilanswer
 

le GT300 sort demain


---------------
"Bite my shiny metal ass."
n°6958251
ftp381
ça fûme!
Posté le 15-05-2009 à 17:57:20  profilanswer
 

on m'annonce qu'il y aurait un report :D
 
 
donc rien de nouveau sous le soleil ;)


---------------
"Bite my shiny metal ass."
n°6958254
mikestewar​t
Air Roll Spinnin'
Posté le 15-05-2009 à 18:03:18  profilanswer
 

ftp381 a écrit :

le GT300 sort demain


 
Si tu parles de journées plutoniennes, c'est tout à fait crédible.
 
(elles durent 20 ans  :whistle: )

n°6958256
Profil sup​primé
Posté le 15-05-2009 à 18:03:40  answer
 

ftp381 a écrit :

le GT300 sort demain hier

Spoiler :

mais pas dans notre dimension quantique [:cerveau o]

n°6958521
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 15-05-2009 à 21:02:44  profilanswer
 

Nvidia's insurance company falls out over faulty chips payments !
 
"The chip claims arise out of allegedly defectively designed Nvidia chips G86, G86A2, G84, C51, G72, G72M, G73, G72A3, MCP67, NV42."
 
National Union doesn't want to pay up. It wants the court to declare it has no duty to indemnify Nvidia because Nvidia has breached the terms of the agreement.
 
National Union, la compagnie d'assurance de nVidia, refuse de l'indemniser.
Ça va sûrement améliorer les finances du caméléon... ou pas.

n°6958528
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 15-05-2009 à 21:05:50  profilanswer
 

Mais ils n'ont pas de bol eux :-/


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6958554
bjone
Insert booze to continue
Posté le 15-05-2009 à 21:27:20  profilanswer
 

Wirmish a écrit :

Nvidia's insurance company falls out over faulty chips payments !
 
"The chip claims arise out of allegedly defectively designed Nvidia chips G86, G86A2, G84, C51, G72, G72M, G73, G72A3, MCP67, NV42."
 
National Union doesn't want to pay up. It wants the court to declare it has no duty to indemnify Nvidia because Nvidia has breached the terms of the agreement.
 
National Union, la compagnie d'assurance de nVidia, refuse de l'indemniser.
Ça va sûrement améliorer les finances du caméléon... ou pas.


 
ça par contre, ça peut très mal se finir :/

n°6958649
sasuke87
Posté le 15-05-2009 à 22:33:25  profilanswer
 

kaiser52 a écrit :


 
Hum hum,
a l'epoque, les geforces FX, avaient la moitié des specs (PS et VS) des 9800  :love:, et étaient aussi puissante en DX 8.1.
Les 9800 n'étaient pas forcement deux fois plus performante sous DX 9.0.
Donc les perfs des PS et VS des geforces FX n'étaient pas forcement mauvaises, mais juste sous scalé face au rivale.
 
La avec les SP, les cartes on beaucoup plus de différences qu'à l'époque.
Et a ce qu'on peut-en voire, a part le fiasco du début de l'archi ATI (j'ai bien précisé début  :jap: ), les SP nVidia son assé bien fait.
Donc si DX11 est ce qu'aurais du être DX10 (juste le tesselator quoi, sans avoir a charger DX 9.0), 512 SP retravaillé ne peuvent pas donné des perfs en deça des des cartes actuel.
Moi je suis confiant, c'est juste dans la date de sortie ou le doute plane !
 
Puis chacun a eu son épisode FX, ils en devraient plus y avoir de problémes.
 


 
Baaaah
 
Perso, je trouve que le problème est assez similaire à celui de l'époque des FX. D'un côté t'as ATI qui semble avoir mis le paquet pour les GS (un peu comme les Radeon 9700/9800 pour les PS) et a même été plus loin avec le tesselator, tandis que de l'autre côté, avec nvidia, y a l'air que le minimum syndical a été effectué pour respecter de justesse les pré-requis de DX10.  
 
Bon la grande différence avec l'époque des FX, c'est que la faiblesse de l'archi de nvidia n'a jamais été révélée puisque DX10 n'a pas encore trouvé sa place dans le monde du jeu vidéo.
 

Wirmish a écrit :

Nvidia's insurance company falls out over faulty chips payments !
 
"The chip claims arise out of allegedly defectively designed Nvidia chips G86, G86A2, G84, C51, G72, G72M, G73, G72A3, MCP67, NV42."
 
National Union doesn't want to pay up. It wants the court to declare it has no duty to indemnify Nvidia because Nvidia has breached the terms of the agreement.
 
National Union, la compagnie d'assurance de nVidia, refuse de l'indemniser.
Ça va sûrement améliorer les finances du caméléon... ou pas.


 
ça c'est pas du lourd...  


Message édité par sasuke87 le 15-05-2009 à 22:35:15
n°6958652
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2009 à 22:37:59  profilanswer
 

Oué et la grosse différence c'est que dans les faits les perfs sont relativement équivalentes entre gt200 et rv770, y a même une légère avance sur ce dernier. Avant le g80 a écrasé le r600, dx10 ou pas, et les potentialité de ce dernier n'ont jamais été exploité et ne le seront sans doute jamais. Donc pour du "fx" like... c'est qd même pas mal :d Faudrait revoir les perfs minables des FX sous dx9, ça n'a rien de comparable avec ce qui nous occupe actuellement.
 
Donc ta comparaison est fumeuse, comme à chaque fois qu'on tente de faire des analogies avec les gpu foireux du passé.

Message cité 1 fois
Message édité par god is dead le 15-05-2009 à 22:39:51

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6958656
Profil sup​primé
Posté le 15-05-2009 à 22:40:44  answer
 

le problème des FX et du décalage entre les spécifications Dx9 et l'implémentation en hard c'est que les performances dans les jeux étaient fortement dépendantes des optimisations hardware (recompilation des shaders à la volée) là on les radeon 9xxx avaient leur perf max sans artifice (forcément avec un Dx9 développé en partenariat ATI-Microsoft).
Quand nVidia a cessé d'optimiser ses drivers pour les FX en favorisant les générations suivantes, les possesseurs de FX n'avait plus que leur yeux pour pleurer là ou ceux qui avaient une Radeon 9xxx ont pû faire durer leurs matos plus longtemps.
Faudrait pas que ça se reproduise avec un GT300 surpuissant dans la théorie mais trop générique et dépendant de bricolages dans les faits.

n°6958662
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2009 à 22:44:40  profilanswer
 

En même temps, faire des analogies douteuse avec un gpu singulier, qui s'inscrit dans une époque singulière, le tout sans rien savoir du gt300, c'est priceless.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6958671
sasuke87
Posté le 15-05-2009 à 22:49:02  profilanswer
 

god is dead a écrit :

Oué et la grosse différence c'est que dans les faits les perfs sont relativement équivalentes entre gt200 et rv770, y a même une légère avance sur ce dernier. Avant le g80 a écrasé le r600, dx10 ou pas, et les potentialité de ce dernier n'ont jamais été exploité et ne le seront sans doute jamais. Donc pour du "fx" like... c'est qd même pas mal :d Faudrait revoir les perfs minables des FX sous dx9, ça n'a rien de comparable avec ce qui nous occupe actuellement.
 
Donc ta comparaison est fumeuse, comme à chaque fois qu'on tente de faire des analogies avec les gpu foireux du passé.


 
Tu as du raté ça dans mon post:
 

Citation :

Bon la grande différence avec l'époque des FX, c'est que la faiblesse de l'archi de nvidia n'a jamais été révélée puisque DX10 n'a pas encore trouvé sa place dans le monde du jeu vidéo.


 
Ce que j'ai voulu dire c'est que comme à l'époque des FX, les geforces comme les radeons délivrent des perfs assez similaires sur le DX du moment (DX8 du temps de FX, et DX9 actuellement). Et quand il s'agit du DX "d'avenir" là l'archi d'ATI prends l'avantage, mais malheureusement pour eux cette fois-ci les développeurs n'ont pas suivi pour diverses raisons (console limité à DX9, Vista pas si populaire, nvidia qui préfère parler de physX que de DX10,...).

n°6958686
sasuke87
Posté le 15-05-2009 à 22:59:30  profilanswer
 


 
Baah c'est plus ou moins là où je voulais en venir, sauf que l'archi qui nécessitera des bricolages c'est le g80/gt200 pas le gt300.
 
En bref,  
 
g80=nv30
Pourquoi? Parce que comme à l'époque du nv30, le g80 a l'air d'être une grosse merde pour la gestion des grandes nouveautés du new DX, avant c'était les pixel shader 2 pour le nv30, maintenant ce sont les géométrie shader pour le g80/gt200.
 
Donc, en toute logique le GT300 devrait performer aussi bien dans DX10 (avec GS) que le nv40 l'a fait avec DX9 (avec ps2).
 
Voilà j'espère que c'est clair.

n°6958687
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2009 à 23:00:15  profilanswer
 

sasuke87 a écrit :


 
Tu as du raté ça dans mon post:
 

Citation :

Bon la grande différence avec l'époque des FX, c'est que la faiblesse de l'archi de nvidia n'a jamais été révélée puisque DX10 n'a pas encore trouvé sa place dans le monde du jeu vidéo.


 
Ce que j'ai voulu dire c'est que comme à l'époque des FX, les geforces comme les radeons délivrent des perfs assez similaires sur le DX du moment (DX8 du temps de FX, et DX9 actuellement). Et quand il s'agit du DX "d'avenir" là l'archi d'ATI prends l'avantage, mais malheureusement pour eux cette fois-ci les développeurs n'ont pas suivi pour diverses raisons (console limité à DX9, Vista pas si populaire, nvidia qui préfère parler de physX que de DX10,...).


Pourquoi vouloir absolument comparer deux périodes qui n'ont rien à voir ?
 
Tu sembles dire que le Dx 10 qu'on a actuellement c'est pas vraiment du Dx 10 sinon on devrait voir les gpu ATI nettement en tête. Pourtant le Dx 10 qu'on a sera sans doute le seul dx 10... à moins que tout d'un coup les dev décident d'utiliser à fond les geometry shader, et que la tessalation soit implanté dans l'api :d  
 
Ce qui compte ce sont les faits, pas ce qui aurait du être, ou ce qui peut être éventuellement si peut être et pourquoi pas. Et en regardant les faits je vois pas trop la comparaison avec les FX.

sasuke87 a écrit :


 
Baah c'est plus ou moins là où je voulais en venir, sauf que l'archi qui nécessitera des bricolages c'est le g80/gt200 pas le gt300.
 
En bref,  
 
g80=nv30
Pourquoi? Parce que comme à l'époque du nv30, le g80 a l'air d'être une grosse merde pour la gestion des grandes nouveautés du new DX, avant c'était les pixel shader 2 pour le nv30, maintenant ce sont les géométrie shader pour le g80/gt200.
 
Donc, en toute logique le GT300 devrait performer aussi bien dans DX10 (avec GS) que le nv40 l'a fait avec DX9 (avec ps2).
 
Voilà j'espère que c'est clair.


Ah okay. En gros, en théorie le g80 c'est de la merde sous dx10, alors qu'en pratique c'est pas le cas (ou alors le r600 est aussi une merde). Oui, pertinent :d
 
Tu préfère la théorie ou la pratique ?

Message cité 1 fois
Message édité par god is dead le 15-05-2009 à 23:02:25

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6958701
sasuke87
Posté le 15-05-2009 à 23:06:59  profilanswer
 

god is dead a écrit :


Pourquoi vouloir absolument comparer deux périodes qui n'ont rien à voir ?

 

Tu sembles dire que le Dx 10 qu'on a actuellement c'est pas vraiment du Dx 10 sinon on devrait voir les gpu ATI nettement en tête. Pourtant le Dx 10 qu'on a sera sans doute le seul dx 10... à moins que tout d'un coup les dev décident d'utiliser à fond les geometry shader, et que la tessalation soit implanté dans l'api :d

 

Ce qui compte ce sont les faits, pas ce qui aurait du être, ou ce qui peut être éventuellement si peut être et pourquoi pas. Et en regardant les faits je vois pas trop la comparaison avec les FX.

 

Baaah excuse moi, mais quand je vois que certaines personnes ont réussi à faire tourner crysis en very high (donc DX10) sur du DX9, j'ai pas trop l'impression que les développeurs se soient casser la tête à faire du DX10. Et la plupart des jeux DX10 que l'on a actuellement, sont le fruit de patch vite fait histoire de dire que c'est du DX10.

 
god is dead a écrit :


Ah okay. En gros, en théorie le g80 c'est de la merde sous dx10, alors qu'en pratique c'est pas le cas (ou alors le r600 est aussi une merde). Oui, pertinent :d

 

Tu préfère la théorie ou la pratique ?

 

bon en même temps, la "pratique" ce sont des jeux DX9 avec deux, trois trucs DX10... si c'est ça qui est censé démontré la puissance d'une archi pour DX10... Baaah fantastique. Je te vois déjà venir et me dire: donc pour toi c'est la théorie qui est censé démontrer la réelle puissance en DX10?  :whistle:  Non, ce sont les premiers jeux full DX10/DX11, mais les deux archis seront sans doute toute les deux à la ramasse.

Message cité 1 fois
Message édité par sasuke87 le 15-05-2009 à 23:21:27
n°6958708
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2009 à 23:17:37  profilanswer
 

Oui mais en attendant c'est du dx 10 qd même. Tu peux pas extrapoler avec des jeux qui n'existent pas.
 
On juge tjrs avec les perfs qu'on a sur le moment, avec les jeux du moment, et les potentialités ne sont validées que par l'expérience. Ça fait qd même 1.5an que dx 10 est là, donc bon. Le g80 c'est finit, tout comme le r600. Aucun des deux ne sera apte à affronter les jeux futurs, alors savoir lequel sera moins lamentable que l'autre...
 
A la limite ce serait intéressant de voir les perfs du gt200 sous un jeu dx10 utilisant geometry shader... encore faut-il qu'il existe.

Message cité 1 fois
Message édité par god is dead le 15-05-2009 à 23:18:06

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6958709
kaiser52
Posté le 15-05-2009 à 23:18:34  profilanswer
 

sasuke87 a écrit :


 
Baaah excuse moi, mais quand je vois que certaines personnes qui ont réussi à faire tourner crysis en very high (donc DX10) sur du DX9, j'ai pas trop l'impression que les développeurs se soient casser la tête à faire du DX10. Et la plupart des jeux DX10 que l'on a actuellement, sont le fruit de patch vite fait histoire de dire que c'est du DX10.


 
DX10 c'est plus une façon de coder que des effets !
Lors d'une conférence au techdays de cette année, j'ai appris que pour certains traitements, on devait charger DX9.0, même si on voulait faire du DX10, comme quoi...
Certes ca introduit de nouveau concepts, mais l'approche n'est pas la même que celle de DX8.1 a DX9.0, le but n'étant pas d'améliorer l'image a proprement dit.
C'est juste l'API d'introduction à l'unification de l'architecture des cartes graphiques.
 
[Edit]
 

god is dead a écrit :

Oui mais en attendant c'est du dx 10 qd même. Tu peux pas extrapoler avec des jeux qui n'existent pas.
 
On juge tjrs avec les perfs qu'on a sur le moment, avec les jeux du moment, et les potentialités ne sont validées que par l'expérience. Ça fait qd même 1.5an que dx 10 est là, donc bon. Le g80 c'est finit, tout comme le r600. Aucun des deux ne sera apte à affronter les jeux futurs, alors savoir lequel sera moins lamentable que l'autre...
 
A la limite ce serait intéressant de voir les perfs du gt200 sous un jeu dx10 utilisant geometry shader... encore faut-il qu'il existe.


 
Je me souviens a la sorti du R600, les benchs intégré au SDK DX10, ou en géométrie le R600 était meilleur (2/3 bench sur les 10 je crois) de 8x au G80.
Ils l'ont pas refais avec le GT200 ?
 
Faut dire qu'avec l'augmentation du nombre de registres sur le GT200 ne peut que "décoincer", comparé au G80.
 
[Edit]
 

Citation :

Les performances des précédents GPU Direct3D 10 de NVIDIA en Geometry Shading n’étaient pas particulièrement impressionnantes, la faute à des buffers internes sous dimensionnés. Rappelons le selon Direct3D 10 un Geometry Shader est capable de générer jusqu’à 1024 valeurs flottantes simple précision par sommet entrant. En cas d’amplification importante de la géométrie ces buffers étaient donc vite saturés et empêchaient les unités de continuer à calculer. Avec le GT200 ces buffers ont vu leur taille multipliée par six augmentant sensiblement les performances dans certains cas comme nous allons le voir. Pour bénéficier de l’augmentation de taille de ces buffers, NVIDIA a aussi du revoir l’ordonnancement des threads de Geometry Shading.
 
http://media.bestofmicro.com/L/2/110918/original/019.gif
 
Sur le premier shader Galaxy, l’amélioration reste très modérée : 4 % de mieux. En revanche, celle-ci atteint pas moins de 158 % sur Hyperlight et montre bien l’amélioration potentielle sur ce type de shaders, tout dépendant de leur implémentation et de leur gourmandise (nombre de flottants générés par sommet entrant). La 280 GTX comble donc son retard et dépasse légèrement la 3870 X2 sur ce même shader.
 
Voyons maintenant le test Point Sprites (en Vertex Shading 2.0) de Rightmark 3D.
 
http://media.bestofmicro.com/M/H/110969/original/020.gif
 
Pourquoi traitons-nous ce test dans la partie liée aux Geometry Shaders ? Tout simplement parce que depuis Direct3D 10, les point sprites passent par les Geometry Shaders, ce qui explique le doublement de performances entre 9800 GTX et 280 GTX !
 
Améliorations diverses
 
NVIDIA a également optimisé divers points de son architecture. La mémoire cache de post-transformation a vu sa taille augmentée. Le rôle de ce cache est d’éviter de devoir retransformer plusieurs fois le même sommet dans le cas de primitives indexées ou de triangles strips en sauvegardant le résultat des vertex shaders.
 
Du fait de l’augmentation du nombre de ROP, les performances en Early-Z rejection ont été améliorées : le GT200 est capable de rejeter jusqu’à 32 pixels masqués par cycle avant d’appliquer un pixel shader. NVIDIA annonce enfin avoir optimisé les communications des données et des commandes entre le driver et le front-end du GPU.
 
 


 
Source
 
Comme quoi y'a de l'amélioration !
 
[Edit]
 
Un peut mieux :
- GTX280
- 9800GX2
- 9800GTX
- 8800 Ultra
- HD 3870X2
 
Page 9 a 13
 
Bit-Tech
 
D'ailleur c'est marrant, les Geforces ont plus de FPS en CSAA 16X que en AA8X

Message cité 1 fois
Message édité par kaiser52 le 16-05-2009 à 00:01:22

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6958757
sasuke87
Posté le 16-05-2009 à 00:02:03  profilanswer
 

kaiser52 a écrit :


 
Je me souviens a la sorti du R600, les benchs intégré au SDK DX10, ou en géométrie le R600 était meilleur (2/3 bench sur les 10 je crois) de 8x au G80.
Ils l'ont pas refais avec le GT200 ?
 
Faut dire qu'avec l'augmentation du nombre de registres sur le GT200 ne peut que "décoincer", comparé au G80.
 

Citation :

Les performances des précédents GPU Direct3D 10 de NVIDIA en Geometry Shading n’étaient pas particulièrement impressionnantes, la faute à des buffers internes sous dimensionnés. Rappelons le selon Direct3D 10 un Geometry Shader est capable de générer jusqu’à 1024 valeurs flottantes simple précision par sommet entrant. En cas d’amplification importante de la géométrie ces buffers étaient donc vite saturés et empêchaient les unités de continuer à calculer. Avec le GT200 ces buffers ont vu leur taille multipliée par six augmentant sensiblement les performances dans certains cas comme nous allons le voir. Pour bénéficier de l’augmentation de taille de ces buffers, NVIDIA a aussi du revoir l’ordonnancement des threads de Geometry Shading.
 
http://media.bestofmicro.com/L/2/1 [...] al/019.gif
 
Sur le premier shader Galaxy, l’amélioration reste très modérée : 4 % de mieux. En revanche, celle-ci atteint pas moins de 158 % sur Hyperlight et montre bien l’amélioration potentielle sur ce type de shaders, tout dépendant de leur implémentation et de leur gourmandise (nombre de flottants générés par sommet entrant). La 280 GTX comble donc son retard et dépasse légèrement la 3870 X2 sur ce même shader.
 
Voyons maintenant le test Point Sprites (en Vertex Shading 2.0) de Rightmark 3D.
 
http://media.bestofmicro.com/M/H/1 [...] al/020.gif
 
Pourquoi traitons-nous ce test dans la partie liée aux Geometry Shaders ? Tout simplement parce que depuis Direct3D 10, les point sprites passent par les Geometry Shaders, ce qui explique le doublement de performances entre 9800 GTX et 280 GTX !
 
Améliorations diverses
 
NVIDIA a également optimisé divers points de son architecture. La mémoire cache de post-transformation a vu sa taille augmentée. Le rôle de ce cache est d’éviter de devoir retransformer plusieurs fois le même sommet dans le cas de primitives indexées ou de triangles strips en sauvegardant le résultat des vertex shaders.
 
Du fait de l’augmentation du nombre de ROP, les performances en Early-Z rejection ont été améliorées : le GT200 est capable de rejeter jusqu’à 32 pixels masqués par cycle avant d’appliquer un pixel shader. NVIDIA annonce enfin avoir optimisé les communications des données et des commandes entre le driver et le front-end du GPU.
 
 


 
Source
 
Comme quoi y'a de l'amélioration !


 
ça confirme plus ou moins ce que je disais, avec une Hd3870X2 du niveau d'une 9800GTX dans la plupart des cas, mais quand il s'agit de GS, là elle se trouve au niveau d'une GTX280. Un peu comme la Radeon 9600 vs la Geforce 5900, où l'on avait la geforce 5900>  radeon 9600 sur DX8/8.1 mais sur DX9, là c'était plutôt radeon 9600 = geforce 5900. Eh oui j'y tiens à ma comparaison  :D .
 
Sinon tu parles des améliorations du GT200, mais avec le RV770, il y a en eu aussi:
 
http://www.hardware.fr/medias/photos_news/00/23/IMG0023621.gif  
 

Citation :

Comme vous pouvez le constater, même si les GeForce GTX 200 améliorent grandement les performances par rapport aux GeForce 8 et 9, les Radeon restent nettement devant. Nvidia indique avoir augmenté son cache en correspondance avec ce dont les développeurs utilisent et vont utiliser à moyen terme. De son côté AMD précise avoir implémenté un "fast path" pour l'amplification géométrique.
 
En plus de cela les Radeon HD 4800 conservent bien entendu l'unité de tesselation, même si celle-ci n'est toujours utilisée par aucun jeu…


 
 :sarcastic:
 
edit avec la source: http://www.hardware.fr/articles/72 [...] -4850.html


Message édité par sasuke87 le 16-05-2009 à 00:37:51
n°6958779
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-05-2009 à 00:21:56  profilanswer
 

"En plus de cela les Radeon HD 4800 conservent bien entendu l'unité de tesselation, même si celle-ci n'est toujours utilisée par aucun jeu…"
 
À la vue du graphique ci-dessus, je comprend enfin pourquoi aucun jeu n'utilise le Tesselator.
L'explication est fort simple: Les GeForce se font casser la gueule.
Ils ont sûrement tout fait pour que personne n'utilise cette techno... qui date pourtant de 2002.
Dire que le Tesselator se retrouve aussi dans la XBox et qu'un seul jeu l'utilise... c'est triste.
 
Heureusement que DX11 arrive...

n°6958783
kaiser52
Posté le 16-05-2009 à 00:27:12  profilanswer
 

Certes les radeons sont devant dans "ce" test.
 
Je mets "ce" entre guillemets car le teste sur les radeons utilise l'unitée de tesselation des HD, qui change completement la donne (une unitée spécialisé c'est forcément mellieur !), et il faut savoir que la tesselation n'est pas utilisé dans les jeux même DX10, et que un jeux c'est un ensemble, pas que des GS.
 
Donc même si elle est 8fois plus perf GS et qu'elle est 8fois moins perf en "pet de mouche", elle sera bridé.
Moi je trouve l'archi de nvidia plus homogéne dans ces performances.
 
Le faite est que le gain reste de *5 sur Geforce (avec +87% de SP) et *3 (avec +150% de SP) sur les Radeons, donc si sur le GT300 il y a un tesselator, il sera peut être moins performant que sur les HD5xxx (surement même, car ATI a l'expérience de toutes les HD ! ), mais les performances en GS seront plus proche.
 
Tu peux pas faire le rapprochement avec les FX !
Les FX étaient a la ramasse sur tous les testes synthetiques DX9.0 (90% du temps inférieur ou égale a une 9600 XT), hors le G80 est quand même devant le R600 dans 80% des cas.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6958784
sasuke87
Posté le 16-05-2009 à 00:28:40  profilanswer
 

Wirmish a écrit :

"En plus de cela les Radeon HD 4800 conservent bien entendu l'unité de tesselation, même si celle-ci n'est toujours utilisée par aucun jeu…"
 
À la vue du graphique ci-dessus, je comprend enfin pourquoi aucun jeu n'utilise le Tesselator.
L'explication est fort simple: Les GeForce se font casser la gueule.
Ils ont sûrement tout fait pour que personne n'utilise cette techno... qui date pourtant de 2002.
Dire que le Tesselator se retrouve aussi dans la XBox et qu'un seul jeu l'utilise... c'est triste.
 
Heureusement que DX11 arrive...


 
Juste mais d'un côté c'est aussi à AMD de se bouger et de pousser certains développeurs à utiliser tel ou tel techno. Leur "get in the game" doit bien servir à quelque chose... (bon c'est vrai c'est pas le même budget que nvidia  :sweat: )
 

kaiser52 a écrit :

Certes les radeons sont devant dans "ce" test.
 
Je mets "ce" entre guillemets car le teste sur les radeons utilise l'unitée de tesselation des HD, qui change completement la donne (une unitée spécialisé c'est forcément mellieur !), et il faut savoir que la tesselation n'est pas utilisé dans les jeux même DX10, et que un jeux c'est un ensemble, pas que des GS.
 
Donc même si elle est 8fois plus perf GS et qu'elle est 8fois moins perf en "pet de mouche", elle sera bridé.
Moi je trouve l'archi de nvidia plus homogéne dans ces performances.
 
Le faite est que le gain reste de *5 sur Geforce (avec +87% de SP) et *3 (avec +150% de SP) sur les Radeons, donc si sur le GT300 il y a un tesselator, il sera peut être moins performant que sur les HD5xxx (surement même, car ATI a l'expérience de toutes les HD ! ), mais les performances en GS seront plus proche.
 
Tu peux pas faire le rapprochement avec les FX !
Les FX étaient a la ramasse sur tous les testes synthetiques DX9.0 (90% du temps inférieur ou égale a une 9600 XT), hors le G80 est quand même devant le R600 dans 80% des cas.


 
J'avais posé la question à HFR à l'époque et on m'avait confirmé que "ce" test ne posait aucun blème à nvidia (HFR avait contacté nvidia).
 
En ce qui concerne la comparaison, il me semblait que c'était juste les ps2 qui posaient problème aux FX et peut être 2 ou 3 autres trucs... faut je que je retourne dans les archives pour m'en assurer  :D

Message cité 1 fois
Message édité par sasuke87 le 16-05-2009 à 00:34:54
n°6958788
wizerty
Posté le 16-05-2009 à 00:32:29  profilanswer
 

sasuke87 a écrit :


 
Juste mais d'un côté c'est aussi à AMD de se bouger et de pousser certains développeurs à utiliser tel ou tel techno. Leur "get in the game" doit bien servir à quelque chose... (bon c'est vrai c'est pas le même budget que nvidia  :sweat: )


Si ils ont des cartes plus performante et qui dispose de techno facilitant la programmation les développeurs devraint se tourner naturellement vers ses technos non?
 
Enfin je dis ça je rien, de toute façon sa fait 2 pages que je suis totalement larguer, entre les FX, les BS les GS.... comprend rien du tout moi  :sweat:  
 
 

n°6958789
kaiser52
Posté le 16-05-2009 à 00:32:39  profilanswer
 

Wirmish a écrit :

"En plus de cela les Radeon HD 4800 conservent bien entendu l'unité de tesselation, même si celle-ci n'est toujours utilisée par aucun jeu…"
 
À la vue du graphique ci-dessus, je comprend enfin pourquoi aucun jeu n'utilise le Tesselator.
L'explication est fort simple: Les GeForce se font casser la gueule.
Ils ont sûrement tout fait pour que personne n'utilise cette techno... qui date pourtant de 2002.
Dire que le Tesselator se retrouve aussi dans la XBox et qu'un seul jeu l'utilise... c'est triste.
 
Heureusement que DX11 arrive...


 
L'explication est fort simple, la teselation ne fait pas parti des spécifications DX10.
 
Pour faire grossier, tu mettrais 3 piles dans une lampe qui en utilise deux pour fonctionner a 100% ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  12  13  14  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)