Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3733 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  39  40  41  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7029776
Gigathlon
Quad-neurones natif
Posté le 09-07-2009 à 14:23:11  profilanswer
 

Reprise du message précédent :
En GPGPU y'a pas de SLI qui tienne donc rien n'empêche d'utiliser 4 cartes bi-GPU.

mood
Publicité
Posté le 09-07-2009 à 14:23:11  profilanswer
 

n°7029785
R 34
Posté le 09-07-2009 à 14:29:13  profilanswer
 

+1
 
Le SLI on s'en tamponne, tout ce dont on a besoin c'est d'avoir des gpu pour plier.
 
Quant bien même il n'y aurait pas d'interface SLI c'est pas un problème, pourvu que le gpu puisse communiquer avec le CPU c'est tout ce que l'on demande. ;)


---------------
Feed-Back Achat-Ventes
n°7029792
mikestewar​t
Air Roll Spinnin'
Posté le 09-07-2009 à 14:32:10  profilanswer
 

Gigathlon a écrit :

En GPGPU y'a pas de SLI qui tienne donc rien n'empêche d'utiliser 4 cartes bi-GPU.

 

Ah oui.  :o


Message édité par mikestewart le 09-07-2009 à 14:33:35
n°7030602
marllt2
Posté le 10-07-2009 à 02:20:08  profilanswer
 

Kirok a écrit :

Oui mais une question les jeux du coup ne seront pu codé en DX9 mais les jeux DX11 pourront quand même être jouable sur XP qui lui ne supporte que DX9 ? :??:

Yoyo_5 a écrit :

Bonne question...j'en doute sévèrement. :jap:


Non, pour que ça marche sur XP les devs devront faire un executable DX9 only, en plus de l'executable DX11 (compatible DX10.1 et DX10).
 
Malgré que DX11 fait revenir la compatibilité DX9, quelque peu émulée certes, et donc un peu moins perf que du DX9 only.  
 
Mais de toute façon il faudrait des nouveaux drivers de nV et AMD pour leurs 7900/X1900, qui ne sont plus supportées.


Message édité par marllt2 le 10-07-2009 à 03:42:48
n°7030603
katchou
Posté le 10-07-2009 à 02:20:26  profilanswer
 

Plutôt que de sortir tout de suite leur GT300 en 40nm, ce serait bien de voir le GT200 dans cette finesse de gravure, avec des fréquences dignes de ce nom et les performances qui suivraient, sans voir la chauffe exploser... Le tout avec des coûts de dev pas terrifiants pour nV. La taille du GT200 (nombre de transistors) me pousse à croire qu'il était beaucoup trop gros pour sortir en 65nm, et encore un peu trop pour du 55nm...

n°7030621
marllt2
Posté le 10-07-2009 à 03:18:06  profilanswer
 

katchou a écrit :

Plutôt que de sortir tout de suite leur GT300 en 40nm, ce serait bien de voir le GT200 dans cette finesse de gravure, avec des fréquences dignes de ce nom et les performances qui suivraient, sans voir la chauffe exploser...  
 
Le tout avec des coûts de dev pas terrifiants pour nV.


C'était prévu, c'était le GT212: http://diy.yesky.com/vga/414/8778914.shtml
 
http://img23.imageshack.us/img23/8607/kecxlgh73z7ns.jpg
http://img11.imageshack.us/img11/3329/jpf5v7r0om44s.jpg
 
nVidia a aussi essayé de shrinker à l'arrache le GT200 en 40nm (comme ça a été fait pour le GT200b, et pas sans difficulté comme le prouvent les 3 respin). Mais le GT200 a été designé pour du 65nm.  
 
Il n'est pas possible de srinker à l'arrache vers du 40nm. Il faudrait un redesign du GPU, qui prend du temps, et qui n'était pas prévu par nV.
 
Pour rappel le planning inital de nV était:
 

Citation :

- GT200 65nm Q4 2007
- GT212 40nm Q1 2009
- GT300 40nm Q4 2009


Qui a été décalé en:

Citation :

- GT200 65nm Q2 2008
- GT200b 55nm Q1 2009
- GT212 40nm Q3 2009 (annulé donc)
- GT300 40nm fin Q4 2009, qui sera plutôt un paper launch


 
Jusque Janvier dernier, le GT212 n'était pas annulé, avec une prévision de lancement pour Juillet. La question est: quel est l'intérêt de lancer un GPU HDG DX10, là où AMD aura des GPU DX11.  
 
D'autant que ce GT212 serait resté derrière la GTX 295, et que les yields pour un GPU de 300mm² en 40nm pour Juillet doivent pas être extra... On attend toujours des RV740 en masse.
 
Intérêt de maitenir le GT212 = 0 , pas le temps de rentabiliser, pas d'avantage question image, et autant que nV mette tous ses ingés sur le GT300.
 
La question est donc si nV a du mal pour le GT212, qu'est-ce que ça va donner pour le GT300. Les specs sont inconnues, par contre il sera + perf que le GT212. Et d'après des fuites de chez nV (volontaires ?), le GT200 -> GT300 ne sera pas G80 -> GT200, ou NV45 -> G70. Mais davantage.  
 
Sans toutefois être G71 -> G80, mais ça c'est logique.

Message cité 1 fois
Message édité par marllt2 le 10-07-2009 à 03:36:26
n°7030624
marllt2
Posté le 10-07-2009 à 03:41:28  profilanswer
 

dragonlore a écrit :

le problème est que l'arrivée de dx10 a correspondu plus ou moins avec l'arrivée en masse de jeux multiplateforme développés principalement pour les consoles et l'abandon des jeux exclus PC un tant soit peu ambitieux techniquement.


Justement, parlons-en des consoles : http://www.youtube.com/watch?v=kRWRskYLdno&fmt=22
 
Le baril qui apparait à 10m [:tinostar]
 

TsuM a écrit :

Mais bon c'est du marketing pur et dur entre DX 10 et DX 10.1 tu gagnes pas 10 fps et pas une finesse texture vraiment surprenante.


Et l'ambient occlusion de nV, qui limite le rapport qualité/coût à cause du non support du gather4, c'est aussi du marketing ?
 

TsuM a écrit :

Pour DX 11 possible que ça apporte mais je te dis il vaudrait mieux qu'il arrete de créer des DX à la pelle ça sert à rien..

Genre DX8 n'a rien apporté par rapport à DX7, DX9 n'a rien apporté par rapport à DX8, et DX9c n'a rien apporté par rappot à DX9a ?
 
Ca sert à rien ça ?
 
http://img29.imageshack.us/img29/4254/amddx11.jpg
 
Et ça ? http://forum.hardware.fr/hfr/Hardw [...] m#t7020156

bjone a écrit :

T'as quand même un gain avec un bon sous-système disque, tout chargement de niveau n'est pas que processing des assets.
D'ailleurs avec D3D11, on pourra threader la création de ressources, et donc d'avoir un meilleur recouvrement processing vs I/O.  
 
Quand on aura des SSD de 600Mo/s, ça pourra vraiment être utile pour le streaming de terrain et de chargement d'assets à la volée.  
Genre "chargement" immédiat pour de l'outdoor avec tout qui se fait streamer à la demande.

bjone a écrit :

Oui si ce sont les créations de resources D3D qui sont limitantes :)
Mais bon y'a aussi pas mal de création de structures internes au moteur, donc....
 
Tu peux créer des vertexbuffers & textures en parallèle du thread principal (immédiat), sans faire staller le contexte D3D.
 
Donc au chargement, tu peux faire un meilleur recouvrement de temps (à condition que ce soit bien les opérations D3D qui posent problème).
 
Surtout le streaming de resources pour un moteur de terrain ou autre peut se faire sans provoquer du stuttering, puisqu'en toute logique le but final c'est d'avoir un thread qui crée des objets d3d et écris en vram sa texture ou son vertexbuffer, sans staller d'un point de vue API.
Le thread de rendu immédiat continue a tracer la scène pendant qu'un autre précache ce qui risque d'être nécessaire sans bloquer le GPU.
 
Et tu peux construire des display list en concurrence, si t'as 4 cores, tu as un thread immédiat qui fait le 1er quart de la scène, les autres quart sur les trois autres cores, puis coller ces contextes déférés au thread immédiat.
 
Par exemple tu peux faire aussi un thread qui pousse tout les objets dont les à vertexbuffer statique, un thread qui pousse les objets à vertexbuffers générés par le cpu (qui lock et rempli le vertexbuffer), par exemple les effets de particules qui ne serait pas gpu-isés (physique....), ça permet de gagner encore un peu de recouvrement.
 
Bref ça va être la fête du slip pour les devs de drivers, et les devs de moteur pour faire le load-balancing :D


Message édité par marllt2 le 10-07-2009 à 04:12:10
n°7030628
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 10-07-2009 à 03:54:32  profilanswer
 

TsuM a écrit :

Mais bon c'est du marketing pur et dur entre DX 10 et DX 10.1 tu gagnes pas 10 fps et pas une finesse texture vraiment surprenante.


Ah bon... t'es sûr ?
 
Pourtant la HD 4890 ne semble pas de cet avis...
 
http://images.hardwarecanucks.com/image/skymtl/GPU/SAPPHIRE-HD4890/HD4890-62.jpg
 
Gain DX10.1 vs DX10 -> Min FPS = +33%, Avg FPS = +20%
 
http://digli.com/images/smiley/aha.gif
 
Même notre site préféré (Fudzilla) a écrit un mini article sur le DX10 vs DX10.1 -> ICI
 
 
Si vous voulez rigoler un peu -> SITE ANTI-AMD ( Site neutre )
On dirait que Tom's Hardware a reçu un énorme chèque signé par le caméléon...

Message cité 1 fois
Message édité par Wirmish le 10-07-2009 à 04:05:46
n°7030630
marllt2
Posté le 10-07-2009 à 04:00:11  profilanswer
 

Wirmish a écrit :

Pourtant la HD 4890 ne semble pas de cet avis...


Surtout à cause du SSAO dans cet exemple.
 
Cela dit, je pense qu'un topic unique DX11, parlant de tout ce qui concerne DX11 (specs/ jeux/ implémentation dans les GPU), serait réellement une bonne idée... Ca intéresse quelqu'un ?


Message édité par marllt2 le 10-07-2009 à 04:11:11
n°7030633
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 10-07-2009 à 04:10:27  profilanswer
 

marllt2 a écrit :

Surtout à cause du SSAO dans cet exemple.


Peu importe.
 
La même carte (HD 4890) est testée dans les mêmes conditions, avec et sans DX10.1, et on obtient 2 résultats différents (à l'avantage du mode DX10.1 bien sûr), ce qui prouve hors de tout doute que l'exécution du code-path DX10.1 accélère le rendu (sans aucune perte de qualité), et qu'au final on ne peut que constater qu'effectivement le DX10.1 apporte vraiment des choses utiles côté hardware, prouvant de ce fait qu'il ne s'agit pas d'un vulgaire truc marketing.


Message édité par Wirmish le 10-07-2009 à 05:22:58
mood
Publicité
Posté le 10-07-2009 à 04:10:27  profilanswer
 

n°7030675
kaiser52
Posté le 10-07-2009 à 08:31:59  profilanswer
 

DX n'a jamais été un vulgaire truc marketing.
 
Moi je resterais sur le fait que DX10.1 ne sert strictement à rien, c'est la 9800GTX+ de la 9800GTX.
DX10.1 c'est de la branlette pour bencheur ( ou de l’argument pour les marketeux ), pas assez de jeux, et trop tard.
Le DX10 a été décrédibilisé, ca réputation le suivra, et ca pas le .1 qui y changera quelque chose, pourtant, à réglages identique, il y avait en moyenne 5fps de plus
 
DX11 c'est du concret, ( 4 jeux DX10.1, déjà 2 jeux DX11 prévus avant même ca sortie ) un nouveau nom, et nouvelle façon de voire les choses.
 
Ils auraient mieux fait de nous sortir un DX11 en avance, sachant qu'il est compatible DX10 / DX10.1, et que forcement, il a été complètement remanié donc optimisé, donc un meilleur frame rate.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7030704
aliss
Rhyme the Rhyme Well
Posté le 10-07-2009 à 09:31:58  profilanswer
 

kaiser52 a écrit :


Moi je resterais sur le fait que DX10.1 ne sert strictement à rien


 
Lorsque l'on possède une carte nVidia sans doute... :D  
 
Si ces derniers avaient assuré le support de dx10.1 depuis le G80, sans doute qu'aujourd'hui la quantité de titres proposés serait conséquente, l'api enscencée et tout le monde en profiterait.

n°7030741
vanhoenack​er
Posté le 10-07-2009 à 10:14:58  profilanswer
 

aliss a écrit :


Lorsque l'on possède une carte nVidia sans doute... :D  
Si ces derniers avaient assuré le support de dx10.1 depuis le G80, sans doute qu'aujourd'hui la quantité de titres proposés serait conséquente, l'api enscencée et tout le monde en profiterait.


 :jap: , je suis contre le fait d'être pris en otage dans le choix des jeux  
Nvidia va sortir des cartes DX11 et comme par magie, d'un seul coup les allergiques à la nouveauté vont s'extasier en oubliant qu'aujourd'hui ils dénigrent DX10.1 pour l'unique et simple raison qu'il n'est pas supporté par leur fabricant chéri
c'est à mon sens faire preuve d'une grande largesse d'esprit  :jap:


---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°7030922
bjone
Insert booze to continue
Posté le 10-07-2009 à 12:16:49  profilanswer
 

kaiser52 a écrit :

DX n'a jamais été un vulgaire truc marketing.
 
Moi je resterais sur le fait que DX10.1 ne sert strictement à rien, c'est la 9800GTX+ de la 9800GTX.
DX10.1 c'est de la branlette pour bencheur ( ou de l’argument pour les marketeux ), pas assez de jeux, et trop tard.
Le DX10 a été décrédibilisé, ca réputation le suivra, et ca pas le .1 qui y changera quelque chose, pourtant, à réglages identique, il y avait en moyenne 5fps de plus
 
DX11 c'est du concret, ( 4 jeux DX10.1, déjà 2 jeux DX11 prévus avant même ca sortie ) un nouveau nom, et nouvelle façon de voire les choses.
 
Ils auraient mieux fait de nous sortir un DX11 en avance, sachant qu'il est compatible DX10 / DX10.1, et que forcement, il a été complètement remanié donc optimisé, donc un meilleur frame rate.


 
D3D10.1 ne sert à rien si la majorité des moteurs n'ont pas besoin de ses features. Après c'est du cas par cas.
Autant sur la 8800gtx osef, sur la 280, ça aurait été bien de l'avoir pour le principe.
Si tu raisonnes sur l'offre des moteurs au moment de son introduction, il ne sert à rien :D (je sais j'ai déjà fait cette erreur :D)
Par contre je vois pas où D3D10 a été décrédibilisé, sauf bien sûr si tu raisonnes sur le fait que les moteurs au moment de son introduction n'avait pas de quoi l'utiliser de manière incontournable. Mais sans D3D10, pas de D3D11.

Message cité 3 fois
Message édité par bjone le 10-07-2009 à 12:19:50
n°7030943
Kirok
Habite à l'intérieur de son pc
Posté le 10-07-2009 à 12:29:56  profilanswer
 

bjone a écrit :


 
D3D10.1 ne sert à rien si la majorité des moteurs n'ont pas besoin de ses features. Après c'est du cas par cas.
Autant sur la 8800gtx osef, sur la 280, ça aurait été bien de l'avoir pour le principe.
Si tu raisonnes sur l'offre des moteurs au moment de son introduction, il ne sert à rien :D (je sais j'ai déjà fait cette erreur :D)
Par contre je vois pas où D3D10 a été décrédibilisé, sauf bien sûr si tu raisonnes sur le fait que les moteurs au moment de son introduction n'avait pas de quoi l'utiliser de manière incontournable. Mais sans D3D10, pas de D3D11.


 
Tout simplement à cause de la réputation de Vista.

n°7030963
vanhoenack​er
Posté le 10-07-2009 à 12:40:34  profilanswer
 

Kirok a écrit :


Tout simplement à cause de la réputation de Vista.


ça c'est un un autre problème, un "super Vista" en l'occurrence Windows 7 est gratuit en Rc et d'un seul coup c'est le top et tout le monde le porte aux nues, je cherche encore la logique  :jap:


---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°7030973
bjone
Insert booze to continue
Posté le 10-07-2009 à 12:47:54  profilanswer
 

Kirok a écrit :


 
Tout simplement à cause de la réputation de Vista.


En partie faite par des mecs qui l'ont même pas essayé.....

Message cité 2 fois
Message édité par bjone le 10-07-2009 à 12:48:14
n°7030982
Gigathlon
Quad-neurones natif
Posté le 10-07-2009 à 12:55:13  profilanswer
 


Y'a déjà un truc qui me chiffonne, c'est que la tof du gpu est clairement toshopée... [:gratgrat]  

n°7030988
Profil sup​primé
Posté le 10-07-2009 à 12:59:04  answer
 

bjone a écrit :

En partie faite par des mecs qui l'ont même pas essayé.....


Avant le SP1 c'était pas un bon OS amha
Maintenant il est comparable à XP en son temps
Il faut la machine pour le faire tourner (& ses pilotes, autre souci d'avant le SP1)
C'est là que tout le monde a crié au scandale, essayant de le faire tourner avec 1 Go en monocore, là où XP s'en sortait lui!

Message cité 1 fois
Message édité par Profil supprimé le 10-07-2009 à 13:21:39
n°7031001
mikestewar​t
Air Roll Spinnin'
Posté le 10-07-2009 à 13:06:09  profilanswer
 

bjone a écrit :

En partie faite par des mecs qui l'ont même pas essayé.....

 

C'est un OS lourd quand même. Suffit de regarder ce que ça donne sur des machines peu puissantes, même neuves (qui a dit les portables ?). Seven se débrouille bien mieux de ce côté là, même sur netbook il tourne très bien.

Message cité 2 fois
Message édité par mikestewart le 10-07-2009 à 13:10:59
n°7031007
Yoyo_5
Posté le 10-07-2009 à 13:11:51  profilanswer
 

mikestewart a écrit :

C'est un OS lourd quand même. Suffit de regarder ce que ça donne sur des machines peu puissantes, même neuves (qui a dit les portables ?). Seven se débrouille bien mieux de ce côté là.


Bof...aussi véloce que mon Vista 32, rien de bien transcendant sur mon portable, c'est du pareil au même franchement sur ces bestioles-la... :jap:


---------------
¤ Paix et félicité ¤

n°7031020
bjone
Insert booze to continue
Posté le 10-07-2009 à 13:22:30  profilanswer
 

mikestewart a écrit :


 
C'est un OS lourd quand même. Suffit de regarder ce que ça donne sur des machines peu puissantes, même neuves (qui a dit les portables ?). Seven se débrouille bien mieux de ce côté là, même sur netbook il tourne très bien.


Je suis d'accord, Vista est loin d'être parfait, il est plus lourd qu'Xp.
Et 7 rattrape pas mal le coup.
 
Mais pour un mec qui a une carte vidéo D3D10, il a le reste qui suit, Vista n'est pas si traumatisant.
Bien sûr quand on compare Vista/7, on voit qu'il manquait de l'optimisation coté Vista, mais bon c'est comme tout quand tu améliore le confort/les fonctionnalités, c'est comme les bagnoles t'as un contre-coût le temps d'améliorer le truc.

n°7031030
kaiser52
Posté le 10-07-2009 à 13:30:32  profilanswer
 

Mais le SP1 est sorti beaucoup trop tard ... le grand public avait déjà fait son opinion !
 

aliss a écrit :


Lorsque l'on possède une carte nVidia sans doute... :D  
Si ces derniers avaient assuré le support de dx10.1 depuis le G80, sans doute qu'aujourd'hui la quantité de titres proposés serait conséquente, l'api enscencée et tout le monde en profiterait.


 
Ha ! Rien à voire avec la CG !
 

vanhoenacker a écrit :


 :jap: , je suis contre le fait d'être pris en otage dans le choix des jeux  
Nvidia va sortir des cartes DX11 et comme par magie, d'un seul coup les allergiques à la nouveauté vont s'extasier en oubliant qu'aujourd'hui ils dénigrent DX10.1 pour l'unique et simple raison qu'il n'est pas supporté par leur fabricant chéri
c'est à mon sens faire preuve d'une grande largesse d'esprit  :jap:


 
Nan mais je suis tous a fait d'accord avec vous, mais maintenant les "SI" ne servent plus à rien, et c'est bien connu qu'avec des "Si" on peut refaire le monde ^^.
A l'heure actuel, DX10.1 ne sert strictement à rien, quand on vois le peux de features de DX10 utilisé dans les jeux, qu'en est-il des features supplémentaire de DX10.1 ?
 

bjone a écrit :


D3D10.1 ne sert à rien si la majorité des moteurs n'ont pas besoin de ses features. Après c'est du cas par cas.
Autant sur la 8800gtx osef, sur la 280, ça aurait été bien de l'avoir pour le principe.
1) Si tu raisonnes sur l'offre des moteurs au moment de son introduction, il ne sert à rien :D (je sais j'ai déjà fait cette erreur :D)
2)Par contre je vois pas où D3D10 a été décrédibilisé, sauf bien sûr si tu raisonnes sur le fait que les moteurs au moment de son introduction n'avait pas de quoi l'utiliser de manière incontournable. Mais sans D3D10, pas de D3D11.


 
Encore une fois je suis d'accord.
 
1) Non non, je résonne sur le faite qu'il n'a pas eu assez de temps pour s'exprimer complètement, au départ il n'y avait pas assez de carte DX10.1 sur le marché, ces temps si ça s'améliore, mais ce n'est toujours pas faramineux, les extensions DX10.1 sont juste de quoi contenter les geeks (J'entends par la le non grand public), a l'avènement de DX11 (qui de part son lifting aura plus d'effet), DX10.1 sera passé à la trappe, mais le parc sera apte a l'exploiter, et il ne sera donc plus utilisé.
 
2) Comme ça a été dit, l'introduction difficile et controversé de Vista, on fait un gros SP, on l'appelle Seven et tous le monde est content. ( Comme NT a XP nan ? )


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7031032
mikestewar​t
Air Roll Spinnin'
Posté le 10-07-2009 à 13:32:34  profilanswer
 

bjone a écrit :


Je suis d'accord, Vista est loin d'être parfait, il est plus lourd qu'Xp.
Et 7 rattrape pas mal le coup.

 

Mais pour un mec qui a une carte vidéo D3D10, il a le reste qui suit, Vista n'est pas si traumatisant.
Bien sûr quand on compare Vista/7, on voit qu'il manquait de l'optimisation coté Vista, mais bon c'est comme tout quand tu améliore le confort/les fonctionnalités, c'est comme les bagnoles t'as un contre-coût le temps d'améliorer le truc.

 

Oui voilà.


Message édité par mikestewart le 10-07-2009 à 13:33:28
n°7031055
bjone
Insert booze to continue
Posté le 10-07-2009 à 13:54:30  profilanswer
 

kaiser52 a écrit :


 
Encore une fois je suis d'accord.
 
1) Non non, je résonne sur le faite qu'il n'a pas eu assez de temps pour s'exprimer complètement, au départ il n'y avait pas assez de carte DX10.1 sur le marché, ces temps si ça s'améliore, mais ce n'est toujours pas faramineux, les extensions DX10.1 sont juste de quoi contenter les geeks (J'entends par la le non grand public), a l'avènement de DX11 (qui de part son lifting aura plus d'effet), DX10.1 sera passé à la trappe, mais le parc sera apte a l'exploiter, et il ne sera donc plus utilisé.


 
J'ai pas compris où tu veux en venir.  
D3D11 expose des interfaces incrémentales homogènes d'un point de vue objet/API pour les niveaux 9/10/10.1/11.
L'avantage c'est que tous les devs risquent de sauter à D3D11 au niveau de l'architecture du moteur, et pourront offrir des codepaths simples pour le hardware D3D du 9 au 11.  
Alors que le sdk D3D10, avoir un renderer D3D9 et D3D10 revenait presque en termes de boulot à avoir un renderer OpenGl et D3D9.
Donc même pour viser du grand public avec des vieux GPUs, un dev de moteur peut-être tenté de sauter au SDK de D3D11.
Je ne sais pas si du coup MS a prévu un SDK D3D11-like pour la 360, mais ce serait logique (faire profiter des devs xboite d'un port aisé entre PC et console au moins au niveau architecture générale du moteur/renderer, ce qui simplifiait drastiquement la vie).
One SDK to rule them all.
 

Citation :


2) Comme ça a été dit, l'introduction difficile et controversé de Vista, on fait un gros SP, on l'appelle Seven et tous le monde est content. ( Comme NT a XP nan ? )


 
 
2000 à Xp a été initialement vécu par les utilisateurs de 2000 comme le passage de 98 à Me(bon OK), ou de Xp à Vista.
Pour les non-utilisateurs de 2000, Xp était très bien.
 
D'un certain point de vue tout OS propriétaire ou open-source est un SP de l'itération précédente.
Néanmoins, à cause des APIs extrêmement vivantes comme le D3D, on peut noter que sous le cabot il peut y avoir énormément d'évolution technologique (alors que le néophyte va se concentrer sur la tronche de la barre de lancement des applications, et le cachet général du shell graphique, qui est plus une application de l'os que l'os lui-même).

Message cité 2 fois
Message édité par bjone le 10-07-2009 à 14:03:13
n°7031057
bjone
Insert booze to continue
Posté le 10-07-2009 à 13:55:35  profilanswer
 

vanhoenacker a écrit :


 :jap: , je suis contre le fait d'être pris en otage dans le choix des jeux  
Nvidia va sortir des cartes DX11 et comme par magie, d'un seul coup les allergiques à la nouveauté vont s'extasier en oubliant qu'aujourd'hui ils dénigrent DX10.1 pour l'unique et simple raison qu'il n'est pas supporté par leur fabricant chéri
c'est à mon sens faire preuve d'une grande largesse d'esprit  :jap:


 
Oui, je l'ai fait aussi donc :D

n°7031112
kaiser52
Posté le 10-07-2009 à 14:36:23  profilanswer
 

bjone a écrit :


 
J'ai pas compris où tu veux en venir.  
1) D3D11 expose des interfaces incrémentales homogènes d'un point de vue objet/API pour les niveaux 9/10/10.1/11.
L'avantage c'est que tous les devs risquent de sauter à D3D11 au niveau de l'architecture du moteur, et pourront offrir des codepaths simples pour le hardware D3D du 9 au 11.  
2) Alors que le sdk D3D10, avoir un renderer D3D9 et D3D10 revenait presque en termes de boulot à avoir un renderer OpenGl et D3D9.
Donc même pour viser du grand public avec des vieux GPUs, un dev de moteur peut-être tenté de sauter au SDK de D3D11.
3) Je ne sais pas si du coup MS a prévu un SDK D3D11-like pour la 360, mais ce serait logique (faire profiter des devs xboite d'un port aisé entre PC et console au moins au niveau architecture générale du moteur/renderer, ce qui simplifiait drastiquement la vie).
4) One SDK to rule them all.
 


 
1) Le codepaths sera réinterprété a la volé par DX11, reste a voire comment Crosoft gérera ça derrière, c'est claire que l'avantage est au niveau de la transparence pour les dev's.
 
2) Il n'y avait pas vraiment d'énorme difficulté pour passer du D3D9 a D3D10, sachant que coder en D3D10 forçait a faire des implémentations d'objet D3D9 ( comme pour le load d'objet par exemple ), certaines fonctions n'ont tous simplement pas été re-codé. Pour le saut au SDK D3D11, il est claire qu'il se fera très vite, déjà l'envie présente de faire disparaitre D3D10 et ces complications, et le petit coup de pouce de Crosoft pour faire disparaitre la tache Vista souvent associé a DX10.
 
3) Vue son envie d'enterrer Sony, c'est limite obligé.
Mais j'avais lu que la version du SDK était un Hybride entre D3D9 et D3D10 PC.
Genre quand on vois les images de Forza 2, ça sent la tesselation sur les voitures.
 
4) Exactement !

Message cité 2 fois
Message édité par kaiser52 le 10-07-2009 à 14:37:10

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7031203
Gigathlon
Quad-neurones natif
Posté le 10-07-2009 à 15:55:40  profilanswer
 

bjone a écrit :

2000 à Xp a été initialement vécu par les utilisateurs de 2000 comme le passage de 98 à Me(bon OK), ou de Xp à Vista.
Pour les non-utilisateurs de 2000, Xp était très bien.


 
Pour apporter mon grain de sel là-dessus...
 
Etant moi-même passé de w2k à xp puis vista, l'analogie x98/millenium était très vraie en un sens, mais xp a apporté pas mal d'outils... malheureusement pas forcément utiles sur un desktop, mais très utiles sur w2k3.
 
L'indexation entre autres, qui dégrade l'efficacité d'un desktop mais permet de créer des index bien plus facilement qu'avant sur un serveur.
 
Pour le reste, Vista est un XP encore plus abouti mais encore plus plein de trucs foireux dans le même temps, et de ce que je peux voir, c'est encore la même chose pour W7 (des avancées non négligeables en terme d'ergonomie, mais également des choix très discutables dans ce même registre... idem pour ce qui est des ajouts plus "utilitaires" ).

n°7031204
bjone
Insert booze to continue
Posté le 10-07-2009 à 15:55:42  profilanswer
 

kaiser52 a écrit :


 
1) Le codepaths sera réinterprété a la volé par DX11, reste a voire comment Crosoft gérera ça derrière, c'est claire que l'avantage est au niveau de la transparence pour les dev's.
 
2) Il n'y avait pas vraiment d'énorme difficulté pour passer du D3D9 a D3D10, sachant que coder en D3D10 forçait a faire des implémentations d'objet D3D9 ( comme pour le load d'objet par exemple ), certaines fonctions n'ont tous simplement pas été re-codé. Pour le saut au SDK D3D11, il est claire qu'il se fera très vite, déjà l'envie présente de faire disparaitre D3D10 et ces complications, et le petit coup de pouce de Crosoft pour faire disparaitre la tache Vista souvent associé a DX10.
 
3) Vue son envie d'enterrer Sony, c'est limite obligé.
Mais j'avais lu que la version du SDK était un Hybride entre D3D9 et D3D10 PC.
Genre quand on vois les images de Forza 2, ça sent la tesselation sur les voitures.
 
4) Exactement !


 
Attention pour avoir un support D3D9, ce sera aux devs d'implémenter le codepath. Le runtime ne peut rien décider de lui-même.
Entre le D3D9 et le 10, certains objets api et pratiques n'ont plus rien à voir (ConstantBuffers, etc...).

n°7031449
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 10-07-2009 à 18:49:00  profilanswer
 

kaiser52 a écrit :

Moi je resterais sur le fait que DX10.1 ne sert strictement à rien, c'est la 9800GTX+ de la 9800GTX.

bjone a écrit :

D3D10.1 ne sert à rien si la majorité des moteurs n'ont pas besoin de ses features.


 
Je vais tenter de régler ce débat une bonne fois pour toute.
Le DX10.1 est une petite merveille qui permet de gagner un tas de FPS.
Ce qui a freiné l'adoption du DX10.1 c'est le nombre de PC utilisant Vista et les pressions de nVidia envers les concepteurs de jeux.
Si nVidia n'avait pas tout fait pour bloquer l'utilisation du DX10.1, on aurait 3 fois plus de jeux compatibles.
On aurait gagné entre 10 et 15% de FPS sur ces jeux, avec le même matos, les mêmes drivers, les mêmes settings.
 
 
Assassin's Creed: (premier jeu DX10.1 sur le marché ... avant d'être réduit au silence par nVidia)
http://techreport.com/r.x/radeon-hd-4870/assassinscreed.gif
 
 
Tom Clancy H.A.W.X.:
http://www.pcworld.fr/files/59641-radeon-hd-4770-benchmarks.png
 
 
Stormrise:
http://common.ziffdavisinternet.com/util_get_image/23/0,1425,i=235497,00.gif
 
 
Unigine Tropics Demo:
http://static.migom.by/img/articles/1463/uni1.png
 
 
Battleforge:
http://www.revioo.com/media/images/news/1/13894.gif
 
 
 
INFO: Windows 7 Aero to take advantage of DirectX 10.1 -> LIEN
 
 
 
Faudrait arrêter de dire que DX10.1 ne sert à rien, est inutile, ou pas asser intéressant pour se donner la peine de l'intégrer aux jeux.

n°7031461
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 10-07-2009 à 18:53:14  profilanswer
 

kaiser52 a écrit :

1) Le codepaths sera réinterprété a la volé par DX11, reste a voire comment Crosoft gérera ça derrière, c'est claire que l'avantage est au niveau de la transparence pour les dev's.


http://digli.com/images/smiley/what.gif

n°7031466
Khaomaster
Posté le 10-07-2009 à 18:59:18  profilanswer
 

Je suis d'accord avec Wirmish, DX10.1 apporte des FPS en plus par rapport à DX10, il faut pas cracher dessus ce serait idiot, surtout que tous les jeux codés en DX11 vont en tirer partie, vu que la nouvelle version de DX reprend les avancés de DX10.1

n°7031705
Gigathlon
Quad-neurones natif
Posté le 10-07-2009 à 23:01:20  profilanswer
 

Wirmish a écrit :

Je vais tenter de régler ce débat une bonne fois pour toute.
Le DX10.1 est une petite merveille qui permet de gagner un tas de FPS.


Le graph de Tropics est clairement foireux, pour avoir observé ce bench sur ma 4870 512Mo...
 
En 1920 AA4 on peut voir un manque cruel de RAM et la moyenne s'en ressent puisque contrairement à ce graph elle tournait bien plus bas, moins de 20fps de mémoire.

n°7031872
Activation
21:9 kill Surround Gaming
Posté le 11-07-2009 à 09:28:49  profilanswer
 

Wirmish a écrit :


 
Si nVidia n'avait pas tout fait pour bloquer l'utilisation du DX10.1, on aurait 3 fois plus de jeux compatibles.
On aurait gagné entre 10 et 15% de FPS sur ces jeux, avec le même matos, les mêmes drivers, les mêmes settings.
 


 
encore heureux que tu dise "CES" JEUX
 
car ce n'est pas systématisable
 
car sauf erreur ça permet des gain sur le rendu/filtrage (et de suite on pense à l'AA)
 
et ça ce vérifie très bien sur un bien meilleur exemple stalker clear sky
http://www.hardware.fr/articles/74 [...] x-285.html
 
(par contre faut pas une carte avec 512Mo  :( et ma HD4870 à que 512Mo)
 
on se dit alors ça sera pas du luxe si le cry engine v3 pour crysis 2 pouvait être dx11 ou au moins dx10.1
 
maintenant bah on verra bien en septembre car ça risque d'être qu'en septembre qu on aura enfin des bench officieux ou on verra une HD4890 face à une ... HD5670 ?
après si c est vraiment la HD5870 qui sort et offre des perf du niveau de la HD4870X2 c'est tout le bien que je souhaite à amd/Ati
 
et serait surement pret à en acheter une (mais pas avec design de reference j attendrais des design alternatif... car comme d hab à 80% sur on va encore se tapper un double dvi-i sur le design de ref)
 
car moi perso... avec toute mes machines en général je roule en mixte (des ati ET des nvidia)
 
y a juste en ce momenjt je roule full ati car ma GTX260+ est encore reparti au SAV
 
MAIS PITIé ATI FAITES NOUS ENFIN UN MODE IDLE qui consomme pas 50Watts de plus que chez nvidia pour écouter une musique avec winamp et afficher un firefox sur le desktop

n°7032046
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 11-07-2009 à 13:10:52  profilanswer
 

Y'a un truc que vous ne semblez pas encore avoir pigé.
 
75% des jeux DX10 utilisent en fait des fonctions spéciales semblables aux fonctions DX10.1.
Par exemple, l'accélération du rendu avec filtre 4xAA est utilisé par les jeux DX10 fesant parti du programme TWIMTBP.
 
Il faut savoir que les GPU de nVidia ne sont pas que DX10, mais qu'ils sont plutôt DX10.05.
En effet, certaines fonctions DX10.1 existent en hardware depuis le G80, mais pas toutes les fonctions.
N'offrant pas toutes les fonctions DX10.1, les GPU nVidia sont limités artificiellement à DX10.
Mais nVidia offre sa propre mini-API DX10.1 aux concepteurs de jeux.
 
 
Exemple de code dans un jeu DX10:
 
si GPU == "nVidia" alors
   Appel(NVAPI.Optimised4xAA)
sinon
   Appel(DirectX10.Standard4xAA)

 
Ce code démontre comment nVidia peut augmenter son avance sur ATi.
En effet, les GPU du caméléon utilisent une fonction "DX10.1" pour accélérer le filtre 4xAA.
Mais du côté d'ATi, le jeu fesant appel à une fonction DX10 au lieu de DX10.1, aucune accélération 4xAA n'est activée.
 
nVidia a donc tout intérêt à bloquer l'arrivé du DX10.1 puisque de son côté 75% des jeux TWIMTBP disposent de l'accélération 4xAA sur les GeForce, alors qu'ATi, qui offre pourtant des GPU DX10.1, ne peut profiter de cette accélération sous DX10.
 
 
Exemple de code dans un jeu DX10.1:
 
si GPU == "nVidia" alors
   Appel(NVAPI.Optimised4xAA)
sinon
   Appel(DirectX101.Optimised4xAA)

 
Cet exemple de code montre qu'avec DX10.1, les GPU d'ATi peuvent enfin appeler les fonctions accélératrices implémentée en hardware, dont le 4xAA, et que cela permet aux Radeon de rattraper ou de passer devant les GeForce qui n'implémentent qu'une partie des fonctions DX10.1 et qui sont donc forcément un peu plus lentes dans ses conditions.
 
 
 
Dans le cas de Far Cry 2, qui est un jeu DX10.1, on remarque que les GeForce sont généralement devant les Radeon, même lorsque les filtres 4xAA sont activés. Comment cela ce peut-il ?
 
Tout simplement pcq les développeurs n'ont utilisé que les fonctions DX10.1 qui sont aussi accessible à nVidia, et ils ont laissé de côté toutes les fonctions DX10.1 qui ne sont implémentées en hardware que dans les Radeons.

Citation :

"It's useful to point out that, in spite of the fact that NVIDIA doesn't support DX10.1 and DX10 offers no caps bits, NVIDIA does enable developers to query their driver on support for a feature. This is how they can support multisample readback and any other DX10.1 feature that they chose to expose in this manner. Sure, part of the point of DX10 was to eliminate the need for developers to worry about varying capabilities, but that doesn't mean hardware vendors can't expose those features in other ways. Supporting DX10.1 is all or nothing, but enabling features beyond DX10 that happen to be part of DX10.1 is possible, and NVIDIA has done this for multisample readback and can do it for other things."


 
nVidia a donc choisi de ne pas supporter le DX10.1, même s'il avait pourtant implémenté en hardware les fonctions les plus utiles, afin d'être le seul à pouvoir profiter de certaines accélérations. Cela lui permettait d'offrir des GPU dont les performances étaient artificiellement gonflées comparé aux GPU d'ATi, et cela tant que ce dernier ne pouvait faire appel à DX10.1. Il s'agit donc, encore une fois, d'une utilisation abusive d'une position dominante. Bien évidemment, sans tout son fric nVidia n'aurait pu "soudoyer" les concepteurs, et ceux-ci auraient implémenté le DX10.1 bien plus rapidement, permettant aux Radeon d'exploiter enfin les mêmes fonctions que les GeForce, et fesant alors disparaître l'avantage offerte par la mini-API du caméléon.
 
http://digli.com/images/smiley/coffee.gif


Message édité par Wirmish le 11-07-2009 à 18:04:55
n°7032101
bjone
Insert booze to continue
Posté le 11-07-2009 à 13:52:57  profilanswer
 

Wirmish a écrit :


 
Je vais tenter de régler ce débat une bonne fois pour toute.
Le DX10.1 est une petite merveille qui permet de gagner un tas de FPS.
Ce qui a freiné l'adoption du DX10.1 c'est le nombre de PC utilisant Vista et les pressions de nVidia envers les concepteurs de jeux.
Si nVidia n'avait pas tout fait pour bloquer l'utilisation du DX10.1, on aurait 3 fois plus de jeux compatibles.
On aurait gagné entre 10 et 15% de FPS sur ces jeux, avec le même matos, les mêmes drivers, les mêmes settings.
 
 
Assassin's Creed: (premier jeu DX10.1 sur le marché ... avant d'être réduit au silence par nVidia)
http://techreport.com/r.x/radeon-h [...] screed.gif
 
 
Tom Clancy H.A.W.X.:
http://www.pcworld.fr/files/59641- [...] hmarks.png
 
 
Stormrise:
http://common.ziffdavisinternet.co [...] 497,00.gif
 
 
Unigine Tropics Demo:
http://static.migom.by/img/articles/1463/uni1.png
 
 
Battleforge:
http://www.revioo.com/media/images/news/1/13894.gif
 
 
 
INFO: Windows 7 Aero to take advantage of DirectX 10.1 -> LIEN
 
 
 
Faudrait arrêter de dire que DX10.1 ne sert à rien, est inutile, ou pas asser intéressant pour se donner la peine de l'intégrer aux jeux.


 
Le gain n'est pas un gain constant, ça dépends des rendertargets utilisées par le moteur du jeu. Ca touche essentiellement les moteurs utilisant un Deferred Renderer. Maintenant on est d'accord que la tendance sera de plus en plus à l'avantage du 10.1 (Vu que les Deferred Renderers deviennent la norme).

Message cité 1 fois
Message édité par bjone le 11-07-2009 à 13:54:40
n°7032150
vanhoenack​er
Posté le 11-07-2009 à 15:09:14  profilanswer
 

bjone a écrit :


Le gain n'est pas un gain constant, ça dépends des rendertargets utilisées par le moteur du jeu. Ca touche essentiellement les moteurs utilisant un Deferred Renderer. Maintenant on est d'accord que la tendance sera de plus en plus à l'avantage du 10.1 (Vu que les Deferred Renderers deviennent la norme).


donc en gros pour en revenir au sujet, si DX10.1 n'a pas "pris", ça n'est pas, comme le disent beaucoups, que c'est une daube mais tout simplement qu'il n'est pas exploité par Nvidia et la plupart des concepteurs  :D  
ais-je bien résumé ?  :jap:

Message cité 2 fois
Message édité par vanhoenacker le 11-07-2009 à 15:09:44

---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°7032310
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 11-07-2009 à 18:07:16  profilanswer
 

vanhoenacker a écrit :


donc en gros pour en revenir au sujet, si DX10.1 n'a pas "pris", ça n'est pas, comme le disent beaucoups, que c'est une daube mais tout simplement qu'il n'est pas exploité "officiellement" et "complètement" par Nvidia et la plupart des concepteurs "qui font presque tous parti du programme TWIMTBP, et pcq Crossoft à limité le DX10 à Vista." :D



Message édité par Wirmish le 11-07-2009 à 18:07:42
n°7032313
Profil sup​primé
Posté le 11-07-2009 à 18:08:42  answer
 

Le 11 sera porté sous Vista => faux débat (10.1 inclus dans 11) ^^

n°7032339
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 11-07-2009 à 18:35:18  profilanswer
 

Faux débat... dans le futur peut-être... mais pas hier ni en ce moment précis.
 

Citation :

NVIDIA insists that if it reveals it's true feature set, AMD will buy off a bunch of developers with its vast hoards of cash to enable support for DX10.1 code NVIDIA can't run. Oh wait, I'm sorry, NVIDIA is worth twice as much as AMD who is billions in debt and struggling to keep up with its competitors on the CPU and GPU side. So we ask: who do you think is more likely to start buying off developers to the detriment of the industry?


Message édité par Wirmish le 11-07-2009 à 18:35:32
n°7032341
olioops
Si jeune et déjà mabuse.
Posté le 11-07-2009 à 18:36:49  profilanswer
 


c'est sûr ! je comprend pas l'importance que certain attribut au choix ou non choix de NVvidia vis à vis de DX10.1  :??: franchement ... ça change rien pour le joueur lambda , et rien n'est perdu puisque bientôt dispo sous DX11 !!!?


---------------
Ne pas confondre gisement épuisé et mine de rien !
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  39  40  41  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)