Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3340 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  17  18  19  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6963740
Gigathlon
Quad-neurones natif
Posté le 19-05-2009 à 22:27:10  profilanswer
 

Reprise du message précédent :

wizerty a écrit :

Citation :

(Raster Output) Unité d’un GPU qui implémente les dernières étapes du pipeline 3D. Les ROP sont donc responsables du blending, de l’antialiasing, du test de profondeur, du test stencil ou du test alpha.


J'ai mis en gras tous ce que je connais pas  :ouch: pour la définition d'un terme il me faut en chercher 4...


Caÿ pourtant simple:
 
- un pipeline est une succession de micro-traitements destinés à en faire un beaucoup plus complexe (je prend une truelle de ciment, je la dépose, je l'étale, je prend un parpaing, je le pose, je l'ajuste -> comment fabriquer un mur avec un pipeline spécialisé en maçonnerie... on aura compris que les brick-shaders nécessitent des données plus globales, comme la façon d'agencer les parpaings)
- blend veut dire mélanger
- le stencil buffer est principalement utilisé pour la génération d'ombres ou autres bricoles en forte relation avec le Z buffer
- Alpha est la 4e composante d'une couleur, la transparence


Message édité par Gigathlon le 19-05-2009 à 22:30:29
mood
Publicité
Posté le 19-05-2009 à 22:27:10  profilanswer
 

n°6963806
kaiser52
Posté le 19-05-2009 à 23:16:11  profilanswer
 

Allé !
 
Allons tous faire caca chez Paule !  :love:  
Il a un brise touche et fraiche !  :o  
 
Nan sans dec, Y'a un truc trop bien c'est google !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6963883
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-05-2009 à 00:41:20  profilanswer
 

mikestewart a écrit :

Malgré ce gachis ATI s'en sort mieux qu'Nvidia dans l'utilisation des transistors. Donc si c'est con pour ATI, ça l'est encore plus pour Nvidia. ;)

Le gachis c'est Microsoft qui l'a fait en pliant les genoux devant nVidia pcq celui-ci n'avait pas implémenté la totalité des specs de DirectX 10. Le G80 était un chip DX9.5. Jen-Hsun Huang pleurait tellement que Steve Ballmer lui a brisé une chaise sur le dos, puis, pour ne pas se faire poursuivre, Steve a finalement accepté de dire que le DX10 serait en fait le DX9.5, et que le vrai DX10 serait appelé DX10.1. Voilà le vrai gachi.
 
 

marllt2 a écrit :

Ouais mais nous on a CUDA, PhysX, SLi, 3D Vision, l'Occlusion Ambiante, et des puces qui cramment après 1 an.


 

Fantryt a écrit :

Je remplacerai volontiers 2DVision par "tesselation inexploitée" ...  :o

Sauf qu'elle n'est pas inexploitée.
Y'a Viva Pinata qui l'expoite, et y'a le MMO de NHN Games/Studio Cloud9 qui l'exploite aussi -> http://www.fourellsfilmfestival.com/images/icons/video_icon_s.gif
 
 

Yoyo_5 a écrit :

C'est un gros complexe asiatique qu'on ne retrouve plus chez les Canadiens depuis qu'ils se sont mis au Gingembre... [:ddr555]

Les canadiens ont ce genre de complexe... car ils se comparent aux québécois.  :whistle:  
 
 

marllt2 a écrit :


Genre le calcul est pas du tout truqué. :o  
 
1.4 -> 2.4 = + 71.5% (OK)
 
65nm -> 40 = -50% (CALCUL LINÉAIRE)
 
576/2 x 1.715 = 494mm² (CALCUL D'UNE SURFACE)

On ne peut pas calculer une surface à partir du résultat d'un calcul linéaire. Ça n'a pas de sens. :non:

n°6963902
marllt2
Posté le 20-05-2009 à 01:30:08  profilanswer
 

C'est pour ça que j'ai dit que c'était truqué...

n°6963903
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-05-2009 à 01:36:59  profilanswer
 

J'avais compris, mais j'ai cru bon d'expliquer le pourquoi du comment.
Pcq je ne pense pas que tout le monde avait compris de quel "trucage" tu parlais.
 
NOTE: 2.4 MT devrait occuper une surface d'environ 400mm².


Message édité par Wirmish le 20-05-2009 à 01:38:03
n°6963933
Fantryt
Posté le 20-05-2009 à 07:43:09  profilanswer
 

marllt2 a écrit :


Ouais mais nous on a CUDA, PhysX, SLI, 3D Vision, l'Occlusion ambiante, les chipsets défectueux, les cartes graphiques défectueuses, et l'assureur qui porte plainte !
 
http://serverbeach.files.wordpress [...] nvidia.jpg


 


Message édité par Fantryt le 20-05-2009 à 07:44:13
n°6964218
Activation
21:9 kill Surround Gaming
Posté le 20-05-2009 à 12:32:59  profilanswer
 

Wirmish a écrit :

Le gachis c'est Microsoft qui l'a fait en pliant les genoux devant nVidia pcq celui-ci n'avait pas implémenté la totalité des specs de DirectX 10. Le G80 était un chip DX9.5. Jen-Hsun Huang pleurait tellement que Steve Ballmer lui a brisé une chaise sur le dos, puis, pour ne pas se faire poursuivre, Steve a finalement accepté de dire que le DX10 serait en fait le DX9.5, et que le vrai DX10 serait appelé DX10.1. Voilà le vrai gachi.
 
 


 
rappel moi quand il est sorti le R600 ... bref la HD2900  
et les perfs de celle ci (pas mieux qu une 8800GTS640)

n°6964222
Yoyo_5
Posté le 20-05-2009 à 12:35:31  profilanswer
 

Activation a écrit :

rappel moi quand il est sorti le R600 ... bref la HD2900  
et les perfs de celle ci (pas mieux qu une 8800GTS640)


C'est peut-être justement parce qu'ils ont continué d'implémenter les trucs de DX10 (enfin, le vrai DX10 avant modif :p ) qu'ils ont pris du retard. :D
Au moins nVidia a été moins con, et a sorti une puce from outer space qui pootrait et en a profiter pour faire coller DX10 à son archi...ils ont été plus fort et plus malin... :lol:


---------------
¤ Paix et félicité ¤

n°6964322
sasuke87
Posté le 20-05-2009 à 13:46:18  profilanswer
 

Yoyo_5 a écrit :


C'est peut-être justement parce qu'ils ont continué d'implémenter les trucs de DX10 (enfin, le vrai DX10 avant modif :p ) qu'ils ont pris du retard. :D
Au moins nVidia a été moins con, et a sorti une puce from outer space qui pootrait et en a profiter pour faire coller DX10 à son archi...ils ont été plus fort et plus malin... :lol:


 
En gros AMD/ATI est trop scolaire et nVidia est plus filou  :D

n°6964329
Yoyo_5
Posté le 20-05-2009 à 13:52:35  profilanswer
 

sasuke87 a écrit :

En gros AMD/ATI est trop scolaire et nVidia est plus filou  :D


Au moins, eux ne se sont pas plantés avec leur G80. ;)

Message cité 1 fois
Message édité par Yoyo_5 le 20-05-2009 à 14:13:47

---------------
¤ Paix et félicité ¤

mood
Publicité
Posté le 20-05-2009 à 13:52:35  profilanswer
 

n°6964354
Rafale06
Vive les Suisses (Neutre..)
Posté le 20-05-2009 à 14:12:56  profilanswer
 

mouais....
 
En tout cas si les specs sont bien réelles ça devrait faire mal ^^
 
Si le prix reste dans le correcte haut de gamme genre 380euros maxis :o

Message cité 1 fois
Message édité par Rafale06 le 20-05-2009 à 14:14:05

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°6964395
sasuke87
Posté le 20-05-2009 à 14:47:04  profilanswer
 

Yoyo_5 a écrit :


Au moins, eux ne se sont pas plantés avec leur G80. ;)


 
Justement c'est parce qu'ils l'ont joué "finement" (wirmish n'utiliserait pas ce mot là  :D ) qu'ils ne se sont pas plantés.

n°6964435
Yoyo_5
Posté le 20-05-2009 à 15:09:11  profilanswer
 

sasuke87 a écrit :

Justement c'est parce qu'ils l'ont joué "finement" (wirmish n'utiliserait pas ce mot là  :D ) qu'ils ne se sont pas plantés.


Bha oui, ils savaient qu'ils ne pouvaient pas, mode filou ON, ils font des courbettes devant Microsoft, et hop, G80 full compatible DX10. :D


---------------
¤ Paix et félicité ¤

n°6964495
bjone
Insert booze to continue
Posté le 20-05-2009 à 15:37:23  profilanswer
 

Wirmish a écrit :

Le gachis c'est Microsoft qui l'a fait en pliant les genoux devant nVidia pcq celui-ci n'avait pas implémenté la totalité des specs de DirectX 10. Le G80 était un chip DX9.5. Jen-Hsun Huang pleurait tellement que Steve Ballmer lui a brisé une chaise sur le dos, puis, pour ne pas se faire poursuivre, Steve a finalement accepté de dire que le DX10 serait en fait le DX9.5, et que le vrai DX10 serait appelé DX10.1. Voilà le vrai gachi.


 
Tout comme on aurait pu débattre des heures sur le fait que le fp24 de la radeon 9700 sortie tôt était une solution batarde et que le fp32 possible de la geforce fx (sortie tardivement) était une spec critique.
 
On prends les mêmes, on inverse, et on recommence.

n°6964518
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-05-2009 à 15:57:16  profilanswer
 

Premièrement, le FP24 fesait parti des specs minimum du DX9.
 
"A noteworthy limitation is that all "R300"-generation chips were designed for a maximum floating point precision of 96-bit, or FP24, instead of DirectX 9's maximum of 128-bit FP32. DirectX 9.0 specified FP24 as a minimum level for conforming to the specification for full precision. This tradeoff in precision offered the best combination of transistor usage and image quality for the manufacturing process at the time."
 
"Une carte suivant la norme DirectX 9 se doit d'avoir par défaut une précision d'au moins 24 bits en virgule flottante.
 
 
Deuxièmement, la GeForce FX 5600 utilisait les FX12 ou FP16 à son lancement.
 
Voici le résultat:http://www.hardware.fr/medias/photos_news/00/06/IMG0006349.jpg
 
 
Le support du FP32 est arrivé un peu plus tard avec de nouveaux drivers.
Mais en interne il y avait toujours 2 FP16, utilisés là où c'était pas trop visible.
 
3DMark03 Pixel Shader 2.0:
FX 5600 = 6 FPS
9600 Pro = 28 FPS
 
Mandelbrot:
FX 5600 = 16 FPS
9600 Pro = 57 FPS
 
High Dynamic Range (1024*768 32 bits, AA 4x):
FX 5600 = 1.78 FPS
9500 Pro = 13.9 FPS
 
NOTE: "Le mode partial précision n'est pas pris en compte chez ATI, l'architecture DX9 du constructeur étant aussi rapide en FP16 qu'en FP24."

Message cité 1 fois
Message édité par Wirmish le 20-05-2009 à 16:44:57
n°6964544
Gigathlon
Quad-neurones natif
Posté le 20-05-2009 à 16:17:55  profilanswer
 

bjone a écrit :


 
Tout comme on aurait pu débattre des heures sur le fait que le fp24 de la radeon 9700 sortie tôt était une solution batarde et que le fp32 possible de la geforce fx (sortie tardivement) était une spec critique.
 
On prends les mêmes, on inverse, et on recommence.


Non, y'a une différence notable entre les 2 situations :o
 
nVidia avait certes implémenté le FP32, mais le nombre de registres était totalement axé sur le FP16. A l'inverse, ATI avait zappé le FP32 pour permettre un FP24 plus intéressant à l'époque, et ça m'avait surpris de voir la franchise dans l'explication (grossièrement: soit on implémentait le FP32 et on avait une puce hors de prix, soit on faisait l'impasse et on améliorait les perfs).
 
Ca tient plus de la comparaison G71/R580 donc, la situation G80/R600 est franchement différente en ce sens que l'échec du R600 était dû uniquement à un défaut de conception "non informatique". N'oublions pas que le R600 se débrouillait plutôt bien tant qu'on n'utilisait pas l'AA, surpassant la 8800GTX dans quelques jeux et présentait des caractéristiques d'évolution très prometteuses... sauf qu'on ne s'impose pas auprès des devs avec un produit 6 mois à la bourre et qui ne se vend pas (valable aussi pour le RV630).
 
Dans l'absolu, nVidia a eu un choix stratégique visant à assurer à court terme, et pour les G80/G92 ça a parfaitement fonctionné, mais le vent a quand même bien tourné quand ils ont tenté de tirer sur ce concept... ça a donné un GT200 bien trop cher et pas assez efficace pour se démarquer face à un RV770 dont l'architecture étroitement dérivée de celle du R600 a bien mieux accepté ce scaling. Quand on y pense, même si ils avaient conservé les TMU découplées et le ring bus il n'y aurait pas eu de différence flagrante aussi bien au niveau du coût que des perfs, au pire ils auraient dû se contenter d'une puce double du RV670, similaire au RV740 mais encore plus performante (les TMU du RV770/RV740/RV730 sont visiblement moins efficaces que celles du RV670 en pratique, bien que supérieures théoriquement).
 
On verra ce que donne le GT300, mais pour une fois j'espère qu'ils auront eu de l'ambition et arrêteront de tout faire à moitié.

Message cité 1 fois
Message édité par Gigathlon le 20-05-2009 à 17:51:22
n°6964578
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-05-2009 à 16:38:11  profilanswer
 

[HS]
http://tinyurl.com/q6cunn Si vous voulez tout savoir sur la période Radeon 9000/GeForce FX, faut absolument lire ce fabuleux post -> Magic-Sim
[/HS]


Message édité par Wirmish le 20-05-2009 à 16:38:19
n°6964660
bjone
Insert booze to continue
Posté le 20-05-2009 à 17:17:35  profilanswer
 

Oui mais bon, comment dire, merci :D

n°6964666
bjone
Insert booze to continue
Posté le 20-05-2009 à 17:22:25  profilanswer
 

Wirmish a écrit :

Premièrement, le FP24 fesait parti des specs minimum du DX9.
 
"A noteworthy limitation is that all "R300"-generation chips were designed for a maximum floating point precision of 96-bit, or FP24, instead of DirectX 9's maximum of 128-bit FP32. DirectX 9.0 specified FP24 as a minimum level for conforming to the specification for full precision. This tradeoff in precision offered the best combination of transistor usage and image quality for the manufacturing process at the time."
 
"Une carte suivant la norme DirectX 9 se doit d'avoir par défaut une précision d'au moins 24 bits en virgule flottante.
 
 
Deuxièmement, la GeForce FX 5600 utilisait les FX12 ou FP16 à son lancement.
 
Voici le résultat:http://www.hardware.fr/medias/phot [...] 006349.jpg
 
 
Le support du FP32 est arrivé un peu plus tard avec de nouveaux drivers.
Mais en interne il y avait toujours 2 FP16, utilisés là où c'était pas trop visible.
 
3DMark03 Pixel Shader 2.0:
FX 5600 = 6 FPS
9600 Pro = 28 FPS
 
Mandelbrot:
FX 5600 = 16 FPS
9600 Pro = 57 FPS
 
High Dynamic Range (1024*768 32 bits, AA 4x):
FX 5600 = 1.78 FPS
9500 Pro = 13.9 FPS
 
NOTE: "Le mode partial précision n'est pas pris en compte chez ATI, l'architecture DX9 du constructeur étant aussi rapide en FP16 qu'en FP24."


 
Oui mais ce que tu n'a pas compris, c'est que le FP24 était peut-être la résultante de tractations en interne entre Microsoft et les fabricants, et ATI a eu le mot juste.
Tout comme le fait que tu bashes nVidia sur son lobbying pour un D3D10 incomplet.
C'est facile de réécrire l'histoire quand on la connait pas. C'est quand même toujours un minimum subtile. (Bon le GT200 aurait dû être 10.1 je suis d'accord)


Message édité par bjone le 20-05-2009 à 17:30:06
n°6964704
bjone
Insert booze to continue
Posté le 20-05-2009 à 17:46:21  profilanswer
 

Gigathlon a écrit :


On verra ce que donne le GT300, mais pour une fois j'espère qu'ils auront eu de l'ambition et arrêteront de tout faire à moitié.


 
Pour un joueur, l'ambition c'est d'avoir un truc efficace pour les cas d'utilisation des jeux.
Pour un dev de moteur, l'ambition c'est d'améliorer le modèle de programmation du hard (là ATI a eu raison avec le D3D10.1), ou l'efficacité dans les cas d'utilisations plus atypiques.
 
Donc c'est dûr à dire qui a été le plus ambitieux: ATI avec le support 10.1 (ce qui est bien), ou nVidia qui tente une percée GPGPU avec le CUDA (ce qui est bien aussi).
 
Pour le GT300, je sais pas du tout quel balancement ils viseront, donc j'attends de voir.

n°6964713
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-05-2009 à 17:52:11  profilanswer
 

Non, les specs DX9 étaient claires sur ce point: FP24 minimum, FP32 maximum.
 
 
nVidia a conçu une archi poussive (FX) pcq ils étaient trop occupés avec le projet XBox.
Sans oublier que Microsoft n'a pas consulté nVidia lors du développement des specs de DX9.
"Due to the Xbox dispute, no consultation with Nvidia took place during the development of the DirectX 9 specification."
 
De plus, à cause du froid entre nVidia et Microsoft, ce dernier a optimisé son DX9 pour l'archi d'ATi.
"Developers built the shader-compiler using the Radeon 9700 as the base card."
 
Par la suite une entente secrète est survenue entre nVidia et Microsoft:
"Relations between Microsoft an Nvidia, which had previously been very good, deteriorated as a result. Both parties later settled the dispute through arbitration and the terms were not released to the public."
 
Il y a donc eu une renégociation entre MS et nVidia, et comme résultat MS a optimisé les derniers drivers DX9 pour l'archi de nVidia.
"Nvidia worked with Microsoft to release an updated DirectX compiler that generated code optimized for the GeForce FX."

 
 
Remarquez que si nVidia a sorti une archi faiblarde à cause du travail sur le GPU de la XBox qui a divisé ses ressources, on peut dire qu'il est arrivé la même chose à ATi avec son R520 (X1800) à cause du développement du GPU de la XBox 360. Heureusement, ATi a vite remplacé son R520 par ses R580/RV570/R580+ (X1900/X1950/XTX).
 
 
Voilà.


Message édité par Wirmish le 20-05-2009 à 18:00:54
n°6964754
bjone
Insert booze to continue
Posté le 20-05-2009 à 18:14:58  profilanswer
 

Et bien les specs D3D10 étaient claires sur ce point, pas d'array de cubemap, restrictions sur la relecture en MSAA :D
 
Tu vois ce que je veux dire ou pas ?
 
A un moment donné il faut figer les specs, suivant l'état de la concertation on s'arrête sur quelque chose.
 
ATI avait la 9700 assez tôt, MS s'est aligné dessus, nVidia avait la Gf8 assez tôt, MS s'est aligné dessus.
 
Et on s'en fous (un peu mais pas trop): les specs D3D se poussent les unes après les autres, ce qui fait que les errements de specs sont rapidement compensés.
 
Le premier qui a du hardware fonctionnel clôt les tractations tout simplement.

Message cité 1 fois
Message édité par bjone le 20-05-2009 à 18:16:31
n°6964757
Activation
21:9 kill Surround Gaming
Posté le 20-05-2009 à 18:19:15  profilanswer
 

y a un truc tout de meme que faudra que tu m explique wirmish
 
t est en train de demontrer partout avec tes exemples que microsoft à jamais baissé son froc sur les spec directx meme si les geforce suivait pas au sortir de la new version de directx (geforce fx, tout ça)
 
et tu nous sort des connerie genre steve ballmer à baissé son froc car peter une chaise sur le dos de X
 
je sais pas mais arrete la picole quoi
 
dx10 est ce qu il est et devais être
le fait est que les ajouts qu il y a eu dans dx10.1 meme ati arrivait pas à le faire avec la HD2900
 
donc arrete de dire que c est la faute à nvidia meme ati était dans les choux pour permettre ce qui y a dans dx10.1 du temps de dx10.0
 
excuse moi mais les geometry shader entre autre sont bel et bien dans dx10.0
 
directx il est bien ce qu il est... arrete avec tes conneries que c est un dx9.5
 
après que les dev utilise pas les geometry shader car le G80 suivait pas ça c est un autre probleme (et le R600 il a eu 6mois de retard par rapport au G80, apres il est certe plus veloce pour des GS... mais quand bien toujours pas assez pour un jeu avec massivement du GS via gpu)
 
là ou microsoft chie c est surtout pour intel
 
car meme encore dans windows 7 aero tourne dans un espece d hybride dx9 plutot que dx11 (car dx11 tourne sur carte dx10)
 
bref on vois bien que ce qui chie le plus c est la version de directx des chipset intégré bref du bas de gamme
 
là encore tu te concentre à attaquer le haut de gamme
comme si tout le monde avait un haut de gamme
 
je te sinal que ça reste le bas de gamme le plus gros de la masse
 
tu croit vraiment que le bas de gamme il peut te torcher du GS, de la tesselation, etc.... nop... et tout le monde s'en branle
 
bref directx 10 n'a rien d'un directx9.5 comme tu veut le faire croire
tu prend un malin plaisir à mélanger ce que permet le sdk (qui est pas en sdk 9.5) et ce que les devs de jeux pratique (et cela ça ne regarde qu'eux si ils veulent surtout train& la pate dx9.0c jusqu'à la corde)
 
alors arrete de t enfiler des supo  [:fa-tt92]
 
ensuite toujours sur la tesselation ça devait tellement etre dans dx10.1 que la version de ATI correspond absolument pas au spec de la parti tesselation dans dx11

Message cité 1 fois
Message édité par Activation le 20-05-2009 à 18:22:48
n°6964762
bjone
Insert booze to continue
Posté le 20-05-2009 à 18:21:46  profilanswer
 

On se détends :D

n°6964773
Activation
21:9 kill Surround Gaming
Posté le 20-05-2009 à 18:26:29  profilanswer
 

bjone a écrit :

On se détends :D


 
 
c'est juste que
 

Wirmish a écrit :

Le gachis c'est Microsoft qui l'a fait en pliant les genoux devant nVidia pcq celui-ci n'avait pas implémenté la totalité des specs de DirectX 10. Le G80 était un chip DX9.5. Jen-Hsun Huang pleurait tellement que Steve Ballmer lui a brisé une chaise sur le dos, puis, pour ne pas se faire poursuivre, Steve a finalement accepté de dire que le DX10 serait en fait le DX9.5, et que le vrai DX10 serait appelé DX10.1. Voilà le vrai gachi.
 
 


 
faut arreter quoi
 
demain l excuse que c est la faute à nvidia ça sera quoi ...ballmer à mit la femme d un ing nvidia enceinte
 
 [:ixka]  [:smoking]  [:demerzel_titeuf]  [:yamusha]  [:ben59]  [:l3go]  [:l3go]

n°6964788
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-05-2009 à 18:33:30  profilanswer
 

Activation, le coup de chaise c'était un pour imager le truc... c'était pas la réalité.
 
 
Selon moi DX10.1 apporte plus à DX10 que ce que DX10 a apporté a DX9.
Et pourtant dans le premier cas on a droit à un "+0.1" alors que dans le 2e cas on a droit à un "+1.0".
 
Quant aux "Geometry Shaders", ils étaient déja là en 2001 -> TruForm
Et c'est grâce à ATi si le Tesselator a enfin trouvé son chemin dans les specs de DirectX.
 
Et puis... faudait pas parler des GPU d'Intel... pcq... heu... pcq tout le monde sait pourquoi il ne faut pas en parler.

Message cité 2 fois
Message édité par Wirmish le 20-05-2009 à 18:35:21
n°6964795
bjone
Insert booze to continue
Posté le 20-05-2009 à 18:36:11  profilanswer
 

Oui mais ça pourrait être un bon scénar pour une BD prenant l'informatique en dérision :D

n°6964821
bjone
Insert booze to continue
Posté le 20-05-2009 à 18:49:10  profilanswer
 

Wirmish a écrit :

Activation, le coup de chaise c'était un pour imager le truc... c'était pas la réalité.
 
 
Selon moi DX10.1 apporte plus à DX10 que ce que DX10 a apporté a DX9.
Et pourtant dans le premier cas on a droit à un "+0.1" alors que dans le 2e cas on a droit à un "+1.0".
 
Quant aux "Geometry Shaders", ils étaient déja là en 2001 -> TruForm
Et c'est grâce à ATi si le Tesselator a enfin trouvé son chemin dans les specs de DirectX.
 
Et puis... faudait pas parler des GPU d'Intel... pcq... heu... pcq tout le monde sait pourquoi il ne faut pas en parler.


 
Nein nein nein (enfin pour le plus gros :D).
Les cubemaps arrays sont une extension logique aux texture array, l'accès optimal aux rendertargets anti-aliasées sont une levée de restriction potentiellement efficace.
Mais ce n'est pas non plus colossal devant la refactorisation générale de l'API, du modèle de driver vidéo qui réduit les transitions user/kernel, devant les instructions entières, et tout le toutim.  
Y'a quand même moyen de faire des trucs rigolo en D3D10 qui mettraient à genoux n'importe quel hard D3D10/10.1/11 (passke x2 ou x4 en perfs c'est pas assez :D), sous-entendu que le 10.1 ne sauverait pas -du tout- les meubles.  
Maintenant l'amélioration des specs 10.1, 11 permettent justement de faire émerger des techniques plus efficaces, mais le 10.1 ne permettera de faire émerger une technique qui donne 40fps là où la technique 10 sera à 14fps. Bon à voir c'est pas dit :D
 
Quand à la tesselation, Matrox, nVidia et ATI ont tous fait des tentatives plus au moins avortées dans le passé (dès D3D8, et D3D9 avait des hints de tesselation dans le format de déclaration des vertexs) .


Message édité par bjone le 20-05-2009 à 18:51:53
n°6964828
kaiser52
Posté le 20-05-2009 à 18:51:29  profilanswer
 

Wirmish a écrit :

Activation, le coup de chaise c'était un pour imager le truc... c'était pas la réalité.
 
 
Selon moi DX10.1 apporte plus à DX10 que ce que DX10 a apporté a DX9.
Et pourtant dans le premier cas on a droit à un "+0.1" alors que dans le 2e cas on a droit à un "+1.0".
 
Quant aux "Geometry Shaders", ils étaient déja là en 2001 -> TruForm
Et c'est grâce à ATi si le Tesselator a enfin trouvé son chemin dans les specs de DirectX.
 
Et puis... faudait pas parler des GPU d'Intel... pcq... heu... pcq tout le monde sait pourquoi il ne faut pas en parler.


 
Petit cour d'histoire => link
 
en gros :
 

Citation :

theoriquement, on pourrait donc avoir dans les mois qui suivent la sortie du R200 de nouveaux jeux utilisant les N-Patches ... mais aussi des patchs pour les jeux actuels incluant un moteur modifié (une ou deux lignes de code) et des modèles 3D modifiés (via l´outil ATI) pour tirer partie des N-Patches! Reste qu’ATI aura fort à faire face aux RT-Patches de NVIDIA, qui sont supportés par un GeForce3 déjà disponible et donc par le NV2A de la X-Box.


 
La tesselation c'est juste le nom qui a été donné par ATI pour les N-Patches.
Les RT-Patches, implémenté par nVIDIA depuis les Geforces 3 et la Xbox date depuis plus longtemps.
 
Récap :
N-Patches (ATI) => Plus simple a implementer, moins beau, fonctionne sur les GPU ne le supportant pas matérielement (mais pas calculé, poly de base affiché).
RT-Patches (nVIDIA) => Plus beau, moins facile a implémenter, ne fonctionne pas sur les GPU qui ne l'implémente pas matériellement (au final pas de polygones affiché).


Message édité par kaiser52 le 20-05-2009 à 18:52:53

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6964849
Activation
21:9 kill Surround Gaming
Posté le 20-05-2009 à 18:59:14  profilanswer
 

clair les shader unifié tout ça, c est arrivé que dans dx10.1 pour sur  :o  
 
dx10.0 savait meme pas dessiné en triangle
 
wirmish à du confondre avec directx 1.00  :o

n°6964854
Profil sup​primé
Posté le 20-05-2009 à 19:02:30  answer
 

la gestion de la 3D coté MS est arrivée avec DirectX 3 il me semble. [:cerveau o]

n°6964935
sasuke87
Posté le 20-05-2009 à 20:00:57  profilanswer
 

Activation a écrit :


...tu croit vraiment que le bas de gamme il peut te torcher du GS, de la tesselation, etc.... nop... et tout le monde s'en branle...


 
euh explique moi dans ce cas, pourquoi nvidia "s'est torché le cul" à implanter les ps3 dans les jeux du temps des geforces 6800, alors que comme tu le dis le bas de gamme n'est jamais apte à suivre quand il s'agit de news technologie? Sans oublier que les cartes ATI de l'époque, se limitaient au ps2.1 ou ps2b je ne sais plus...
 

bjone a écrit :


 
Pour un joueur, l'ambition c'est d'avoir un truc efficace pour les cas d'utilisation des jeux.
Pour un dev de moteur, l'ambition c'est d'améliorer le modèle de programmation du hard (là ATI a eu raison avec le D3D10.1), ou l'efficacité dans les cas d'utilisations plus atypiques.
 
Donc c'est dûr à dire qui a été le plus ambitieux: ATI avec le support 10.1 (ce qui est bien), ou nVidia qui tente une percée GPGPU avec le CUDA (ce qui est bien aussi).
 
Pour le GT300, je sais pas du tout quel balancement ils viseront, donc j'attends de voir.


 
+1
 
Mais maintenant reste à savoir ce qui est le plus intéressant pour le monde du jeu vidéo, soit on s'acharne à faire des trucs charmants mais sans plus comme la physX, soit on s'efforce d'aller de l'avant dans l'adoption de news techno (ps3 du temps des 6800 et les GS actuellement) et donc des jeux toujours plus beaux (parce que depuis crysis ça stagne dur)...


Message édité par sasuke87 le 20-05-2009 à 20:05:18
n°6964942
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 20-05-2009 à 20:04:41  profilanswer
 

Citation :

Nvidia has moved to scale up its orders for 40nm graphics chips at foundry partner Taiwan Semiconductor Manufacturing Company (TSMC) for 2009, according to sources at graphics card makers. The chip designer expects 40nm to account for 30% of its overall GPU shipments by the end of 2009.
 
Nvidia has recently completed the tape-out of its next-generation (GT300) GPU on TSMC's 40nm process, indicated the sources.
 
Nvidia has also expressed interest in becoming an initial client of TSMC's 28nm process, which will start initial production in first-quarter 2010, the sources noted.
 
Nvidia declined to comment on market speculation.

oué ben ça on ne l'aurait pas deviné...  :pfff:  
 
28nm premier quart 2010 donc + retard = mi-2010 + retard = fin 2010 + avance sur le retard = septembre 2010 ?
 
EDIT ; oups pardon, la source : http://www.digitimes.com/news/a200 [...] _2009.html


Message édité par super_newbie_pro le 20-05-2009 à 20:19:13

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6964976
Gigathlon
Quad-neurones natif
Posté le 20-05-2009 à 20:31:03  profilanswer
 

bjone a écrit :

A un moment donné il faut figer les specs, suivant l'état de la concertation on s'arrête sur quelque chose.
 
ATI avait la 9700 assez tôt, MS s'est aligné dessus, nVidia avait la Gf8 assez tôt, MS s'est aligné dessus.


Ca mérite au moins un +1 ça :o
 
C'était d'ailleurs un peu la substance de ma précédente remarque, nV s'est imposé avant tout par une dispo en temps et heure.


Message édité par Gigathlon le 20-05-2009 à 20:31:32
n°6965014
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-05-2009 à 21:06:42  profilanswer
 

Quand on sait que TSMC annonce que son "28nm" est un full-node, y'a qu'un pas à faire pour comprendre que c'est en fait du 32nm.
Il est maintenant connu que TSMC a choisi de calculer son node à partir de la taille de ses p-channel, alors que l'industrie utilise habituellement la taille des n-channel, qui sont un peu plus large, pour mesurer le node d'un process. Vraisemblablement, TSMC doit, une fois de plus, utiliser la taille des p-channel afin d'être le premier à offrir la gravure en "28nm". Malheureusement, ce n'est qu'une histoire de marketing.
 
Même chose pour Sony qui nous a fait croire que la puce de sa PSX était gravée en 90nm alors qu'elle était en fait gravée en 130nm.
Ce que Sony n'avait pas prévu c'est que des petits malins au Canada ont "ouvert" une puce et l'on inspectée au microscope.
Résultat: Le plus petit LG était de 70nm au lieu de 37nm dans la cas d'une puce en 90nm.
 
 
 
Je pense que ça vaudrait le coup d'expliquer ce qu'est un node une bonne fois pour toute:

Citation :

Node in this context has historically been used to refer to the size of the smallest parts of the transistors on the chips. Until the late 1990s, that was typically a feature called a gate. But there is a very fuzzy relationship between the technology node’s number and the actual dimensions of the gate it purports to signify. In fact, the International Technology Roadmap for Semiconductors, the industry’s guide star, abandoned the term in 2005, but its usage has persisted.
 
Physically, the gate sits between the source and the drain. On a chip, that translates to the distance between the parallel metal lines, called interconnects, that carry the electrons through the chip. The distance between these metal lines at the first level is called the pitch, and logically, the half-pitch is half that distance.
 
So, for example, in 2005 the gate width on an Intel micro-processor was 32 nm. The node was called "65 nm," but the half-pitch for the first level of wires was 105 nm. Confused yet?

        http://www.spectrum.ieee.org/images/apr09/images/lithof1.gif

Citation :

So let’s recap. Today’s cutting-edge 32-nm-node logic chips are actually at a 50- or 56-nm half-pitch. Today’s cutting-edge memory chips, if they were described in logic terms, would be at the 22‑nm node, but they are in fact at about a 34-nm half-pitch, putting them ahead of logic development by a full chip generation.
 
The first commercial lithography tools were manufactured in the early 1980s. They started skirting the edge of the visible spectrum with light at a wavelength of 436 nm, somewhere between violet and indigo. In 1987, steppers graduated to the ultraviolet 365 nm of mercury lamps and then to 248 nm in 1993. Finally, in 2001 the industry arrived at the 193-nm light, derived from an argon-fluoride laser. This laser, still used today to create patterns with feature sizes down to 38 nm, is projected through massive lenses that weigh nearly half a metric ton and cost several million dollars.


Alors, comme vous pouvez le constater (pour ceux qui lisent l'angais), il y a plusieurs méthodes pour calculer la taille d'un node.
La seule chose que nous devons garder à l'esprit, c'est que le fondeur utilisera toujours la méthode qui lui donnera le plus petit chiffre, question de pouvoir dire qu'il est le plus meilleur. Même si en fait le "40nm" de TSMC est moins bon que le "45nm" d'Intel.
 
 
NOTE: La gravure en 13.5nm risque d'être très compliquée -> ILLUSTRATION
         Je crois que d'ici 7 ans les fondeurs vont se retrouver face a un mur... et nous aussi.

Message cité 1 fois
Message édité par Wirmish le 20-05-2009 à 21:09:24
n°6965056
Fantryt
Posté le 20-05-2009 à 21:30:56  profilanswer
 

Bah ... la gravure aura pu permettre de réduire la consommation en devenant plus fine petit-à-petit, mais c'était une évidence depuis bien longtemps, les constructeurs tels que Intel ou AMD devront rapidement trouver une autre solution . Et ces solutions sont nombreuses, alors il leur faut choisir celle qui sera la moins onéreuse à développer et la plus rentable à long terme . En tout cas, ça ne semble pas être trop difficile de trouver ces solutions, la preuve, Intel a déjà trouvé le moyen de réduire de 90% la consommation de ses processeurs x86 ...
Bref, la gravure ne fait absolument pas tout, il existe de nombreuses autres méthodes pour réduire la consommation et augmenter les performances ... seul véritable obstacle : la rentabilité et le coût de développement . Il n'y a aucun (ou très peu) problème lié au développement lui-même ...

n°6965068
Activation
21:9 kill Surround Gaming
Posté le 20-05-2009 à 21:35:53  profilanswer
 

ça devrait plutot etre dans les 12nm
 
après dans "7ans" faudra voir ou on en est et il y a pas que les gpu et cpu qui devrait toujours profiter des meilleurs finesse de gravure (quand tu vois un double chipset mobo de finesse de gravure supérieur au cpu prendre plus de place sur la mobo ça fait tache)
 
idem tu prend les barrettes vu comment le prix des sodimm c est cassé la tronche on se demande encore pourquoi on standardise pas non plus pour les pc fixe la sodimm
 
idem les disques classiques 2,5" (je parle pas ssd) bientot à prix egal des 3,5"
 
si c es pour la conso y a moulte moyen de la reduire sans toujours s en prendre qu au cpu et gpu
combien en entreprise tu vois de PC format desktop quand un simple pc de la taille d'une unité optique 5,25" suffirait  
car combien de personnes n'utilise pas plus de 30% de la capacité de son PC (l exemple meme de cela les gens qui guele que vista bouffe plus de memoire vive que xp... les gens prefere broutter en memoire virtuel disque dur que oh mon dieu utiliser la memoire vive de leur PC, c est pas la peine d acheter de la memoire vive si c est pour pas vouloir qu'elles soit utilisé
quand je pense à l epoque ou une barrette de 8Mo coutait dans les 800F (122€)  :pfff:
 
on vois bien qu un enorme nombre de jamais satisfait sur les forums on jamais connu les début de l info (je parle pas seulement du PC compatible) ça découvre le monde PC dans la periode windows xp au debut de ce millénaire et ça crois tout savoir (je parle pas de toi wirmish)

Message cité 1 fois
Message édité par Activation le 20-05-2009 à 21:44:08
n°6965102
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-05-2009 à 21:51:24  profilanswer
 

Activation a écrit :

... ça découvre le monde PC dans la periode windows xp au debut de ce millénaire et ça crois tout savoir (je parle pas de toi wirmish)


J'espère bien car j'ai écrit mes premiers soft sur un SpectraVideo SV-318...  
http://www.nouvelordremondial.cc/wp-content/uploads/2007/09/hacker-pirate-france.jpg

n°6965142
Activation
21:9 kill Surround Gaming
Posté le 20-05-2009 à 22:11:03  profilanswer
 

c était pour etre sur qu il y ai pas ambiguité :D
 
après perso moi j ai débuté sur thomson MO5 puis TO7
ensuite sur ZX spectrum donc bon... :lol:

n°6965146
Yoyo_5
Posté le 20-05-2009 à 22:13:33  profilanswer
 

Moi sur Amstrad CPC 6128+...! :o


---------------
¤ Paix et félicité ¤

n°6965153
Activation
21:9 kill Surround Gaming
Posté le 20-05-2009 à 22:16:08  profilanswer
 

Yoyo_5 a écrit :

Moi sur Amstrad CPC 6128+...! :o


 
 
oh l autre  :o un pote en avait un  
 
trop bien le lecteur disquette comparé à mon lecteur K7 sur mon spectrum (ah ce bordel de lecteur K7 qu est ce que c etait chiant  :fou: les gens se rendent meme pas compte à quel point c est trop facile maintenant avec les dvds et les clé usb  :o )

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  17  18  19  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)