Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1249 connectés 

 

 

Aprés un GT200 consommant et chauffant énormément, pariez-vous sur la révision GT200B en :


 
62.3 %
 415 votes
1.  55nm (nouveau standard)
 
 
22.7 %
 151 votes
2.  45nm (Aucun GPU de produit à cette finesse - coût plus élevé (nouveauté))
 
 
15.0 %
 100 votes
3.  40nm (Aucun GPU de produit à cette finesse - coût bien plus élevé (nouveauté ultime) Dispo pour eux depuis le 2T. 2008)
 

Total : 942 votes (276 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  7  8  ..  833  834  835  836  837  838
Auteur Sujet :

[Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250

n°6333823
Ill Nino
Love
Posté le 15-04-2008 à 14:04:25  profilanswer
 

Reprise du message précédent :
C'est ce que je fais en general. :D
Heu... C'est pas bien?
 
Franchement en général quand c'est une nouvelle archi qui sort, les prix restent haut pendant 2-3 mois apres facile...


Message édité par Ill Nino le 15-04-2008 à 14:04:38

---------------
Faut qu'on court comme des lions, des tigres et des ours!
mood
Publicité
Posté le 15-04-2008 à 14:04:25  profilanswer
 

n°6333829
Geekeeta
Et mon avenir, il est "aheu" ?
Posté le 15-04-2008 à 14:06:00  profilanswer
 

Voir 9-12 mois...  :whistle:


---------------
L'ennemi est bête : il croit que c'est nous l'ennemi alors que c'est lui ! [Pierre Desproges] Rochmedia - Morrowind et Oblivion Stargate
n°6333845
Sat45
ÉcouTeSA
Posté le 15-04-2008 à 14:09:38  profilanswer
 

Ca c'est quand y'a pas de concurence en face... cf X1950xtx et 8800GTX :spamafote:


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6333850
Ill Nino
Love
Posté le 15-04-2008 à 14:12:08  profilanswer
 

Ouai, en bon, j'ai rarement regretté d'avoir fait ca. :spamafote:


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6333857
soufkad
Posté le 15-04-2008 à 14:14:26  profilanswer
 

alors tu as raison d'attendre.
Moi j'attends mais pour un SLI


---------------
Evga680i | E6700@3,5 | 4Go800@933 | SLI 8800GTX | RAID0 RAPTORX150 | 400Go SATAII |Audigy4Pro | Tagan900W | CRT21" |
n°6333869
jean le fr​ancois
Rodez vos CPU avec BOINC
Posté le 15-04-2008 à 14:18:39  profilanswer
 

:o bon, j'ai pas pris de 8800GT parce que ma 7900GT overclockée à mort tient encore le coup mais elle commence à etre limite, donc je vais surement convoiter cette 9900 équipé de ce G200 qui me semble très ambitieux...


---------------
i7 4820k@4,2Ghz+H80i|ASRock X79 Extreme 4|16Go 2400Mhz-quad|Nvidia 970 GTX-4Go|OCZ Vertex 4 128Go|Raid0 Barracuda 1To-64Mo x2|Raid1 750Go-32Mo x2 http://jeanlefrancois.deviantart.com/
n°6333879
Ill Nino
Love
Posté le 15-04-2008 à 14:22:27  profilanswer
 

soufkad a écrit :

alors tu as raison d'attendre.
Moi j'attends mais pour un SLI


Ouai, j'ai peur d'y avoir pris gout au SLI. :/
C'est vrai que quand les nuisances sonores sont maitrisées ca donne une config aux perfs hors normes. :)
 
Meme avec le SLI de 8800 GTS 640mo que j'ai, ca torche pas mal. :)


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6333930
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 15-04-2008 à 14:44:53  profilanswer
 

Mouahahaha :
-----------------
Nvidia offers PhysX support to AMD / ATI
 
Posted at: 4:28am 10th March 2008 by Ben Hardwidge  
 
Nvidia confirms its commitment to making PhysX an open standard for everyone
 
 
After Nvidia’s CEO, Jen-Hsun Huang, said that Nvidia planned to provide PhysX support in CUDA, many people (including us) thought this meant that Nvidia planned to keep PhysX all to itself. However, the company has confirmed that it’s going to stick by its guns, by making PhysX a free API that’s available to anyone.
 
Nvidia’s director of product PR for EMEA and India, Luciano Alibrandi, told Custom PC that ‘We are committed to an open PhysX platform that encourages innovation and participation,’ and added that Nvidia would be ‘open to talking with any GPU vendor about support for their architecture.’
 
As well as this, Alibrandi also promised that the free PhysX SDK would continue to be available to game developers. ‘We plan to continue supporting all key gaming platforms, including the PC and all next-gen consoles, with free PhysX binaries,’ said Alibrandi. He also added that Nvidia planned to make this a ‘continually improving set of tools in an open development platform that encourages leading-edge partners to extend the PhysX eco-system.’
 
Nvidia is currently working on implementing PhysX into its CUDA language, which is supported by all GeForce 8-series GPUs. When this is ready to go, Alibrandi said that owners of these GPUs will ‘simply need to download the CUDA PhysX drivers from Nvidia,’ and that ‘hardware acceleration will then be transparently supported for applications making use of the PhysX SDK.’
 
Nvidia plans to support PhysX in a number of ways, and Alibrandi says that these ‘could include both single and SLI based options.’ He also confirmed that Nvidia’s relationship with Havok is now over, saying that ‘we are 100 per cent focused on enabling CUDA-based GPUs to accelerate PhysX processing.’
 
If you’re one of the rare owners of a PhysX card, then you’ll be pleased to know that Alibrandi also confirmed that Nvidia would ‘continue to support the PhysX processor as demand dictates,’ although he said that CUDA-enabled GPUs would ‘outperform the PPU,’ Interestingly, when we asked if Nvidia would finally reveal the details of the inside of the PhysX chip, he replied: ‘Maybe.’ Ageia was very secretive about the inner workings of the PhysX chip, and we’d love to know what was inside it.
 
Either way, it looks as though there’s hope for AMD / ATI getting a bite of the GPU PhysX pie after all; the guys at AMD just need to decide whether they want it.
source : http://www.custompc.co.uk/news/602 [...] --ati.html
 
===========
 
sinon autre new :
 
VR-Zone first revealed Nvidia's plan to shift from 65nm to 55nm to lower costs and we have also told you a series of 55nm based mobile graphics GPUs based on G94b and G96b. Now we learned that the first desktop graphics card to be based on 55nm G92b core will be GeForce 9800 GT and it will be launched in July along with GeForce 9900 series. 9800 GT will support Hybrid Power. Apparently, GeForce 9800 GTS will be OEM only, not for channel.
source : http://www.vr-zone.com/articles/Nv [...] /5714.html


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6334685
Sat45
ÉcouTeSA
Posté le 15-04-2008 à 20:16:13  profilanswer
 

Et en FR :whistle: ca me soule de prendre le temps de comprendre la vu le pavé :o


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6334687
dragonlore
Posté le 15-04-2008 à 20:16:26  profilanswer
 

super_newbie_pro a écrit :

Mouahahaha :
-----------------
Nvidia offers PhysX support to AMD / ATI
 
Posted at: 4:28am 10th March 2008 by Ben Hardwidge  
 
Nvidia confirms its commitment to making PhysX an open standard for everyone
 
 
After Nvidia’s CEO, Jen-Hsun Huang, said that Nvidia planned to provide PhysX support in CUDA, many people (including us) thought this meant that Nvidia planned to keep PhysX all to itself. However, the company has confirmed that it’s going to stick by its guns, by making PhysX a free API that’s available to anyone.
 
Nvidia’s director of product PR for EMEA and India, Luciano Alibrandi, told Custom PC that ‘We are committed to an open PhysX platform that encourages innovation and participation,’ and added that Nvidia would be ‘open to talking with any GPU vendor about support for their architecture.’
 
As well as this, Alibrandi also promised that the free PhysX SDK would continue to be available to game developers. ‘We plan to continue supporting all key gaming platforms, including the PC and all next-gen consoles, with free PhysX binaries,’ said Alibrandi. He also added that Nvidia planned to make this a ‘continually improving set of tools in an open development platform that encourages leading-edge partners to extend the PhysX eco-system.’
 
Nvidia is currently working on implementing PhysX into its CUDA language, which is supported by all GeForce 8-series GPUs. When this is ready to go, Alibrandi said that owners of these GPUs will ‘simply need to download the CUDA PhysX drivers from Nvidia,’ and that ‘hardware acceleration will then be transparently supported for applications making use of the PhysX SDK.’
 
Nvidia plans to support PhysX in a number of ways, and Alibrandi says that these ‘could include both single and SLI based options.’ He also confirmed that Nvidia’s relationship with Havok is now over, saying that ‘we are 100 per cent focused on enabling CUDA-based GPUs to accelerate PhysX processing.’
 
If you’re one of the rare owners of a PhysX card, then you’ll be pleased to know that Alibrandi also confirmed that Nvidia would ‘continue to support the PhysX processor as demand dictates,’ although he said that CUDA-enabled GPUs would ‘outperform the PPU,’ Interestingly, when we asked if Nvidia would finally reveal the details of the inside of the PhysX chip, he replied: ‘Maybe.’ Ageia was very secretive about the inner workings of the PhysX chip, and we’d love to know what was inside it.
 
Either way, it looks as though there’s hope for AMD / ATI getting a bite of the GPU PhysX pie after all; the guys at AMD just need to decide whether they want it.
source : http://www.custompc.co.uk/news/602 [...] --ati.html
 


tout à fait logique. garder une api propriétaire ce serait la couler. de nombreux exemples sont là pour le confirmer. il n'y a que l'intemporalité et la standardisation qui marche.
bref une bonne décision si nvidia veut que le physx s'impose.
 

Sat45 a écrit :

Et en FR :whistle: ca me soule de prendre le temps de comprendre la vu le pavé :o


 
en gros le premeir message est pour dire que l'api physx sera libre
 
le deuxième message est là pour dire que les prochains gpu nvidia seront en 55nm, meme le G92 pour diminuer les couts

Message cité 1 fois
Message édité par dragonlore le 15-04-2008 à 20:17:48
mood
Publicité
Posté le 15-04-2008 à 20:16:26  profilanswer
 

n°6334694
sasuke87
Posté le 15-04-2008 à 20:17:53  profilanswer
 

je me demande comment AMD va réagir?  :D

n°6334933
Sat45
ÉcouTeSA
Posté le 15-04-2008 à 21:40:01  profilanswer
 

dragonlore a écrit :


tout à fait logique. garder une api propriétaire ce serait la couler. de nombreux exemples sont là pour le confirmer. il n'y a que l'intemporalité et la standardisation qui marche.
bref une bonne décision si nvidia veut que le physx s'impose.
 
en gros le premeir message est pour dire que l'api physx sera libre
 
le deuxième message est là pour dire que les prochains gpu nvidia seront en 55nm, meme le G92 pour diminuer les couts


 
Ah tiens un G92b ? :whistle:
 
Je sort un quote de mes mp pour le plaisir :D
 

Citation :


Posté le 29-02-2008 à 19:21:35  
 
Slt ;)  
 
Avant la vraie next-gen (G100/GT200 selon les rumeurs :o ), nVidia va sortir un G92b gravé en 55nm. ;)  


 
:whistle:


Message édité par Sat45 le 15-04-2008 à 21:42:17

---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6335002
marllt2
Posté le 15-04-2008 à 22:07:27  profilanswer
 

Bizzare, je crois que je connais l'expéditeur de ce MP. [:brainbugs]


Message édité par marllt2 le 15-04-2008 à 22:08:08
n°6335006
Sat45
ÉcouTeSA
Posté le 15-04-2008 à 22:08:22  profilanswer
 

Ah bon ? [:cupra]


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6335827
MacIntoc
tu lis une phrase formidable.
Posté le 16-04-2008 à 13:12:44  profilanswer
 

soufkad a écrit :

a part si tu compte faire un sli de GT200, je pense que ton sli 88GTX sera plus erformant qu'un GT200 avec 5 mois de profit

J'en doute très fortement :jap:

 

sasuke87>Je crois que nVidia a dit un truc du genre "Tous les concepteurs de GPU sont cordialement invité à discuter de l'intégration de PhysX a leur driver". Autrement dit, "Viendez ATI, on va s'le faire, ce con d'Intel" :D
J'espère qu'ATI suivra, ça devrait être intéressant.

Message cité 1 fois
Message édité par MacIntoc le 16-04-2008 à 13:19:38

---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°6336434
Neon67
in ctrl+s we trust
Posté le 16-04-2008 à 18:33:53  profilanswer
 

Ils ont peur de larabee ? (bien que ca soit pas si bien que ca)

n°6336643
Geniefou
Génie le jour, fou la nuit
Posté le 16-04-2008 à 20:32:50  profilanswer
 

MacIntoc a écrit :

J'en doute très fortement :jap:  
 
sasuke87>Je crois que nVidia a dit un truc du genre "Tous les concepteurs de GPU sont cordialement invité à discuter de l'intégration de PhysX a leur driver". Autrement dit, "Viendez ATI, on va s'le faire, ce con d'Intel" :D
J'espère qu'ATI suivra, ça devrait être intéressant.


 
C'est bien la concurrence  :D mais je trouve que Intel, Nvidia et Amd/Ati font un jeu de gamins,
il m'a fait ça alors je lui fais ça, et puis encore ça :pfff:

n°6336660
MacIntoc
tu lis une phrase formidable.
Posté le 16-04-2008 à 20:39:11  profilanswer
 

Neon67>C'est surtout Nehalem/Havoc, je penses.
 
Geniefou>Euh... c'est le comportement normalement de l'humanité dans son ensemble, a quelques exception prêt. Exemple d'actualité, la Chine massacre du Tibétain, la France éteint la torche olympique, la chine lance un boycotte sur les produit français,...


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°6336682
Geniefou
Génie le jour, fou la nuit
Posté le 16-04-2008 à 20:50:50  profilanswer
 

MacIntoc a écrit :

Neon67>C'est surtout Nehalem/Havoc, je penses.
 
Geniefou>Euh... c'est le comportement normalement de l'humanité dans son ensemble, a quelques exception prêt. Exemple d'actualité, la Chine massacre du Tibétain, la France éteint la torche olympique, la chine lance un boycotte sur les produit français,...


 
Oui c'est sûr qu eça sera toujours comme celà  :p  
 
mais je trouve qu'ils pourraient faire des consessions, pas totalement mains dans la main, mais faire certaines choses en relation peut-être pas un SLI sur un chipset intel mais développer des liens (c'est mon avis) [:spamafote]  
 

n°6336720
soufkad
Posté le 16-04-2008 à 21:11:48  profilanswer
 

elle est superbe celle la :
Le ministre des affaires extérieures dire à son homologue chinois : "Notre objectif, est d'établire un SLI, et pour cela nous fournissons le pont"
 
:D


---------------
Evga680i | E6700@3,5 | 4Go800@933 | SLI 8800GTX | RAID0 RAPTORX150 | 400Go SATAII |Audigy4Pro | Tagan900W | CRT21" |
n°6337248
marllt2
Posté le 17-04-2008 à 05:32:55  profilanswer
 

http://www.fudzilla.com/index.php? [...] 8&Itemid=1
 
2x 1G transistors en 65nm ça va pas être trop possible quand même. :o
 
 
-------------------------------------------------------------------------------
 
http://www.dailytech.com/NVIDIA+AM [...] e11451.htm
 
Le GT200 a été taped out le mois dernier, et est en avance sur les roadmap qui l'annoncaient pour l'automne 2008. La sortie devrait intervenir durant l'été, et il sera visible au Computex.  
 
Le gain de perf devrait être important par rapport au G92. Et bizzarement, le nom GF 9900 n'est pas écarté.
 
M'enfin comme je l'ai déjà dit, le seul truc dont on est sûr, c'est qu'il y aura un bus 512 bits GDDR3. ;)  
 
 
-------------------------------------------------------------------------------
 
http://www.overclockers.ru/hardnews/28879.shtml
 
En gros:  GT200 +/- 2 fois plus rapide que le G80. Sortie pour le Q3.
 
240 SP (24 x 10 clusters). 80 TMU (8 x 10 clusters). 32 ROP. GDDR3 2200 512bit. DX10.1 et AA made by shaders comme sur le RV670.

Message cité 1 fois
Message édité par marllt2 le 17-04-2008 à 06:13:05
n°6337352
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 17-04-2008 à 09:32:35  profilanswer
 

bien bien bien... Vivement qu'on ait des tests dans crysis, tout à fond !


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6337371
vodnok
Le meilleur reste à venir
Posté le 17-04-2008 à 09:48:57  profilanswer
 

Et le prochain moteur Dunia qui à l'air.... de bien consommer des ressources. Quoique, on pourrait avoir un surprise comme pour COD 4

n°6337412
dragonlore
Posté le 17-04-2008 à 10:21:12  profilanswer
 

s'il s'avère si puissant ce serait idiot de le nommer 9900. vaut mieux bien le démarquer des 9800 sinon ça risque de paumer nombre de consommateurs. s'ils gardent le nom 9900 alors là je comprendrais plus rien à leur technique marketing.
sinon pour la mémoire je sens bien la GDDR5 sur le HDG et de la ddr3 sur le milieu bas de gamme.
 
après COD 4 est pas gourmand et c'est normal on est plus dans des couloirs que des environnements ouverts et donc c'est forcément moins gourmands. de plus le jeu est moins beau que crysis donc au final c'est normal que ça soit moins gourmands.  
 
enfi nj'espère que dans les jeux dx10, ce GT200 sera plus de 2 fois plus perf que le G80 (8800 ultra) vu les maigres perfs des cartes actuels dans de nombreux jeux dx10 (call of juarez, crysis, etc...)

Message cité 2 fois
Message édité par dragonlore le 17-04-2008 à 10:25:17
n°6337415
Ill Nino
Love
Posté le 17-04-2008 à 10:24:43  profilanswer
 

Ouai, d'autant que COD4, c'est avant tout "beau" par du post-processing abusif contrairement a Crysis qui lui met a genoux les cg par des textures enormes, des animations des decors a foison etc...etc...


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6337438
vodnok
Le meilleur reste à venir
Posté le 17-04-2008 à 10:45:37  profilanswer
 

dragonlore a écrit :

s'il s'avère si puissant ce serait idiot de le nommer 9900. vaut mieux bien le démarquer des 9800 sinon ça risque de paumer nombre de consommateurs. s'ils gardent le nom 9900 alors là je comprendrais plus rien à leur technique marketing.
sinon pour la mémoire je sens bien la GDDR5 sur le HDG et de la ddr3 sur le milieu bas de gamme.
 
après COD 4 est pas gourmand et c'est normal on est plus dans des couloirs que des environnements ouverts et donc c'est forcément moins gourmands. de plus le jeu est moins beau que crysis donc au final c'est normal que ça soit moins gourmands.  
 
enfi nj'espère que dans les jeux dx10, ce GT200 sera plus de 2 fois plus perf que le G80 (8800 ultra) vu les maigres perfs des cartes actuels dans de nombreux jeux dx10 (call of juarez, crysis, etc...)


 
 
Bah Nvidia est sa polotique de naming. Ils ont bien sortir des G92 avec le nom 8800. Le GT200 sera plus de 2X perf que le G92 appremment.

n°6337450
Ill Nino
Love
Posté le 17-04-2008 à 10:50:31  profilanswer
 

Ouai, faut clairement plus se fier aux noms commerciaux. :/


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6337644
Sat45
ÉcouTeSA
Posté le 17-04-2008 à 12:17:12  profilanswer
 

vodnok a écrit :


 
 
Bah Nvidia est sa polotique de naming. Ils ont bien sortir des G92 avec le nom 8800 9800. Le GT200 sera plus de 2X perf que le G92 appremment.


 
Le G92 n'est pour ainsi dire quasiment qu'un die shrink avec un bus castré... il aurai ete plus logique de ne les nommer que 8800, voir 8900. ou alors garder une appelation G8x pour le GPU :jap:


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6337656
MacIntoc
tu lis une phrase formidable.
Posté le 17-04-2008 à 12:24:04  profilanswer
 

marllt2 a écrit :


http://www.overclockers.ru/hardnews/28879.shtml
 
En gros:  GT200 +/- 2 fois plus rapide que le G80. Sortie pour le Q3.
 
240 SP (24 x 10 clusters). 80 TMU (8 x 10 clusters). 32 ROP. GDDR3 2200 512bit. DX10.1 et AA made by shaders comme sur le RV670.


ROPs buggés aussi :sarcastic:  


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°6338506
sasuke87
Posté le 17-04-2008 à 19:06:16  profilanswer
 

MacIntoc a écrit :


ROPs buggés aussi :sarcastic:  


 
+1  :whistle:  
 
hmmm si c'est effectivment le cas, faudra voir l'impact sur les perfs.

n°6338619
dragonlore
Posté le 17-04-2008 à 20:00:02  profilanswer
 

vodnok a écrit :


 
 
Bah Nvidia est sa polotique de naming. Ils ont bien sortir des G92 avec le nom 8800. Le GT200 sera plus de 2X perf que le G92 appremment.


ah ça avec cette série, c'est sur que les noms c'est vraiment qu'importe le nain. du G92 en 8xxx et 9xxx alors que c'est exactement les memes puces sauf les fréquences qui changent. bref des fois le marketing n'a aucun logique ou alors elle dépasse l'entendement
 
pour les rops j'espère qu'ils ne seront pas buggués, c'est tout ce que je souhaite


Message édité par dragonlore le 17-04-2008 à 20:00:29
n°6338622
Sat45
ÉcouTeSA
Posté le 17-04-2008 à 20:01:48  profilanswer
 

Meilleure decodage HD, bus et mémoire castré, ce n'est pas QUE un die shrink... mais je suis tout a fais d'accord sur le fait que le G92 ne merite pas son appelation de 8800 ni de 9800. La logique aurai été 8900 :jap:


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6338630
dragonlore
Posté le 17-04-2008 à 20:05:06  profilanswer
 

Sat45 a écrit :

Meilleure decodage HD, bus et mémoire castré, ce n'est pas QUE un die shrink... mais je suis tout a fais d'accord sur le fait que le G92 ne merite pas son appelation de 8800 ni de 9800. La logique aurai été 8900 :jap:


+100


Message édité par dragonlore le 17-04-2008 à 20:05:14
n°6338661
Sat45
ÉcouTeSA
Posté le 17-04-2008 à 20:24:36  profilanswer
 

cela dit, on est encore un poil HS :whistle:


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6338952
marllt2
Posté le 17-04-2008 à 23:10:34  profilanswer
 

dragonlore a écrit :

sinon pour la mémoire je sens bien la GDDR5 sur le HDG et de la ddr3 sur le milieu bas de gamme


Non. :o

n°6339094
marllt2
Posté le 18-04-2008 à 03:41:30  profilanswer
 

http://en.expreview.com/2008/04/17 [...] /#more-336
 

Citation :

The reason nVidia won’t support DX10.1 is because they can’t.. Not because they don’t want to. That’s the reason DX10 was actually split in DX10 and DX10.1 in the frist place. nVidia tried to implement all the features, but they couldn’t. That would mean that the 8xxx series would be released under DX9c even though it had more features and ofcourse, they didnt want that to happen, so they had an agreement with Microsoft to “split” it into DX10 and DX10.1, so they would have more time to implement the remaining features.  
 
But unfortunately for nVidia, they still can’t get it to work properly. So now they are talking big about DX11. Remember all that MS-talk that DX10 would increase performance so much? And remember how everyone was disappointed with the benchmarks? And now see what happens when the first DX10.1 game is out.. It’s faster and has better image quality. So blame nVidia for setting you up in buying a DX10 card instead of a DX10.1 card and making you believe DX10.1 doesn’t matter, while it was the main performance increase in the first place….

Vrai ou pas ?  :??:

n°6339147
Ill Nino
Love
Posté le 18-04-2008 à 08:39:29  profilanswer
 

Tain ca serait gros quand meme.


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6339156
vodnok
Le meilleur reste à venir
Posté le 18-04-2008 à 08:49:43  profilanswer
 

J'y crois pas. Quel est l'interet de crosoft à faire cela ? Surtout qu'en plus à cause de leur foutu DX10, Vista n'apportait rien dans les jeux mise à part moins de FPS.
 
Quelqu'un a un lien sur les différences entre DX10 et DX10.1 ?

n°6339177
Ill Nino
Love
Posté le 18-04-2008 à 09:17:07  profilanswer
 

C'est pas une question d'interet d'apres le texte, c'est une question qu'ils n'en sont pas capable. Grosse difference.


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6339197
vodnok
Le meilleur reste à venir
Posté le 18-04-2008 à 09:38:33  profilanswer
 

Ill Nino a écrit :

C'est pas une question d'interet d'apres le texte, c'est une question qu'ils n'en sont pas capable. Grosse difference.


 

Citation :

they had an agreement with Microsoft to “split” it into DX10 and DX10.1


 
Oui ça j'ai compris mais pourquoi Crosoft leur ferait ce cadeau ? Quoi tu peux pas faire de DX10.1. Ok pas de problème j'ai supprimer ces options d'optimisation et c'est parapètres par défaut de qualité sur DX10 qui est un des atouts marketing de mon prochain OS.  
 
 
Spa logique.... sauf si Nvidia a payer crosoft. Mais vu qu'Intel et Crosoft sont main dans le main depuis toujours et qu'Nvidia est le rivial d'Intel... Sans compter que la CG dans un xbox360 c'est made in ATI.  

n°6339206
Ill Nino
Love
Posté le 18-04-2008 à 09:47:16  profilanswer
 

vodnok a écrit :


 

Citation :

they had an agreement with Microsoft to “split” it into DX10 and DX10.1


 
Oui ça j'ai compris mais pourquoi Crosoft leur ferait ce cadeau ? Quoi tu peux pas faire de DX10.1. Ok pas de problème j'ai supprimer ces options d'optimisation et c'est parapètres par défaut de qualité sur DX10 qui est un des atouts marketing de mon prochain OS.  
 
 
Spa logique.... sauf si Nvidia a payer crosoft. Mais vu qu'Intel et Crosoft sont main dans le main depuis toujours et qu'Nvidia est le rivial d'Intel... Sans compter que la CG dans un xbox360 c'est made in ATI.  


J'pense que c'etait plutot "Ah tu peux pas implémenter Dx10? Ok, on va faire un pipot avec Dx10.1...". Dx10 existe quand meme, mais sous forme castrée. Tout le monde est content...sauf le consommateur. Mais bon, ca leur est bien egal. :spamafote:


---------------
Faut qu'on court comme des lions, des tigres et des ours!
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  ..  833  834  835  836  837  838

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Intel Core 2 Duo E4700[Topic Unique] Silverstone FT01
[Topic Unique] Bluetooth / Bluesoleil / test de dongle des membres[Topic unique] Nvidia 9600 GT
Plus de sujets relatifs à : [Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR