Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2592 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  40  41  42  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7032341
olioops
Si jeune et déjà mabuse.
Posté le 11-07-2009 à 18:36:49  profilanswer
 

Reprise du message précédent :
 
c'est sûr ! je comprend pas l'importance que certain attribut au choix ou non choix de NVvidia vis à vis de DX10.1  :??: franchement ... ça change rien pour le joueur lambda , et rien n'est perdu puisque bientôt dispo sous DX11 !!!?


---------------
Ne pas confondre gisement épuisé et mine de rien !
mood
Publicité
Posté le 11-07-2009 à 18:36:49  profilanswer
 

n°7032347
Profil sup​primé
Posté le 11-07-2009 à 18:43:21  answer
 

Wirmish > si je comprends bien, ça n'a aucun rapport avec l'OS :o

n°7032358
vanhoenack​er
Posté le 11-07-2009 à 18:53:28  profilanswer
 

olioops a écrit :


c'est sûr ! je comprend pas l'importance que certain attribut au choix ou non choix de NVvidia vis à vis de DX10.1  :??: franchement ... ça change rien pour le joueur lambda , et rien n'est perdu puisque bientôt dispo sous DX11 !!!?


imagines un instant que ta carte supporte DX10.1, tu ne trouverais pas dommage de ne pas en profiter ?, tout simplement  :jap:

Message cité 3 fois
Message édité par vanhoenacker le 11-07-2009 à 18:53:48

---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°7032379
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 11-07-2009 à 19:20:59  profilanswer
 


Bien en fait, même sous DOS on pourrait contrôler directement le GPU et utiliser ses fonctions, pour autant qu'on puisse mettre la main sur le code asm nécessaire pour y arriver. La somme de ces fonctions asm serait en fait un driver. Je sais pas si c'est asser clair.

n°7032380
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 11-07-2009 à 19:22:02  profilanswer
 

vanhoenacker a écrit :


imagines un instant que ta carte supporte DX10.1, tu ne trouverais pas dommage de ne pas en profiter ?, tout simplement  :jap:


 :jap:

n°7032406
Profil sup​primé
Posté le 11-07-2009 à 19:54:06  answer
 

Wirmish > je vois pas le rapport avec le DOS non +
D'ici quelques temps le problème ne se posera même plus :spamafote:


Message édité par Profil supprimé le 11-07-2009 à 19:54:22
n°7032414
olioops
Si jeune et déjà mabuse.
Posté le 11-07-2009 à 20:06:56  profilanswer
 

vanhoenacker a écrit :


imagines un instant que ta carte supporte DX10.1, tu ne trouverais pas dommage de ne pas en profiter ?, tout simplement  :jap:


Vu sous cet angle , c'est vrai que ça peut agacer  [:lucykc] mais c'est pas comme si je me sentais privé d'un truc important , quelques FPS c'est pas comme une grosse amélioration visuelle ! pendant le même temps je décrouvrait l'ambiance occlusion sur mon matos  [:madness44] pour les reste j'attend une chtite claque avec de nouveaux effets sympa sous DX11 .... et qui fonctionne bien sous Seven 64Bits ( ça c'est encore une autre affaire  :lol: ).

Message cité 1 fois
Message édité par olioops le 11-07-2009 à 20:07:44

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°7032424
vanhoenack​er
Posté le 11-07-2009 à 20:14:29  profilanswer
 

olioops a écrit :


Vu sous cet angle , c'est vrai que ça peut agacer  [:lucykc] mais c'est pas comme si je me sentais privé d'un truc important , quelques FPS c'est pas comme une grosse amélioration visuelle ! pendant le même temps je décrouvrait l'ambiance occlusion sur mon matos  [:madness44] pour les reste j'attend une chtite claque avec de nouveaux effets sympa sous DX11 .... et qui fonctionne bien sous Seven 64Bits ( ça c'est encore une autre affaire  :lol: ).


pour ma moitié 4870, pas pour l'autre  :D, ça change rien au fait que c'est nul à ch...
pour les effets sympas sous DX11 mets un cierge à Saint Vidia et ne t'inquietes pas pour 7, si ça passe sous Vista ça passera aussi  :jap:
 
ps: j'ai aussi testé l'occlusion des Fps sur ma GTX260+, c'est efficace


Message édité par vanhoenacker le 11-07-2009 à 20:15:57

---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°7032437
olioops
Si jeune et déjà mabuse.
Posté le 11-07-2009 à 20:36:59  profilanswer
 

RhÔoo  :o  jamais content ... les effets visuels c'est rarement gratuit ... sur " The Chronicles of Riddick - Assault on Dark Athena" et " Fallout 3 " c'était cool !!! et une fois enlevé ça manque  [:vanadium]


Message édité par olioops le 11-07-2009 à 20:37:47

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°7032491
Activation
21:9 kill Surround Gaming
Posté le 11-07-2009 à 21:36:50  profilanswer
 

vanhoenacker a écrit :


imagines un instant que ta carte supporte DX10.1, tu ne trouverais pas dommage de ne pas en profiter ?, tout simplement  :jap:


 
dit plutot ça aux dev qui sortent des jeux qui volent pas plus haut que dx9
 
au moins avec dx11 les devs semble un peu plus vouloir bouger leur cul
 
et puis d un autre point de vu bien sur que les devs on d abord plus accroché les wagons de nvidia
 
HD2900 ça vous rappel qqchose
 :pfff:
 
quand à la HD3870 dx10.1 quel fusse c était plutot une bouse dès qu on activait l AA
 
y en a qu on la mémoire courte pour ne se rappeler que des HD4800 qui n existe que depuis 1 an quand dx10.x existe lui depuis 2,5ans

Message cité 1 fois
Message édité par Activation le 11-07-2009 à 21:39:27
mood
Publicité
Posté le 11-07-2009 à 21:36:50  profilanswer
 

n°7032509
vanhoenack​er
Posté le 11-07-2009 à 21:52:28  profilanswer
 

toujours aimable, mais je suis d'accords avec toi sur un point, c'est déjà ça  ;)


---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°7032511
Halchi
Posté le 11-07-2009 à 21:52:58  profilanswer
 

le 40nm va t il permettre aux cartes de consommer moins ?
car les nouvelles cartes ca devient affolant les alimentations qu'ils leur faut maintenant

n°7032693
marllt2
Posté le 12-07-2009 à 01:07:03  profilanswer
 

Gigathlon a écrit :

Y'a déjà un truc qui me chiffonne, c'est que la tof du gpu est clairement toshopée... [:gratgrat]


Le test est un fake, mais le GT212 a existé.
 

kaiser52 a écrit :

A l'heure actuel, DX10.1 ne sert strictement à rien, quand on vois le peux de features de DX10 utilisé dans les jeux, qu'en est-il des features supplémentaire de DX10.1 ?


Et le gather4, qui gagnerait à être supporté par nV pour accélérer l'ambient occlusion ?
 
 

kaiser52 a écrit :

les extensions DX10.1 sont juste de quoi contenter les geeks (J'entends par la le non grand public), a l'avènement de DX11 (qui de part son lifting aura plus d'effet), DX10.1 sera passé à la trappe, mais le parc sera apte a l'exploiter, et il ne sera donc plus utilisé.


Sauf que le support par nV de DX11 inclus aussi le support de DX10.1. Bref les jeux DX10.1 actuels profiteront de ces instructions.
 
Donc pour un studio, faire un mode DX10 au lieu de DX10.1 ne peut être motivé que par le programme TWIMTBP .
 
 

Activation a écrit :

dit plutot ça aux dev qui sortent des jeux qui volent pas plus haut que dx9


Arma 2 et GTA4 par exemple ?


Message édité par marllt2 le 12-07-2009 à 01:50:31
n°7032804
Activation
21:9 kill Surround Gaming
Posté le 12-07-2009 à 10:54:22  profilanswer
 

Halchi a écrit :

le 40nm va t il permettre aux cartes de consommer moins ?
car les nouvelles cartes ca devient affolant les alimentations qu'ils leur faut maintenant


 
 
nop car à peine on consomme moins qu on en met plus pour avoir plus de puissance
 
on va plutot dire que ça va consommer autant mais pour en avoir plus
 
par contre ça serait bien qu'en idle ça aille à la baisse
 
car en idle = desktop/aero
 
donc si par exemple le NV I/O lui aussi se voit réduit  
 
car je sais pas pourquoi j ai l impression que dans le GT300 le nv I/O va réintégré le gpu pour réduire les cout de conception de carte monogpu
faut dire que quand ils ont été assez stupide pour foutre 2 NV I/O sur les gtx295 le fait qu il soit distinct du GPU ne sert vraiment plus à rien... autant le remettre dedant si c est pour faire un truc aussi débile
 
en mode idle rien que pour une conso moindre de cette partie I/O ça devrait moins consommé... en tout cas c'est tout ce qu on serait en droit d attendre pour le mode idle du GT300
 
en plus sauf erreur nvidia veut aller vers plus de processus traité par un même pipeline shader donc en idle moins de pipeline shader actif
 
et vu que dx11 mais plus à parti le multithread
 
ça devrait consommé moins au niveau cpu car le rendement energetique est censé être meilleur si le drivers profite de tout les core du cpu plutot que d'un seul "blindé" de requète pour cette tache
et ça doit être d une des raison pour laquelle aero devrait tiré parti de dx10.1  
le fait que aero tire parti du multithread (c est tout autant avantageux si mit à profit sur notebook)
 
car bon aero en dx9 sur vista ça m'a toujours fait marré JAUNE


Message édité par Activation le 12-07-2009 à 10:56:04
n°7032813
vanhoenack​er
Posté le 12-07-2009 à 11:12:51  profilanswer
 

reste à savoir si le mode Idle 2D en sera un vraiment efficace d'origine, notamment à cause de la GDDR5 grosse consommatrice
si le fréquences 2D ne sont pas fortement baissées ça aboutira à une chauffe et consommation inutile comme sur 4870
par défaut la 2D étant sur celle-ci est calée à 500/900 alors qu'après optimisation elle peut descendre à 100/200 : avec un gain en T° et consommation très important

Message cité 2 fois
Message édité par vanhoenacker le 12-07-2009 à 11:28:46

---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°7032826
Activation
21:9 kill Surround Gaming
Posté le 12-07-2009 à 11:39:41  profilanswer
 

vanhoenacker a écrit :

reste à savoir si le mode Idle 2D en sera un vraiment efficace d'origine, notamment à cause de la GDDR5 grosse consommatrice
si le fréquences 2D ne sont pas fortement baissées ça aboutira à une chauffe et consommation inutile comme sur 4870
par défaut la 2D étant sur celle-ci est calée à 500/900 alors qu'après optimisation elle peut descendre à 100/200 : avec un gain en T° et consommation très important


 
 
ça depend comment la GDDR5 est interfacé
 
on prend par exemple le GT200 actuel
 
on pourrait presque imaginé qu'ne idle par exemple sur un bus 448bits et 14 puces mémoire  
des rops se désactive et que du coup en idle le bus se bride à 256bits et 8 puces mémoire soit 512Mo exploitable en idle ce qui serait déjà pas mal
 
on pourrais meme voir un mode "super idle"
ou du coup seulement 128bits 4puce mémoire active soit 256Mo
 
techniquement avec l architecture rops actuel pour moi c était faisable (mais concretement ptet pas utile avec de la GDDR3)
 
à voir sur le GT300 déjà l architecture

n°7033564
marllt2
Posté le 13-07-2009 à 03:41:30  profilanswer
 

vanhoenacker a écrit :

reste à savoir si le mode Idle 2D en sera un vraiment efficace d'origine, notamment à cause de la GDDR5 grosse consommatrice


Contrôleur GDDR5 plutôt.


Message édité par marllt2 le 13-07-2009 à 03:41:36
n°7033715
bjone
Insert booze to continue
Posté le 13-07-2009 à 11:41:59  profilanswer
 

vanhoenacker a écrit :


donc en gros pour en revenir au sujet, si DX10.1 n'a pas "pris", ça n'est pas, comme le disent beaucoups, que c'est une daube mais tout simplement qu'il n'est pas exploité par Nvidia et la plupart des concepteurs  :D  
ais-je bien résumé ?  :jap:


 
Comme toute feature. Les features D3D10.1 sont relativement -pertinentes- (sinon Microsoft ne les auraient pas normalisées dans le D3D).
Après faut voir si tu as en besoin.
 
Y'a des jeux dont les devs ont été en forte proximité avec nVidia et qui ont pourtant fait un codepath D3D10.1.


Message édité par bjone le 13-07-2009 à 11:49:43
n°7034691
kaiser52
Posté le 14-07-2009 à 11:26:58  profilanswer
 

Euh,
 
Je dis juste que DX10.1 sert à rien car il ne va pas tarder à y avoir DX11, les devs vont faire des jeux DX11, pour l'image du dit "jeux", pour celle de la boite, et pour la simplicité de dev, et les gens vont acheter des cartes DX11 « Car ca le fait ».
 
Et qu’avec des "SI" on peut changer le monde.
 
La faute est à amputé a tous les acteurs du marché ( nVIDIA, carte trop puissante, ATI, carte pas assez perf, Crosoft, pas capable de faire respecter ca norme et leur console DX9.5 qui n'aide pas du tout ).,  
Il fallait bien la jouer au début de DX10, et c’est nVIDIA qui a gagné. . .


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7034719
Activation
21:9 kill Surround Gaming
Posté le 14-07-2009 à 11:56:04  profilanswer
 

c est clair que maintenant dx10.1 on s en tape
 
ça fait juste quoi... 9mois qu on a les feature dx11 en beta dans nos pack de mise à jour directx et dans le sdk
 
alors dx10.1  [:vince_astuce]  
 
qui plus est developper en dx11 c est s affranchir de la compatibilité dx9/10.x vu que c est microsoft qui vous la donne
y a juste à mettre à jour windows (meme pas si vous etes sous vista)
et là encore microsoft semble vouloir faire un effort financier sur le prix de ses licences windows

Message cité 1 fois
Message édité par Activation le 14-07-2009 à 12:00:57
n°7034727
aliss
Rhyme the Rhyme Well
Posté le 14-07-2009 à 12:00:04  profilanswer
 

Les cartes dx10.1 pourront bénéficier des features dont elles sont capables sur les applis dx11.
 
Du moins c'est ce que semblait dire Tridam dans son cours article à ce propos.
 
Avec DirectX 10, Microsoft avait fait table rase du passé, ce qui implique qu'un moteur DirectX 10 ne pouvait supporter que les cartes graphiques DirectX 10. Avec DirectX 11, les cartes graphiques DX10.1, DX10 et DX9 pourront être utilisées, en étant bien entendu limitées aux fonctions qu'elles supportent et via un tout nouveau driver.
 
http://www.hardware.fr/html/news/?date=24-10-2008#9972
 
Ce qui fait que je ne vois pas en quoi la gestion de dx10.1 peut paraitre useless.
 
C'est d'ailleurs tellement inutile que nvidia semble vouloir s'y mettre.
 

n°7034730
Activation
21:9 kill Surround Gaming
Posté le 14-07-2009 à 12:03:42  profilanswer
 

aliss a écrit :

Les cartes dx10.1 pourront bénéficier des features dont elles sont capables sur les applis dx11.
 
Du moins c'est ce que semblait dire Tridam dans son cours article à ce propos.
 
Avec DirectX 10, Microsoft avait fait table rase du passé, ce qui implique qu'un moteur DirectX 10 ne pouvait supporter que les cartes graphiques DirectX 10. Avec DirectX 11, les cartes graphiques DX10.1, DX10 et DX9 pourront être utilisées, en étant bien entendu limitées aux fonctions qu'elles supportent et via un tout nouveau driver.
 
http://www.hardware.fr/html/news/?date=24-10-2008#9972
 
Ce qui fait que je ne vois pas en quoi la gestion de dx10.1 peut paraitre useless.
 
C'est d'ailleurs tellement inutile que nvidia semble vouloir s'y mettre.
 


 
moi je parle en terme developpement/soft, je parle pas en terme hardware
 
si nvidia sort enfin du dx10.1 sur son bas et milieu de gamme c est surement que sa nouvelle architecture sur GT300 dx11 n est surement pas réalisable pour le moment sur un gpu moindre

n°7034820
Profil sup​primé
Posté le 14-07-2009 à 13:22:17  answer
 

Pas réalisable, c'est vite dit ^^

n°7034831
mikestewar​t
Air Roll Spinnin'
Posté le 14-07-2009 à 13:33:33  profilanswer
 

Avec des "surement", on peux tout dire aussi... :/

 

Parlant de milieu de gamme DX10.1, on a des infos sur le GT214 ?  :whistle:

Message cité 1 fois
Message édité par mikestewart le 14-07-2009 à 13:34:14
n°7034842
Activation
21:9 kill Surround Gaming
Posté le 14-07-2009 à 13:43:50  profilanswer
 


 
le "pour le moment" il est pas la pour les chiens  :o

n°7034843
Profil sup​primé
Posté le 14-07-2009 à 13:44:12  answer
 

Je suis un chien :cry:
:d!
 

Spoiler :

BOT_mod :ange:

Message cité 1 fois
Message édité par Profil supprimé le 14-07-2009 à 13:44:38
n°7034848
Activation
21:9 kill Surround Gaming
Posté le 14-07-2009 à 13:46:13  profilanswer
 


 
nonos ? [:hibride]


Message édité par Activation le 14-07-2009 à 13:46:39
n°7034860
Profil sup​primé
Posté le 14-07-2009 à 13:56:12  answer
 

:lol:
 

Spoiler :

on patiente comme on peut [:voltazeplon]


Message édité par Profil supprimé le 14-07-2009 à 13:57:26
n°7035015
kaiser52
Posté le 14-07-2009 à 16:17:34  profilanswer
 

aliss a écrit :


Ce qui fait que je ne vois pas en quoi la gestion de dx10.1 peut paraitre useless.


 
En lui même DX10.1 n'est pas mal, mais maintenant tous le monde s'en fout ( dans le monde du dev ).
Et pour la pluspart des gens, changé de Direct3D = changé de hardware, donc le terme compatibilité ils ne connaissent pas, donc pas la peine d'acheter un jeux DX11 sans carte DX11, donc jeux PC qui se casse la gueule ...  :pt1cable: heu je parts un peux loin là !
 

aliss a écrit :


C'est d'ailleurs tellement inutile que nvidia semble vouloir s'y mettre.


 
C'est juste pour les actionnaires histoire de dire, on a aussi notre DX10.1, on à pas sauté le pas DX10 DX11.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7035036
vanhoenack​er
Posté le 14-07-2009 à 17:20:32  profilanswer
 

au final le principal c'est que ça profite à tout le monde pour pas trop cher, XP/DX9 ça sent quand même bien plus que la poussière  :jap:


---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°7035053
Profil sup​primé
Posté le 14-07-2009 à 17:33:22  answer
 

Table rase de tous les bons jeux sortis en Dx9, & + vite que ça [:sarkomain]  
Non mais :hello:

n°7035109
vanhoenack​er
Posté le 14-07-2009 à 18:05:12  profilanswer
 


et les jeux sous Dos pour ceux qui étaient en age d'y jouer à leur sortie  :whistle:
(âmes sensibles s'abstenir : séquence "émotion" )


Message édité par vanhoenacker le 14-07-2009 à 18:06:40

---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°7035175
dragonlore
Posté le 14-07-2009 à 19:00:23  profilanswer
 


il a quand même encore même avec le sp2 certaines tares que n'a pas XP, les possesseurs de CRT comprendront et les autres aussi mais pas sur les mêmes points..

n°7035228
windowsfas​hion
Posté le 14-07-2009 à 19:49:28  profilanswer
 

glopp a écrit :

Desole les gens,  je pensais pas creer une telle polemique...


 
glopp pourrait-il répondre à mon message privé.

n°7035462
marllt2
Posté le 15-07-2009 à 00:04:22  profilanswer
 

Activation a écrit :

qui plus est developper en dx11 c est s affranchir de la compatibilité dx9/10.x vu que c est microsoft qui vous la donne


Ca ne permet pas de faire tourner les jeux sur XP.
 
Et pour faire marcher un jeu DX11 sur une carte DX9 sur Seven, il faut des nouveaux drivers AMD et nVidia pour leurs X1900 et GF 7000. Vont-ils le faire... ?
 

mikestewart a écrit :

Avec des "surement", on peux tout dire aussi... :/
 
Parlant de milieu de gamme DX10.1, on a des infos sur le GT214 ?  :whistle:


GT214/GT215 non, pas de news.
 

kaiser52 a écrit :

Et pour la pluspart des gens, changé de Direct3D = changé de hardware, donc le terme compatibilité ils ne connaissent pas, donc pas la peine d'acheter un jeux DX11 sans carte DX11,


Genre quelqu'un qui veut jouer à Dirt2 va jetter sa GTX 285 ?
 

kaiser52 a écrit :

C'est juste pour les actionnaires histoire de dire, on a aussi notre DX10.1, on à pas sauté le pas DX10 DX11.


A ses actionnaires, nVidia a dit il y a 2 mois (sur une question à propos du GT300) que sa gamme était parfaite et qu'il n'y avait pas besoin de parler de produits non annoncés. Donc pas non plus besoin de parler de GPU DX10.1 annoncés par la suite au Computex.
 
Par contre nV a bien dit qu'ils "rampaient des puces 40nm plus que quiconque dans l'industrie".
 
Donc non, ce n'est pas pour les actionnaires qu'ils lancent des GPU DX10.1.

Message cité 2 fois
Message édité par marllt2 le 15-07-2009 à 00:04:39
n°7035694
dragonlore
Posté le 15-07-2009 à 11:00:02  profilanswer
 
n°7035721
mikestewar​t
Air Roll Spinnin'
Posté le 15-07-2009 à 11:23:55  profilanswer
 

C'est moi où AMD se moque d'Nvidia et de son occlusion ambiante sur matos DX10.0 ?  :whistle:

Message cité 1 fois
Message édité par mikestewart le 15-07-2009 à 12:14:33
n°7036011
poiuytr
\o/
Posté le 15-07-2009 à 14:41:59  profilanswer
 

marllt2 a écrit :

Par contre nV a bien dit qu'ils "rampaient des puces 40nm plus que quiconque dans l'industrie".


"rampaient" des puces 40nm
Pas compris le sens de ce verbe. :??:

n°7036033
Profil sup​primé
Posté le 15-07-2009 à 14:50:03  answer
 

Ils prennent les gpu et ils les musclent en leur faisant faire un parcours commando avec une partie rampage sous barbelé.
 
http://hfr-rehost.net/preview/jdb.marine.defense.gouv.fr/public/jda/Martinique/Ramper_sous_les_barbel_s.jpg

n°7036251
kaiser52
Posté le 15-07-2009 à 17:20:37  profilanswer
 

marllt2 a écrit :


Genre quelqu'un qui veut jouer à Dirt2 va jetter sa GTX 285 ?


 
Je parle du grand public. Et oui y'en a qui seraient assez bête pour jeter une GTX 285 !
 

marllt2 a écrit :


A ses actionnaires, nVidia a dit il y a 2 mois (sur une question à propos du GT300) que sa gamme était parfaite et qu'il n'y avait pas besoin de parler de produits non annoncés. Donc pas non plus besoin de parler de GPU DX10.1 annoncés par la suite au Computex.
 
Par contre nV a bien dit qu'ils "rampaient des puces 40nm plus que quiconque dans l'industrie".
 
Donc non, ce n'est pas pour les actionnaires qu'ils lancent des GPU DX10.1.


 
Je peux pas te dire, je ne suis pas actionnaire majoritaire de nVIDIA !
Donc c'est par ce que le GT300 est comme le GT200, non déclinable.
 

mikestewart a écrit :

C'est moi où AMD se moque d'Nvidia et de son occlusion ambiante sur matos DX10.0 ?  :whistle:


 
nVIDIA a plus de mérite a proposer l'ambiant occlusion sur du matos DX10.0 comme tu dis, mais sur une bonne tripoté de softs, comparé a utiliser une API Crosoft pour etre compatible seulement avec les nouveaux softs.
Alors que nVIDIA va garder cette ca version pour les anciens jeux qui ne le supportent pas, et passé par l'API Crosoft pour les nouveaux softs ( et utiliser la leur si il n'est pas géré / implémenté ).


Message édité par kaiser52 le 15-07-2009 à 17:28:30

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7036302
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 15-07-2009 à 18:05:06  profilanswer
 

C'est pas la qualité graphique d'un jeu qui fait son succès.
Et à la limite on s'en balance du DirectX 7, 8, 9, 10, 10.1, et 11.
Rien qu'à voir le succès de Pong, PacMan, Tetris, Asteroids, Barbarian, R-Type, Worms, Lemmings, ... et Solitaire.
 
Perso je me suis fait autant de fun à jouer à Commander Keen, Duke Nukem (2D), Raptor, Prince of Persia (2D), Mega Man, Another World, Montezuma Revenge, Inner Worlds, Space Invaders, Dark Ages, et Lemmings, pour ne citer que quelques jeux, qu'à jouer à Crysis, Stalker, Oblivion, Bioshock, et autres jeux super jolis.
 
Meilleurs jeux selon moi: Ultima Underworld, Baldur's Gate, Planescape Torment, Icewind Dale, Arx Fatalis, Deus ex, Fallout, Gothic, The Witcher, NeverWinter Nights, Vampire The Masquerade, ... ainsi que Thief, Duke Nukem 3D, Unreal (vive le coop), Starcraft, Diablo,... et bien sûr DOOM.
 
Remarquez qu'aucun de ces jeux n'est compatible DX11.

Message cité 3 fois
Message édité par Wirmish le 15-07-2009 à 18:07:02
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  40  41  42  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)