Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1947 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  52  53  54  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7063218
kaiser52
Posté le 06-08-2009 à 13:33:27  profilanswer
 

Reprise du message précédent :
Surtout que si ca se répète (du coté camélléon) c'est byby ATI.
 
Je m'explique :
A l'époque des Geforces 8800 les Geforces 7900 étaient plus ou moins à la masse comparé aux X1900.
 
Alors que actuellement les GTX 200 sont un poils supérieur au HD4000.
 
Il faudrait donc que ATI fasse un coup a la G80 pour espéré être proche en perf d'un GT300.
 
Mais la c'est du gros réve de porc !

Message cité 1 fois
Message édité par kaiser52 le 06-08-2009 à 13:33:55

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
mood
Publicité
Posté le 06-08-2009 à 13:33:27  profilanswer
 

n°7063245
Dyphen
Pull the trigger
Posté le 06-08-2009 à 13:52:25  profilanswer
 

du moment que le GT300 est assez puissant pour faire tourné Crysis & Warhead all settings Very High 1900*1200 a plus de 100 fps minimum , ca me va  :whistle:

Message cité 1 fois
Message édité par Dyphen le 06-08-2009 à 13:53:34
n°7063263
Ramichou
Posté le 06-08-2009 à 14:02:35  profilanswer
 

kaiser52 a écrit :

Surtout que si ca se répète (du coté camélléon) c'est byby ATI.


 
Pour ça, il faudrait que Nvidia réédite l'exploit de sodomiser le monde en changeant les specs de DX11 parce qu'elle ne lui conviennent pas, mais également qu'ils soient capable de faire mieux avec une nouvelle archi que AMD qui a une archi quasi DX11 dans les mains depuis 3 séries et déjà presque 2* plus perf par mm² que l'archi Nvidia !
 
A rajouter les problèmes de yields de Nvidia, et tu comprendra que le GT300 a plus de chance de ressembler au succès de la génération FX5*** qu'a celui de la génération 8*** !

n°7063290
kaiser52
Posté le 06-08-2009 à 14:24:22  profilanswer
 

Tu vas un peux loin, là.
Que se soit l'épisode FX5000 ou 8800 ils ont très peux de chance de ce reproduire.
 
Enfin changer les specs, je connais pas cette histoire en détail, mais elle ressemble étrangement a ce qui c'est passé avec les FX5000, mais de l'autre coté du mur.
 
L'histoire DX10 c'est quoi au juste ? si c'est juste des "fonctions" géré nativement par l'API qui on sauté ( et pas un remaniement total de l'API ), mais ça n'empêchait pas que les HD2900 alias HD3800 se faisaient écrasé alors que ces fonctions fantômes n'étaient pas utilisé, et même avec l'utilisation de DX10.1, la hiérarchie ne change pas pour autant.
Mais comme tu as du l'entendre, les fameuses fonctions DX10.1 sont aussi géré via la nVAPI, donc aussi présent sur le hard du G80, on pourrais dire qu'elles ne sont pas WHQL ^^
 
Sachant que qui dit nouvelle archi dit pas inventé la veille, ils ont eu le temps de respecter les perfs DX11. C'est toujours mieux de repartir sur une base null a ce niveau là.
Et les 2* plus perf / mm² ne veulent strictement rien dire.
Fréquence, chaleur et conso plus élevé pour ATI/AMD avec 2* moins de mm².
 
Je pourrais aussi bien dire que a fréquence égale, les ATI se font torché comme il faut, mais je le dis pas pour autant.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7063300
dragonlore
Posté le 06-08-2009 à 14:31:53  profilanswer
 

Ramichou a écrit :


 
Pour ça, il faudrait que Nvidia réédite l'exploit de sodomiser le monde en changeant les specs de DX11 parce qu'elle ne lui conviennent pas, mais également qu'ils soient capable de faire mieux avec une nouvelle archi que AMD qui a une archi quasi DX11 dans les mains depuis 3 séries et déjà presque 2* plus perf par mm² que l'archi Nvidia !
 
A rajouter les problèmes de yields de Nvidia, et tu comprendra que le GT300 a plus de chance de ressembler au succès de la génération FX5*** qu'a celui de la génération 8*** !


et la marmotte.....
 
nvidia ne fera surement jamais plu la même erreur que pour le nv30. C'est comme avec le nv1 (un ratage intégral mille fois plus impressionnant que le nv30), ils n'ont plus jamais fait la même erreur.
 
ati a peut être des perfs par mm2 plus élevé que nvidia mais comme la puce reste petite finalement ils sont comme nvidia niveau perf. ça sert pas à grand chose finalement si ce n'est quelques économies mais bon pour l'instant vu le gouffre financier dans lequel est plongé amd et donc ati, c'était nécessaire. ça l'est moins pour nvidia.
 
et pour les problèmes de yields, ati et nvidia sont dans le même bateau, ils utilisent le 40nm tous les 2 devrais je te le rappeler.

n°7063307
0b1
There's good in him
Posté le 06-08-2009 à 14:38:11  profilanswer
 

Sans compter que ces problèmes de yields sont en passe d'être résolus :jap:

n°7063354
Ramichou
Posté le 06-08-2009 à 15:06:42  profilanswer
 

kaiser52 a écrit :


Et les 2* plus perf / mm² ne veulent strictement rien dire.


 
Ca veut dire que quand ATI vend une HD4870, ils se font du pognon, quand NVidia vend une GTX260+, ils se font moins de pognon, ca a quand même sont importance, pas pour le consommateur, mais pour la marque.
 
Après, j'admet y être allé un peu fort en comparant à la génération FX5***, cependant je ne pense pas qu'il faille s'attendre à mieux de la part de Nvidia que de la part de AMD, bien au contraire. Enfin, la carte Nvidia risque fort d'être un monstre en GPGPU :D

n°7063363
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 06-08-2009 à 15:12:59  profilanswer
 

Citation :

Le GT300 de NVIDIA, attendu en 2009 (du moins pour les tests) devrait être décliné en plusieurs versions, quatre selon les rumeurs. C'est une nouvelle intéressante sur un point : cette valeur est élevée. En général (si on ne compte pas les die shrink), NVIDIA se contente de proposer deux puces dérivées du haut de gamme, une pour l'entrée de gamme et une pour le milieu de gamme, ces deux puces étant ensuite utilisées sur plusieurs cartes. Un exemple simple est le G92, qui a eu comme variante le G96 (bas de gamme, les 9400) et le G94 (milieu de gamme, avec les 9600). Actuellement, NVIDIA désactive donc des unités de ses puces pour produire le très bas de gamme, par exemple. En utilisant quatre variantes, NVIDIA pourrait éviter d'utiliser cette technique et donc, si les rendements sont bons, économiser. Rappelons aussi que le GT200, qui a plus d'un an, n'a pas été adapté pour un usage sur des cartes d'entrée de gamme, du moins pas encore : les cartes qui utilisent une puce dérivée de la GT200 ne sont attendues que dans quelques semaines.
 
Notons aussi que — selon notre confrère Charlie Demerjian — le GT300 devrait être très onéreux. La puce, qui est « taped out » depuis le 15 juillet, reviendrait environ 1,4 fois plus cher qu'un GT200, malgré sa gravure en 40 nm. Et cette valeur est à prendre en compte si les rendements sont les mêmes que pour le GT200, ce qui n'est pas une chose évidente au début de la production. On peut donc s'attendre à des cartes rares et chères en 2009, avec une disponibilité réelle en 2010.

source : http://www.presence-pc.com/actuali [...] dia-35934/


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7063421
0b1
There's good in him
Posté le 06-08-2009 à 16:02:46  profilanswer
 

Ramichou a écrit :


 
Ca veut dire que quand ATI vend une HD4870, ils se font du pognon, quand NVidia vend une GTX260+, ils se font moins de pognon, ca a quand même sont importance, pas pour le consommateur, mais pour la marque.
 
Après, j'admet y être allé un peu fort en comparant à la génération FX5***, cependant je ne pense pas qu'il faille s'attendre à mieux de la part de Nvidia que de la part de AMD, bien au contraire. Enfin, la carte Nvidia risque fort d'être un monstre en GPGPU :D


Non, car la HD4870 est vendue moins chère que la GTX260...

n°7063459
mikestewar​t
Air Roll Spinnin'
Posté le 06-08-2009 à 16:20:34  profilanswer
 

kaiser52 a écrit :

Je pourrais aussi bien dire que a fréquence égale, les ATI se font torché comme il faut, mais je le dis pas pour autant.

 

Si tu veux parler de fréquence, parle aussi de celle des SP chez Nvidia...  :o

 

Si tu veux on peut aussi parler du rapport perfs/(nb de transistors)... ;)

 

Au peu ridicule de se vanter de la supériorité à fréquence égale (en oubliant la fréquence des SP), sachant qu'un puce affiche 1400M transistors et l'autre 950M.

 

Par contre le G80, lui était tout bonnement excellent avec même pas 700M...

Message cité 2 fois
Message édité par mikestewart le 06-08-2009 à 16:24:20
mood
Publicité
Posté le 06-08-2009 à 16:20:34  profilanswer
 

n°7063465
0b1
There's good in him
Posté le 06-08-2009 à 16:23:59  profilanswer
 

mikestewart a écrit :


 
Si tu veux parler de fréquence, parle aussi de celle des SP chez Nvidia...  :o
 
Si tu veux on peut aussi parler du rapport perfs/(nb de transistors)... ;)


Et t'as oublié chaleur et conso plus élevé pour ATI/AMD avec 2* moins de mm²  :sol:

n°7063473
mikestewar​t
Air Roll Spinnin'
Posté le 06-08-2009 à 16:27:25  profilanswer
 

0b1 a écrit :


Et t'as oublié chaleur et conso plus élevé pour ATI/AMD avec 2* moins de mm²  :sol:

 

En rapport conso/(nb de transistors) c'est clair, par contre en conso tout court (à part au repos), je ne sais pas si tu es au courant :

 

http://www.hardware.fr/medias/photos_news/00/25/IMG0025671.gif

Message cité 1 fois
Message édité par mikestewart le 06-08-2009 à 16:28:38
n°7063476
0b1
There's good in him
Posté le 06-08-2009 à 16:29:08  profilanswer
 

mikestewart a écrit :


 
En rapport conso/(nb de transistors) c'est clair, par contre en conso tout court (à part au repos), je ne sais pas si tu es au courant :
 
http://www.hardware.fr/medias/phot [...] 025671.gif


Donc, à part là ou j'ai tort, j'ai raison partout.
C'est marrant t'as pas mentionné la chaleur.

n°7063479
mikestewar​t
Air Roll Spinnin'
Posté le 06-08-2009 à 16:31:11  profilanswer
 

0b1 a écrit :


Donc, à part là ou j'ai tort, j'ai raison partout.
C'est marrant t'as pas mentionné la chaleur.

 

La "chaleur" (en fait les températures) dépend de la consommation et de la dissipation. Je ne dis pas que la dissipation est au top chez ATI, loin de là.  ;)   :D

 

Mais la dissipation sera plus ou moins efficace selon le refroidissement choisi par Sapphire ou autres...chez Nvidia, il est certain que le refroidissement de référence est très bon, j'ai le même avec ma GTX260+. ;)


Message édité par mikestewart le 06-08-2009 à 16:32:31
n°7063590
Activation
21:9 kill Surround Gaming
Posté le 06-08-2009 à 17:47:38  profilanswer
 

Dyphen a écrit :

du moment que le GT300 est assez puissant pour faire tourné Crysis & Warhead all settings Very High 1900*1200 a plus de 100 fps minimum , ca me va  :whistle:


 
on parle de gt300 là
pas du GT400  :o
 
ensuite warhead comparé au premier crysis ...  :lol:  
 
ok warhead y a plus d action mais bordel qu est ce qu il est bridé niveau zone de jeu pour au final un gain de perf quasi nul et moins de profondeur de champs tut ça pour foutre plus d explosion de temps en temps
 
jh espère que crysis 2 sera plus dans l idée technique de crysis que warhead
 
car une degradation de qualité à ptet 1(mètres de ton perso et des zone infranchissable là ou dans crysis 1 tu as ptet 4 fois plus de liberté / zone de jeu par mission

Message cité 1 fois
Message édité par Activation le 06-08-2009 à 17:55:54
n°7063601
Khaomaster
Posté le 06-08-2009 à 17:54:49  profilanswer
 

0b1 a écrit :


Donc, à part là ou j'ai tort, j'ai raison partout.
C'est marrant t'as pas mentionné la chaleur.


 
Mais tu es d'une mauvaise foi incroyable  :lol:  :lol:  :lol: Et têtu comme pas deux :D  :D  :D

n°7063720
0b1
There's good in him
Posté le 06-08-2009 à 18:47:34  profilanswer
 

Khaomaster a écrit :


 
Mais tu es d'une mauvaise foi incroyable  :lol:  :lol:  :lol: Et têtu comme pas deux :D  :D  :D


En quoi je suis d'une mauvaise fois? Il l'avoue à demi-mot, en gros il dit "A part en load, sinon elle consomme plus...."
Je défend mon morceau de viande, c'est le topic du GT300 donc bon.

n°7063766
Khaomaster
Posté le 06-08-2009 à 19:05:44  profilanswer
 

C'est en load qu'on a la conso max, donc c'est à cela qu'on voit ce que la puce consomme le plus, et aucune radeon ne consomme plus qu'une GTX en load. Donc elle consomme moins pour offrir la même puissance (c'était cela le débat).

 

Après en idle, on sait tous que les HD4xxx ont un problème de ce coté et consomme bien trop.

 

Pour la chaleur comme il le dit bien, tout dépend du ventirad, le modèle de base est pourri chez Ati, tout le monde le sait, mais on sait aussi que avec un ventirad correct ces CG s'en tire tout aussi bien que les NV. Donc non les puces ne chauffent pas forcément plus chez ATI, il faudrait voir avec le même rad.

Message cité 2 fois
Message édité par Khaomaster le 06-08-2009 à 19:07:36
n°7063772
Activation
21:9 kill Surround Gaming
Posté le 06-08-2009 à 19:08:57  profilanswer
 

faut plutot regarder coté densité

n°7063779
Ramichou
Posté le 06-08-2009 à 19:12:36  profilanswer
 

C'est vrai que les fanboys Nvidia se faisaient rares ces temps-ci, et que le topic GT300 ressemblait a du lynchage en règle de Nvidia, need un fanboy venir défendre sa marque fétiche !
 
Malheuresement, je crois que la série 9 puis la série GT200 à largement flingué le capital fanboy de Nvidia :(

n°7063800
0b1
There's good in him
Posté le 06-08-2009 à 19:19:02  profilanswer
 

Khaomaster a écrit :

C'est en load qu'on a la conso max, donc c'est à cela qu'on voit ce que la puce consomme le plus, et aucune radeon ne consomme plus qu'une GTX en load. Donc elle consomme moins pour offrir la même puissance (c'était cela le débat).  
 
Après en idle, on sait tous que les HD4xxx ont un problème de ce coté et consomme bien trop.
 
Pour la chaleur comme il le dit bien, tout dépend du ventirad, le modèle de base est pourri chez Ati, tout le monde le sait, mais on sait aussi que avec un ventirad correct ces CG s'en tire tout aussi bien que les NV. Donc non les puces ne chauffent pas forcément plus chez ATI, il faudrait voir avec le même rad.


Je suis assez d'accord.
Encore que, la plupart du temps ta carte est en idle, donc la conso au repos garde son importance.

n°7063809
Ramichou
Posté le 06-08-2009 à 19:23:23  profilanswer
 

0b1 a écrit :


Encore que, la plupart du temps ta carte est en idle


 
Même po vrai[:obsydiankenobi]

n°7063811
0b1
There's good in him
Posté le 06-08-2009 à 19:24:06  profilanswer
 


Ouai évidemment.
Mais j'ai pas encore d'actions chez EDF  :whistle:

n°7063817
Khaomaster
Posté le 06-08-2009 à 19:29:49  profilanswer
 

0b1 a écrit :


Je suis assez d'accord.
Encore que, la plupart du temps ta carte est en idle, donc la conso au repos garde son importance.


 
Bien sur :), mais c'était pas le sujet.

n°7063821
couillesho​t
Les bouboules et la boubouche
Posté le 06-08-2009 à 19:32:10  profilanswer
 

Ramichou a écrit :

C'est vrai que les fanboys Nvidia se faisaient rares ces temps-ci, et que le topic GT300 ressemblait a du lynchage en règle de Nvidia, need un fanboy venir défendre sa marque fétiche !
 
Malheuresement, je crois que la série 9 puis la série GT200 à largement flingué le capital fanboy de Nvidia :(


Sans oublier ce genre de chose : http://www.pcinpact.com/actu/news/ [...] li-p45.htm  :pfff:

Message cité 2 fois
Message édité par couilleshot le 06-08-2009 à 19:32:28

---------------
:o :o :o
n°7063823
0b1
There's good in him
Posté le 06-08-2009 à 19:33:58  profilanswer
 
n°7063825
couillesho​t
Les bouboules et la boubouche
Posté le 06-08-2009 à 19:37:11  profilanswer
 

0b1 a écrit :


Pourquoi ça?


 
Ben pourquoi ne pas ouvrir le SLI aux autres chipset? alors que c'est tout à fait faisable


---------------
:o :o :o
n°7063826
0b1
There's good in him
Posté le 06-08-2009 à 19:38:46  profilanswer
 

Ahh... Bah pour vendre son chipset tiens...

n°7063832
Profil sup​primé
Posté le 06-08-2009 à 19:45:13  answer
 

0b1 a écrit :

Ahh... Bah pour vendre son chipset tiens...


+1
D'autant qu'ils ont mal fait leurs calculs [:oxgn]  
Ils auraient vendu beaucoup + de cartes, surtout en s775 [:themasterdbzgt]  
EDIT: cartes graphiques ^^


Message édité par Profil supprimé le 06-08-2009 à 19:45:34
n°7063833
couillesho​t
Les bouboules et la boubouche
Posté le 06-08-2009 à 19:45:21  profilanswer
 

0b1 a écrit :

Ahh... Bah pour vendre son chipset tiens...


Ben c'est bien dommage


---------------
:o :o :o
n°7063835
Gein
Posté le 06-08-2009 à 19:46:18  profilanswer
 

[:drap]

n°7063836
Profil sup​primé
Posté le 06-08-2009 à 19:47:03  answer
 

Ils auraient mieux 'profité' de quantités de CG que de chipsets amha :spamafote:


Message édité par Profil supprimé le 06-08-2009 à 19:47:13
n°7063865
Ramichou
Posté le 06-08-2009 à 20:17:07  profilanswer
 


 
Bon, j'ai plus qu'a me trouver une 8800GTS² pas renommée ! Et vérifier que ca marche sur EP45-DS3R

n°7063884
White Sh4d​ow
GHz-O-Meter !
Posté le 06-08-2009 à 20:36:24  profilanswer
 

Ramichou a écrit :


 
Bon, j'ai plus qu'a me trouver une 8800GTS² pas renommée ! Et vérifier que ca marche sur EP45-DS3R


J'allais dire la même chose, mais moi c'est pour ma P5Q PRO :)
Enfin, je peux toujours emprunter celle de mon frère  :lol:  mais je ne suis pas sûr que mon alimentation tienne la charge (550w non 80+) avec un Q6600 à 3.6 GHz (1.5v inside + WC) :pt1cable:

n°7063945
kaiser52
Posté le 06-08-2009 à 21:14:04  profilanswer
 

mikestewart a écrit :


 
Si tu veux parler de fréquence, parle aussi de celle des SP chez Nvidia...  :o
 
Si tu veux on peut aussi parler du rapport perfs/(nb de transistors)... ;)
 
Au peu ridicule de se vanter de la supériorité à fréquence égale (en oubliant la fréquence des SP), sachant qu'un puce affiche 1400M transistors et l'autre 950M.
 
Par contre le G80, lui était tout bonnement excellent avec même pas 700M...


 
Nan mais c'était juste pour montré à quel point on peut allé loin avec les comparaisons.
Et pour montré à quel point les comparaisons peuvent tourner au ridicul :
A SP égale, ATI se fait monumentalement torché ....
 
Tous ca pour dire que sachant que les archis ne sont pas pareil, ces cartes ne sont pas comparables.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7063952
dragonlore
Posté le 06-08-2009 à 21:15:39  profilanswer
 

Ramichou a écrit :

C'est vrai que les fanboys Nvidia se faisaient rares ces temps-ci, et que le topic GT300 ressemblait a du lynchage en règle de Nvidia, need un fanboy venir défendre sa marque fétiche !

 

Malheuresement, je crois que la série 9 puis la série GT200 à largement flingué le capital fanboy de Nvidia :(

 

tiens je savais pas que les atifanboys pullulaient sur les topics nvidia. A croire qu'ils n'existent plus de topics ati.

 

Si le GT200 a flingué le capital fanboy de nvidia je crois que toutes les sociétés qui sont mortes rêveraient de se flinguer comme ça car au moins elles vivraient toujours.

 

Bref tu dis n'importe quoi. Les gt2xx sont de très bonnes cartes.

 

Ati a fait un peu mieux avec son architecture mais ça n'en reste pas moins de très bonnes cartes. On est à mille lieu du nv30 (geforcefx).

 

et en trollant comme toi je pourrais tout aussi dire que le capital fanboy d'ati a disparu pour nombres de gens depuis les séries R500 et R600 qui étaient inférieures, onéreuses, moins puissantes, largement en retard et gourmandes. Je ne parlerai même pas de l'époque rage pro, rage 128 et autres radeons de première génération qui ont fait ramer ati pendant pas mal d'années

Message cité 1 fois
Message édité par dragonlore le 06-08-2009 à 21:19:30
n°7064248
sasuke87
Posté le 07-08-2009 à 01:25:29  profilanswer
 

kaiser52 a écrit :


 
Nan mais c'était juste pour montré à quel point on peut allé loin avec les comparaisons.
Et pour montré à quel point les comparaisons peuvent tourner au ridicul :
A SP égale, ATI se fait monumentalement torché ....
 
Tous ca pour dire que sachant que les archis ne sont pas pareil, ces cartes ne sont pas comparables.


 
ça dépend comment on les compte  :whistle:

n°7064249
mikestewar​t
Air Roll Spinnin'
Posté le 07-08-2009 à 01:31:33  profilanswer
 

kaiser52 a écrit :

Tous ca pour dire que sachant que les archis ne sont pas pareil, ces cartes ne sont pas comparables.

 

Tout à fait. ;) Sinon excuse-moi j'avais mal lu ton message. :D


Message édité par mikestewart le 07-08-2009 à 01:31:49
n°7064259
marllt2
Posté le 07-08-2009 à 02:10:40  profilanswer
 

dragonlore a écrit :

et en trollant comme toi je pourrais tout aussi dire que le capital fanboy d'ati a disparu pour nombres de gens depuis les séries R500 et R600 qui étaient inférieures, onéreuses, moins puissantes, largement en retard et gourmandes.


Bah pour les R500, oui elles étaient gourmandes, oui le R520 était en retard (90nm inside).
 
Mais en perfs pareil que le G71. Et avec HDR et AA largement devant. Et ce sans parler du filtrage. Pas pour rien que nV a fait une 7950 GX2.
 
 
D'ailleurs pour le retard du R520, ça fait pas mal penser au RV740. Faible dispo, et quand il devient dispo la gen suivante arrive.
 
Dans le 1er cas c'est le 1er GPU 90nm, dans le 2e c'est le 1er GPU 40nm.
 

Activation a écrit :

jh espère que crysis 2 sera plus dans l idée technique de crysis que warhead


Yerli a dit que Warhead était un test pour les "optimsiations" nécéssaires pour faire tourner le jeu sur consoles.
 
Donc à part si Crysis 2 utilise des niveaux différents entre le PC et les consoles...
 

dragonlore a écrit :

et pour les problèmes de yields, ati et nvidia sont dans le même bateau, ils utilisent le 40nm tous les 2 devrais je te le rappeler.


Sauf que le yield d'un chip de 200mm² et celui d'un chip de 400mm² c'est pas le même.
 

Khaomaster a écrit :

Après en idle, on sait tous que les HD4xxx ont un problème de ce coté et consomme bien trop.


Problème lié la GDDR5.
 

White Sh4dow a écrit :

Le G80 à quand même bouleversé le marché du GPU ! C'était une puce extrême à sa sortie fin 2006. On en attend autant du GT300, même si on sait que l'histoire ne se répetera très probablement pas...


Et il y aura des déçus.  
 
Sauf dans le cas des Geometry Shaders, du moins ils ont intérêt.
 

0b1 a écrit :

il est clair que le GT300 prévu pour sortir fin 2009 (juste pour les fêtes) et qui devrait être la version Haut de Gamme se vendra cher.
Il faudra attendre la sortie des autres déclinaisons (Q1 2010 certainement) pour voir les prix devenir intéressant...


Un AIB majeur (Zotac ? Asus ?) a confirmé 2010 pour le GT300.
 
La question est plutôt de savoir ce que nVidia va faire au Q4, pour dire "n'achetez pas des cartes AMD, attendez le über GT300".
 
 

Dyphen a écrit :

mais une chose qui me fait rire..
tout le monde parle du directx 11 comme " the révolution " quoi
 
on croirait qu'on va passer a une génération de carte graphique ultra puissante , quand je vois les gens qui disent, mais attend le dx 11 au lieu de te prendre une GTX275/285/295 etc..
 
déja les cartes dx 11 en single GPU , je pense qu'elle seront meme pas aussi puissante que les double GPU actuel..
elle chaufferont peut etre moins, consommeront moins peut etre
 
c'est que mon point de vue.


On dit d'attendre DX11 parce qu'il sera le successeur de DX9. Ce que n'était pas DX10, plutôt utilisé par les jeux "benchmark".
 
Pour rappel la dernière évolution de ce genre c'était dx9c, qui a été lancé il y a... 5 ans, mi-2004.
 
Donc ceux qui disent "va-y achètes un E8400 et une GTX 295, c'est le top. Tu seras tranquille 3 ans avec ça. DX11 c'est que du marketing comme DX10" vont avoir des surprises et risquent de ne rien comprendre.
 
Quand on parle de DX11, on parle des specs de DX11, autrement dit du hardware qui supporte DX11. Contrairement aux 8800 GTX par exemple qui se sont vendues avant tout pour leur rapidité et pas pour DX10.
 
Nulle part on dit d'attendre les cartes DX11 parce qu'elles seraient 3x plus rapides.
 
Quand au multi-GPU, parfois c'est pas ça :whistle: :
 
http://www.hardware.fr/medias/photos_news/00/25/IMG0025684.gif


Message édité par marllt2 le 07-08-2009 à 03:05:33
n°7064325
kaiser52
Posté le 07-08-2009 à 09:06:01  profilanswer
 

Je vois que ces temps si la mode c'est l'AA8X dans les tests.
Je me demande si sur son GT300 nVIDIA va essayé d'avoir le même scalling que ATI !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7064480
Yoyo_5
Posté le 07-08-2009 à 11:35:11  profilanswer
 

kaiser52 a écrit :

Je vois que ces temps si la mode c'est l'AA8X dans les tests.
Je me demande si sur son GT300 nVIDIA va essayé d'avoir le même scalling que ATI !


Honnêtement, l'AA8X...c'est largement surfait... :/
Et dire que certains ne jurent que par l'AA(groschiffre)X et après n'activent pas l'Adaptative AA ou Transparency AA... :sarcastic:


---------------
¤ Paix et félicité ¤

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  52  53  54  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)