Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4674 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  48  49  50  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7055909
kaiser52
Posté le 30-07-2009 à 21:12:31  profilanswer
 

Reprise du message précédent :

White Sh4dow a écrit :

Un GT300 comme on se l'imagine ne se tape-out pas aussitôt... Peut être pas dutout même ? Je veux dire, si le GT300 est réellement ce qu'on a entendu (512bits, GDDR5, DX11, 40nm, fréquences élevées...) y'a pas moyen de trouver un ventirad double voir triple slot pour refroidir un monstre pareil... et le prix serait trop élitiste ( à l'image de la GTX 280 Mars ) pour que la sortir vaille la peine...
 
On est d'accord, c'est un fake  [:fa-tt92]


 
Pourtant plus le chip et petit plus il est dur a refroidir !
Donc rien que un G80GTX à la taille d'un RV740 je sais même pas si ca se refroidit de façon conventionnel ( pour maintenir sous 80 en fonctionnement )...
 
Si y'a le fameux lancement de GT300 a peux d'exemplaire, y'aura genre 50% du stock pour les journalistes ? Donc y'en aura bien un pour HFR ? XD
 


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
mood
Publicité
Posté le 30-07-2009 à 21:12:31  profilanswer
 

n°7055920
bjone
Insert booze to continue
Posté le 30-07-2009 à 21:31:14  profilanswer
 

Wirmish a écrit :

Le nom est déja connu : APU pour Advanced Processing Unit.


Non c'est pris pour l'audio :D
http://www.nvidia.fr/object/apu_fr.html

n°7055921
bjone
Insert booze to continue
Posté le 30-07-2009 à 21:33:59  profilanswer
 

mikestewart a écrit :

Attention, c'est du "gros" :o :
 

Citation :

Miracles happen, GT300 tapes out!


 
http://www.semiaccurate.com/2009/0 [...] tapes-out/
 
Le GT300, toujours un monstre, mais en 40 nm cette fois :
 

Citation :

Our moles say it is 23mm * 23mm, or about 530mm^2 (  [:pampers] ) , and considering they told us that GT200 was 24*24 months before it came out, we will take their word for it.


 
Plus gros qu'un GT200b ou un G80...à comparer au GT215 (toujours pas dispo d'ailleurs) avec ses ~140mm²...  :whistle:
 
Quoi qu'il en soit :
 

Citation :

That said, not having correct or volume manufacturable silicon never stopped Nvidia from having a launch. If Dear Leader wants a launch in 2009, he can have a launch in 2009, and the press will get $15,000 (  [:atom1ck] ) hand built cards that use sub-10% yield parts. It will be 'launched' though, but calling that soft is being far too kind.



 
Ca reste plus petit qu'un Itanium :D
 
Ils peuvent cibler le GT300 pour les stations de travail et les clusters de calcul.
Et le grand public n'aura d'accessible que la version inférieure :D
 
Ce qui compte c'est de savoir les perfs, et si la variante mainstream sera compétitive.

n°7055975
mikestewar​t
Air Roll Spinnin'
Posté le 30-07-2009 à 22:29:50  profilanswer
 

bjone a écrit :

Ca reste plus petit qu'un Itanium :D

 

En taille oui, parce que l'Itanium actuel est en 90nm.

 

Mais le GT300 est en 40nm, l'Itanium est donc battu en nombre de transistors, même le futur Itanium 65nm (Tukwila) n'en aura pas autant. Le Larrabee non plus d'ailleurs...

 

Du coup, Nvidia tient un bel argument marketing pour le paper-launch du GT300...  :pt1cable:


Message édité par mikestewart le 30-07-2009 à 22:34:19
n°7055979
White Sh4d​ow
GHz-O-Meter !
Posté le 30-07-2009 à 22:32:13  profilanswer
 

kaiser52 a écrit :


 
Pourtant plus le chip et petit plus il est dur a refroidir !
Donc rien que un G80GTX à la taille d'un RV740 je sais même pas si ca se refroidit de façon conventionnel ( pour maintenir sous 80 en fonctionnement )...
 
Si y'a le fameux lancement de GT300 a peux d'exemplaire, y'aura genre 50% du stock pour les journalistes ? Donc y'en aura bien un pour HFR ? XD
 


Si la puissance dissipée est la même, une taille plus petite implique une surface d'echange plus petite aussi, ce qui en effet rend plus difficile à refroidir. Le truc c'est que les grosses puces consomment souvent plus que les petites (souvent, pas toujours). Parfois le rapport puissance/taille d'une grande puce est plus grand que celui d'une petite puce, et c'est là que le refroidissement devient plus problèmatique.

n°7056177
marllt2
Posté le 31-07-2009 à 02:31:40  profilanswer
 

super_newbie_pro a écrit :

vous fumez la moquette ? EDIT ; non vous n'avez pas fumé la moquette c'est ça le pire... J'avais pas vu le lien... C'est nvidia qui fume la moquette... C'est nocif pour leur santé !  
 
Pourquoi ne pas faire un GPU de la taille d'un écran ? Au moins ils seraient sûr d'être imbattable niveau perfs pendant 10ans. Je ne comprends pas leur logique... En fait le chintoc mec qui dirige nvidia doit être un lointain descendant du monstre du lockness ce qui expliquerait son obstination à vouloir continuer de faire des GPU énormissimes...(...) :pfff:  
 
EDIT 2 ; avec un tel machin en face, AMD/ATI peut sourire pour ses ventes de fin d'année et donc pour ses finances :D
 
EDIT 3 ; ah oué mais non j'ai relu l'article, mais lol quoi...  :pt1cable: un moment de silence pour nvidia svp ^^


Excellent ce post. :lol:  
 
 

Wirmish a écrit :

Nvidia Chief Scientist: 11nm Graphics Chips with 5000 Stream Processors Due in 2015.

Citation :

Mr. Dally predicts that in 2015 graphics chips will have 5000 stream processing engines, will have about 20TFLOPs of computing power and will be made using 11nm fabrication process.



Arf, encore Dally. :o  11nm en 2015 ?
 
Alors que chez Intel ils feront du 16nm fin 2013, et probablement du 11nm fin 2015 ?
 
Le problème est que les CPU sont plus simples que les GPU, et qu'Intel est bien plus avancé que GloFo ou TSMC.
 

n°7056178
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 31-07-2009 à 02:35:03  profilanswer
 

Donc c'est le Larrabee qui sera gravé en 11nm en 2015 et qui aura 5000 SP.
 
CQFD!

n°7056256
marllt2
Posté le 31-07-2009 à 09:17:14  profilanswer
 

http://www.clubic.com/actualite-29 [...] e-out.html
 
Manifestement, clubic ne sait pas ce qu'est un tape-out...

n°7056261
djffff
Time's like ocean in storm.
Posté le 31-07-2009 à 09:24:20  profilanswer
 

manifestement clubic ne fait que reprendre des news qui on déja été reprise et en plus ils ont du mal avec l'anglais...

n°7056264
mikestewar​t
Air Roll Spinnin'
Posté le 31-07-2009 à 09:29:34  profilanswer
 

marllt2 a écrit :

http://www.clubic.com/actualite-29 [...] e-out.html
 
Manifestement, clubic ne sait pas ce qu'est un tape-out...


 
Faut pas oublier qu'ils ont des relations "privilégiées" avec Nvidia. ;)

mood
Publicité
Posté le 31-07-2009 à 09:29:34  profilanswer
 

n°7056286
marllt2
Posté le 31-07-2009 à 09:56:28  profilanswer
 

mikestewart a écrit :

Faut pas oublier qu'ils ont des relations "privilégiées" avec Nvidia.


 :??:  
 
En tout cas c'est toujours autant le cirque dans les commentaires chez clubic :o :
 

Citation :

23 mm de côté, soit une puce de 530 mm² en 40 nm ! C'est énorme !
A mon avis c'est plutôt 23 mm²

Citation :

Ce n'est pas TSMC qui fourni les puces 40nm à ATI mais GF (Global Foundries). Et ils semblent ne pas rencontré de problème majeur pour lproduire le RV870 car AMD semble mieux maîtriser cette finesse de gravure à l'inverse du caméléon.

Citation :

Les PC avec le directx 11 vont aussi se confronter au mêmes problème que le directx 10 sur le problème du marcher n'est pas assez fort.
En plus tout les jeux sont d'abord développé pour les consoles maintenant sauve pour quel que exception près.
C'est pas pour rien qu'on peu dire que le directx 10 a été un total fiasco.
Aussi un autre problème la majorité des PC fonctions sur xp donc s'il ne veule pas que le directx 11 finisse comme son directx 10 ils sont mieux de revoir leur stratégie.

Citation :

super !!!! euh mais a quoi ça va servir ? puisque sur pc les jeux sont quasiment tous issu a 99,9 % de portage 360 ou PS3.... réponse.... bin du con, a palier le manque d'optimisation des portages pour pc bien sur .... Oui je sais je ne suis pas très optimiste mais il n'y a pas QUE du faux dans ce que je dis ?!!

Citation :

j'y crois pas une seconde,il est pas possible qu'une entreprise comme nvidia puisse ne pas avoir de carte DX11 a la sortie de seven...
 
600$ le GT300,c'est pour le très haut de gamme,il possible qu'il sorte en 2010,mais y aura des entrés et moyennes gammes avant.

Citation :

LOL tu est trop drôle toi.
Tu penses qui vas avoir beaucoup de personne qui vont acheter windows 7 pour remplacer leur XP lol.
Actuellement,il a plus de personne qui achète des XP pour remplacer leur vista.
Donc imagine le contraire haaaaaaaaahaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa.
Oublis ça là tu rêves.
Il ne c'est jamais vendu autant de XP depuis que vista est sortir :MDR .
 
Une chose qui me tracasse sur le directx 11.
Avec le directx 9 chaque partie de l'image est géré par un core appelé pipelines mais avec le directx 10 l'image total est géré par la totalité du gpu donc n'importe quel core peut géré a son mieux la tache que on lui donne mais le directx 11 est différent il utilise l'ancien système de pipelines et qui ont mit plusieurs core ?
La sa me pose un problème c'est quoi la différence avec le directx 10.
Même si on mais les core dans des paquets ou séparément en quoi sa vas t'il être différant.
Je comprend l'avantage du directx 10 mais pas celui du directx 11.
La seule différence que je vois comme dans le cas du gpu gt 300 et gt 200 c'est le n"ombre de core et la compatibilité avec la gddr5?

Citation :

faudrait déjà qu'ils sortent autre chose que des portages daubées pour la plupart pour que déjà on puisse exploiter la génération actuelle...moi perso j'ai une 4870 sur un 24 et ça le fait largement, la révolution graphique de D11 j'y crois pas une miette même si je suis le premier à le regretter.
 
c'est juste un buzz de plus créer par crosoft and co pour s'en mettre plein les fouilles, les devs on pas suivi sur D10 je vois pas en quoi D11 va plus les motiver.

Message cité 1 fois
Message édité par marllt2 le 31-07-2009 à 10:10:02
n°7056291
mikestewar​t
Air Roll Spinnin'
Posté le 31-07-2009 à 10:03:39  profilanswer
 


 
Ah, tu trouves pas leur traduction du tape-out un peu optimiste ? :/
 
J'espère qu'ils savent ce que c'est quand même.  :sweat:
 
Ah oui les commentaires...  [:siluro] Clubic est un site elitiste. :o

Message cité 1 fois
Message édité par mikestewart le 31-07-2009 à 10:08:21
n°7056296
sharshar
Slava Ukraini
Posté le 31-07-2009 à 10:07:09  profilanswer
 

:lol:  lé komantéres de cluclu toujours ossi construc-tiffes é trés bien aurtaugraphié!!!..
 
 :sweat:

n°7056297
mikestewar​t
Air Roll Spinnin'
Posté le 31-07-2009 à 10:09:34  profilanswer
 

sharshar a écrit :

:lol:  lé komantéres de cluclu toujours ossi construc-tiffes é trés bien aurtaugraphié!!!..
 
 :sweat:


 
Si ça se limitait uniquement à l'orthographe, là encore...  :sweat:  

n°7056303
marllt2
Posté le 31-07-2009 à 10:13:41  profilanswer
 

mikestewart a écrit :

Ah, tu trouves pas leur traduction du tape-out un peu optimiste ?  
 
J'espère qu'ils savent ce que c'est quand même.


Theo n'a pas dit que le chip était fonctionnel, il a dit qu'il était tape-out. Donc non, Clubic ne sait pas ce qu'est le tape-out.
 
Après sur la véracité ou non du tape-out, ça on peut pas savoir. Mais ce serait pas étonnant que Theo dise vrai.
 
C'est le "ils ont des relations "privilégiées" avec Nvidia" de ton post que je n'avais pas compris.  :whistle:


Message édité par marllt2 le 31-07-2009 à 10:18:26
n°7056308
mikestewar​t
Air Roll Spinnin'
Posté le 31-07-2009 à 10:20:15  profilanswer
 

Ah, au temps pour moi dans ce cas.  :D
 
Je pensais qu'en tant que site invité par Nvidia dans un chic restau londonien  pour une interview de leur Chief Scientist, ils sauraient ce que c'est.  [:fading] D'où mon idée qu'il chercherait à flouer le novice (vu les commentaires, il doit y en avoir un paquet...) avec une traduction foireuse du "tape-out" qui serait un poil avantageuse pour Nvidia. Je les surestime en fait...  [:gordon shumway]  
 
A noter aussi que dans leur "news" un GT200 et un GT200b font la même taille (24mm de côté)...
 
56 commentaires sur ce genre d'info...  :pfff:

Message cité 1 fois
Message édité par mikestewart le 31-07-2009 à 10:29:06
n°7056315
marllt2
Posté le 31-07-2009 à 10:30:06  profilanswer
 

mikestewart a écrit :

Je pensais qu'en tant que site invité par Nvidia dans un chic restau londonien  pour une interview de leur Chief Scientist, ils sauraient ce que c'est.


C'est "toute" la presse européenne spacialisée qui était invitée.
 
Clubic étant un des plus gros sites francais (on se demande pourquoi), ils ont été invités. De même que Tridam.
 
http://www.clubic.com/actualite-28 [...] vidia.html
http://www.hardware.fr/news/10286/ [...] dally.html


Message édité par marllt2 le 31-07-2009 à 10:33:02
n°7056319
mikestewar​t
Air Roll Spinnin'
Posté le 31-07-2009 à 10:38:28  profilanswer
 

En effet, j'avais pas vu que HFR avait été aussi invité. ;)

n°7056423
Fantryt
Posté le 31-07-2009 à 12:15:23  profilanswer
 

http://www.pcworld.fr/2009/07/31/m [...] es/438801/
Des GPU à 5000 coeurs et 20TFlops gravés en 11nm d'ici 2015 ?

n°7056479
Activation
21:9 kill Surround Gaming
Posté le 31-07-2009 à 13:12:47  profilanswer
 

j'aime bien le
"Actuellement,il a plus de personne qui achète des XP pour remplacer leur vista"
 
c est cela oui ...ils doivent vachement les "acheter" ceux qui remplace leur vista par xp  
 
déjà que des boites de xp il doit beaucoup en trouver en rayon  
vu que plus en fabrication depuis facile 1,5ans  
 
et que les derniers qu il peut voir trainer en rayon c est des invendu que personne n achète
 
 
 
le reste vol tout aussi haut
spécial dédicace à l autre qui croit que c est du 23mm² aussi
ça ferait un gpu haut de gamme d un peu moins de 5mm de coté... mais bien sur... il a du mesuré le gpu intégré au nouveau processeur intel surtout destiné au portable et desktop d entreprise


Message édité par Activation le 31-07-2009 à 13:15:50
n°7056507
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 31-07-2009 à 13:29:55  profilanswer
 

Petite parenthèse sur l'avenir des puces nvidia vu par un ingérnieur du caméléon ; http://www.pcworld.fr/2009/07/31/m [...] es/438801/


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7056620
Ramichou
Posté le 31-07-2009 à 14:41:21  profilanswer
 

Ca sent le discours marketing apris par coeur et raconté par un ingénieur pour que ca paraisse crédible !

n°7056722
sharshar
Slava Ukraini
Posté le 31-07-2009 à 16:03:24  profilanswer
 

5000 coeurs et 20 teraflops!  
 
de quoi jouer avec le nouveau moteur de chez crytek a la mode en 3d vision avec physics et 100 fps constant sur un dual screen de 30 pouces!! [:bakasan:2]

n°7057130
marllt2
Posté le 31-07-2009 à 22:05:58  profilanswer
 

C'est quoi cette manie de toujours vouloir traduire le terme SPU ? :o Et puis le marketing de nV voulant faire passer les SPU pour des cores n'arrange rien.
 
Sinon: http://www.eetimes.com/news/latest [...] =218900011

Citation :

Performance scaling of single-thread processors stopped in 2002, Dally said, following a period when the industry derived a performance increase of 52 percent per year for more than 20 years. But throughput-optimized processors like graphics processing units (GPUs) are still improving by greater than 70 percent per year, he said.


70% par an ?  Ca fait *2.3 en 18 mois, ou *2.9 en 2 ans.
 
Les +87.5% du GT200 ont mis 19 mois à arriver. Et 13 mois plus tard il n'y a toujours pas de remplaçant.
 
Et le GT300 devant être paper-launché 3 ans après le G80, il devrait donc être 4.9x plus perf selon Mr Dally.
 
Quand aux CPU qui soit disant ne sont pas plus perf en mono-thread qu'en 2002, Mr Dally devrait pourtant savoir qu'entre un P4C 2.8Ghz et un Clarkdale 32nm 3.46 Ghz, les perfs (mono-thread) ne sont pas les mêmes. [:yamusha]  
 

sharshar a écrit :

5000 coeurs et 20 teraflops!  
 
de quoi jouer avec le nouveau moteur de chez crytek a la mode en 3d vision avec physics et 100 fps constant sur un dual screen de 30 pouces!!


Sachant que Crytek prévoit déjà le CryEngine 4 pour 2012 ( Crysis 3 ?)... :whistle:


Message édité par marllt2 le 01-08-2009 à 04:31:34
n°7057148
Profil sup​primé
Posté le 31-07-2009 à 22:26:40  answer
 

tasson 2013 ne sera pas
 

Spoiler :

un dredi de 2009 :ange:

n°7057673
ilyama999
Posté le 01-08-2009 à 15:32:46  profilanswer
 

Hello ;)  
 
Un peu la flemme de tout lire puis vu que ça part de temps en temps en HS...  :D  
 
En gros, je sens bien que la 3D va me pousser à acheter le future monstre bi-gpu de nvidia...  :whistle:  
 
Tout ce que j'aimerais bien savoir c'est à quel point ce sera plus puissant d'une 4870X2 ou d'une GT295...
 
Direct X11 sera supporté je suppose?
Le jeu en vauda réelement t'il la chandelle pour du 1920 1200 quand on a une 4870 X2?
On va même pouvoir commencer à jouer sérieusement en 2560 sans faire de crossfire ou de SLI non?
C'est censé arriver quand ce monstre...?
 
Merci  ;)

Message cité 2 fois
Message édité par ilyama999 le 01-08-2009 à 15:32:55
n°7057702
Dyphen
Pull the trigger
Posté le 01-08-2009 à 16:04:52  profilanswer
 

http://www.generation-3d.com/actua [...] c15206.htm
 
 
:')
 
au lieu de balancer des conneries pareil, ils feraient mieux de se concentrer sur leur gpu dx 11

n°7057825
Activation
21:9 kill Surround Gaming
Posté le 01-08-2009 à 18:22:58  profilanswer
 

ilyama999 a écrit :

Hello ;)  
 
Un peu la flemme de tout lire puis vu que ça part de temps en temps en HS...  :D  
 
En gros, je sens bien que la 3D va me pousser à acheter le future monstre bi-gpu de nvidia...  :whistle:  
 
Tout ce que j'aimerais bien savoir c'est à quel point ce sera plus puissant d'une 4870X2 ou d'une GT295...
 
Direct X11 sera supporté je suppose?
Le jeu en vauda réelement t'il la chandelle pour du 1920 1200 quand on a une 4870 X2?
On va même pouvoir commencer à jouer sérieusement en 2560 sans faire de crossfire ou de SLI non?
C'est censé arriver quand ce monstre...?
 
Merci  ;)


 
 
on a tout de même déjà plusieurs jeu qui en 1920*1200 avec AA et effet plus ou moins à fond tire la gueule sur une HD4870X2 ou gtx295
 
quand je dit tire la gueule faut comprendre que c est genre 20-30i/s
 
je me demande si attaqué direct à la 'HD5870X2" ne serait pas du luxe (car j ai un mauvais présenti avec une simple HD5870 du gain de perf comparé à la HD4890 je sais pas pourquoi  
 
coté nvidia ... wait & see


Message édité par Activation le 01-08-2009 à 18:23:24
n°7057844
safri_duo
Quelques gouttes de...
Posté le 01-08-2009 à 18:54:42  profilanswer
 

j'espere qe la 5870 sera l'equivalent au moins de la 4870 pour ma part sinon ca servirai a rien de changer :/
pareil pour la gtx380 comparé a la 295...


---------------
macbook air (virtual DJ), pioneer DJM 350, ampli bose 1800 serie VI, panaray digital controler II, 2*bose 802
n°7057869
djffff
Time's like ocean in storm.
Posté le 01-08-2009 à 19:19:40  profilanswer
 

Tu voulais sans doute parler de la 4870X2

n°7057898
Dyphen
Pull the trigger
Posté le 01-08-2009 à 19:43:15  profilanswer
 

apparemment il parait que la 5870 = 4870 x2 ..
 
 

n°7057911
Activation
21:9 kill Surround Gaming
Posté le 01-08-2009 à 20:01:08  profilanswer
 

Dyphen a écrit :

apparemment il parait que la 5870 = 4870 x2 ..
 
 


 
 
si seulement ça pouvait être vrai .... on verra bien  
 

Spoiler :


http://www.articles-religieux.ca/img/product/cierge_paraffine_p.jpg
 
 [:agkklr]  

n°7057915
Yoyo_5
Posté le 01-08-2009 à 20:09:48  profilanswer
 

Dyphen a écrit :

apparemment il parait que la 5870 = 4870 x2 ..


J'en doute sévèrement, mais j'aimerai sincèrement que ce soit le cas... :jap:


---------------
¤ Paix et félicité ¤

n°7057920
White Sh4d​ow
GHz-O-Meter !
Posté le 01-08-2009 à 20:18:33  profilanswer
 

à mon avis, 4890 < 5870 < 4870x2

n°7057953
Dyphen
Pull the trigger
Posté le 01-08-2009 à 21:02:58  profilanswer
 

si les perf sont meme pas égale a une 4870 x2 quand la 5870 sortira..
 
et pareil pour nvidia, si la GTX380 arrive meme pas a égaler les perf de la GTX295..
 
pour ceux qui ont une carte double gpu actuel, ca sert a rien de changer .. autant attendre la 5870 x2 et la 395 :D
( en espérant que les prochaines carte double gpu qui seront dx 11 donc, chaufferont moins.. )
 

Message cité 2 fois
Message édité par Dyphen le 01-08-2009 à 21:08:30
n°7057992
Yoyo_5
Posté le 01-08-2009 à 21:31:49  profilanswer
 

Dyphen a écrit :

si les perf sont meme pas égale a une 4870 x2 quand la 5870 sortira..
 
et pareil pour nvidia, si la GTX380 arrive meme pas a égaler les perf de la GTX295..
 
pour ceux qui ont une carte double gpu actuel, ca sert a rien de changer .. autant attendre la 5870 x2 et la 395 :D
( en espérant que les prochaines carte double gpu qui seront dx 11 donc, chaufferont moins.. )


Pour la ATI j'en doute bien que ce soit faisable dans l'absolu, mais pour nVidia, je n'ai aucun doute, ils prévoient gros, très gros... [:la tache]
 

Spoiler :

...trop gros...! :o


---------------
¤ Paix et félicité ¤

n°7057997
Activation
21:9 kill Surround Gaming
Posté le 01-08-2009 à 21:41:31  profilanswer
 

en dispo mes jeux étalon seront stalker clear sky et crysis (pas warhead)
 
après quand dispo, je rajoute:
modern warfare 2
grid 2
 
:O
 
voilà maintenant aboulé les cartes :O

Message cité 1 fois
Message édité par Activation le 01-08-2009 à 21:42:14
n°7058006
Dyphen
Pull the trigger
Posté le 01-08-2009 à 21:52:37  profilanswer
 

Activation a écrit :

en dispo mes jeux étalon seront stalker clear sky et crysis (pas warhead)
 
après quand dispo, je rajoute:
modern warfare 2
grid 2
 
:O
 
voilà maintenant aboulé les cartes :O


 
modern warfare 2 utilisera le meme moteur que modern warfare premier du nom ou peut etre légerement optimisé, mais toute facon Call of duty est pas un jeu aussi gourmand en ressource comme un Crysis ..
 
je savais pas que y'avait un GRID 2 de prévue  :love:  
 
et moi j'attend beaucoup Crysis 2  :D

Message cité 2 fois
Message édité par Dyphen le 01-08-2009 à 21:53:10
n°7058010
Activation
21:9 kill Surround Gaming
Posté le 01-08-2009 à 22:01:14  profilanswer
 

Dyphen a écrit :


 
modern warfare 2 utilisera le meme moteur que modern warfare premier du nom ou peut etre légerement optimisé, mais toute facon Call of duty est pas un jeu aussi gourmand en ressource comme un Crysis ..
 
je savais pas que y'avait un GRID 2 de prévue  :love:  
 
et moi j'attend beaucoup Crysis 2  :D


 
 
je pense que tu te trompe sur MW2
même si je suis d accord sur le fait que c est pas comparable à un crysis (moins warhead)
son moteur a bien evolué depuis le premier opus, et il risque d'être un bon test pour les nouvelles carte
avec tout plein de particules et explosions
framerate en dent de scie à prevoir si pas de carte assez costaux

n°7058013
marllt2
Posté le 01-08-2009 à 22:05:01  profilanswer
 

ilyama999 a écrit :

En gros, je sens bien que la 3D va me pousser à acheter le future monstre bi-gpu de nvidia...  :whistle:  
 
Tout ce que j'aimerais bien savoir c'est à quel point ce sera plus puissant d'une 4870X2 ou d'une GT295...
 
Direct X11 sera supporté je suppose?
Le jeu en vauda réelement t'il la chandelle pour du 1920 1200 quand on a une 4870 X2?
On va même pouvoir commencer à jouer sérieusement en 2560 sans faire de crossfire ou de SLI non?
C'est censé arriver quand ce monstre...?


Pas de bi-GPU pout le GT300. Et lancement paper-launch fin Q4 pour une "dispo" en 2010.
 
Pour les perfs, on mise sur pareil ou plus perf qu'une GTX 295.
 
 

Dyphen a écrit :

http://www.generation-3d.com/actua [...] c15206.htm
 
 
:')
 
au lieu de balancer des conneries pareil, ils feraient mieux de se concentrer sur leur gpu dx 11


Le titre de gen3d est faux. Ce n'est pas une annonce de produit, mais une [annonce de] projection.
 
Quand aux 1000 SP de gen3d pour le GT300. [:tinostar]  
 

Dyphen a écrit :

apparemment il parait que la 5870 = 4870 x2 ..


Contrairement à nvidia, on ne sait pas du tout les perfs de la gen DX11 d'AMD. Sauf le "pleasantly surprised".
 

Dyphen a écrit :

pour ceux qui ont une carte double gpu actuel, ca sert a rien de changer .. autant attendre la 5870 x2 et la 395 :D
( en espérant que les prochaines carte double gpu qui seront dx 11 donc, chaufferont moins.. )


AMD aura du multi-GPU, pas nVidia.
 
 

Dyphen a écrit :

mais toute facon Call of duty est pas un jeu aussi gourmand en ressource comme un Crysis ..


 
Pourtant COD fait consommer plus les GPU que Crysis. J'avais posté un graph sur je sais plus quel topic.
 

Dyphen a écrit :

je savais pas que y'avait un GRID 2 de prévue  
 
et moi j'attend beaucoup Crysis 2  


Il veut plutôt parler de DIRT 2. :o  
 
Pour Crysis 2, si Crytek refait comme pour Crysis, ça va être du lourd. Par contre si le jeu est saboté par les consoles... :o

Message cité 2 fois
Message édité par marllt2 le 01-08-2009 à 22:12:36
n°7058014
Dyphen
Pull the trigger
Posté le 01-08-2009 à 22:05:12  profilanswer
 

Activation a écrit :


 
 
je pense que tu te trompe sur MW2
même si je suis d accord sur le fait que c est pas comparable à un crysis (moins warhead)
son moteur a bien evolué depuis le premier opus, et il risque d'être un bon test pour les nouvelles carte
avec tout plein de particules et explosions
framerate en dent de scie à prevoir si pas de carte assez costaux


 
9 min de MW2 en HD
 
-> http://ve3d.ign.com/videos/play/53 [...] lash-Video
 
et j'ai pas la net impression que ca a evolué beaucoup, regarde par toi même :)
 

marllt2 a écrit :


Pas de bi-GPU pout le GT300. Et lancement paper-launch en Décembre pour une dispo début 2010.
 
Pour les perfs, on mise sur pareil ou plus perf qu'une GTX 295


 
comment tu peux etre sûr que nvidia fera pas de multi GPU sur le GT300  ? :heink:

Message cité 1 fois
Message édité par Dyphen le 01-08-2009 à 22:07:53
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  48  49  50  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)