Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3722 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  66  67  68  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7092916
Activation
21:9 kill Surround Gaming
Posté le 30-08-2009 à 18:11:15  profilanswer
 

Reprise du message précédent :
y en a plus chez ati mais il traite des plus petit block
 
donc en theorie plus flexible
 
mais faut genre 4x plus du coup pour ati
d un autre coté chez nvidia il est obligé de tout traiter en gros block même si ça ne le nécessite pas
 
 


Message édité par Activation le 30-08-2009 à 18:15:29
mood
Publicité
Posté le 30-08-2009 à 18:11:15  profilanswer
 

n°7092939
Golden Div​a
Posté le 30-08-2009 à 18:31:57  profilanswer
 

mikestewart a écrit :

Golden Diva & Activation : :jap:
 
Une GTX360 à base de GT300 avec unités désactivées, pourquoi pas, vu les (très) probables difficultés de production de GT300. Mais il faudrait qu'elle tienne la longueur face à la 5870, car la GTX380 (le "flagship" ) ne sera pas positionnée face à la 5870, mais face à la 5870X2, prévue pour Novembre. Situation délicate.
 
Par contre je préfère ne pas penser au devenir du reste de la gamme Nvidia.  :sweat:  
 
Petite précision concernant mes "600€" : si la GTX380 finit derrière la 5870X2 (éventuellement 2 x 1600SP à contrer tout de même), elle sera difficilement vendue à 600€ effectivement, bien que ce soit l'objectif semi-avoué d'Nvidia. A moins que la 5870X2 soit vendue au delà des 550-600€ (ce qui impliquerait aussi une 5870 relativement chère).


 
Tout à fait. La HD5870-X2 est certainement l'obstacle majeur à la tarification de nVidia. Mais la question est : sera-t-elle disponible à la sortie du GT300 ?  
Si c'est la cas, nVidia prendra un sale coup dans les dents, parce que je vois mal AMD la commercialiser à plus de 600€ ...
 
En fait, mon impression actuelle est la suivante :
 
HD5870 (300€ au lancement, 250€ à la sortie du GT300) < GTX360 (400€) < GTX380 (600€)
 
J'ai en effet la désagréable impression qu'AMD a finalement trop bridé son RV870 pour qu'il soit compétitif face à un sursaut de fierté de la part de leur rival. Par contre, ces chiffres ne seraient valables qu'en l'absence de HD5870-X2. Avec celle-ci, je vois plus un schéma du type
 
HD5870 (250€) < GTX360 (300-350€) < GTX380 (450-500€) < HD5870-X2 (500€)
 
Et c'est précisément la présence de cette dernière carte qui va faire très mal à nVidia, en les forçant à adopter des tarifs beaucoup plus compétitifs sur leur haut de gamme.  
Mais, honnêtement (pessimisme inside) je ne pense pas que le RV870 sera aussi compétitif face au GT300 que ne l'était le RV770 face au GT200. Seule la sortie d'une carte bi-GPU très rapidement pourra forcer des prix comme ceux que l'on connait actuellement chez nVidia.
 
Heu, je précise quand même que je n'affirme rien ! Tout cela n'est que de la spéculation et ne se base que sur des impressions personnelles (et pas forcément optimistes). J'ai simplement peur d'être un peu déçu après le très bon RV770.

n°7092992
campi
V8 FTW
Posté le 30-08-2009 à 19:12:22  profilanswer
 

Golden Diva a écrit :


 
Tout à fait. La HD5870-X2 est certainement l'obstacle majeur à la tarification de nVidia. Mais la question est : sera-t-elle disponible à la sortie du GT300 ?  
Si c'est la cas, nVidia prendra un sale coup dans les dents, parce que je vois mal AMD la commercialiser à plus de 600€ ...
 
En fait, mon impression actuelle est la suivante :
 
HD5870 (300€ au lancement, 250€ à la sortie du GT300) < GTX360 (400€) < GTX380 (600€)
 
J'ai en effet la désagréable impression qu'AMD a finalement trop bridé son RV870 pour qu'il soit compétitif face à un sursaut de fierté de la part de leur rival. Par contre, ces chiffres ne seraient valables qu'en l'absence de HD5870-X2. Avec celle-ci, je vois plus un schéma du type
 
HD5870 (250€) < GTX360 (300-350€) < GTX380 (450-500€) < HD5870-X2 (500€)
 
Et c'est précisément la présence de cette dernière carte qui va faire très mal à nVidia, en les forçant à adopter des tarifs beaucoup plus compétitifs sur leur haut de gamme.  
Mais, honnêtement (pessimisme inside) je ne pense pas que le RV870 sera aussi compétitif face au GT300 que ne l'était le RV770 face au GT200. Seule la sortie d'une carte bi-GPU très rapidement pourra forcer des prix comme ceux que l'on connait actuellement chez nVidia.
 
Heu, je précise quand même que je n'affirme rien ! Tout cela n'est que de la spéculation et ne se base que sur des impressions personnelles (et pas forcément optimistes). J'ai simplement peur d'être un peu déçu après le très bon RV770.


 
D'un autre coté on avait pensé la même chose du RV770 face au GT200, et au final on a été très surpris :)


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°7092997
marllt2
Posté le 30-08-2009 à 19:16:35  profilanswer
 

mikestewart a écrit :

Pour résumer simplement attendez une dispo pas avant plusieurs mois (3-4 au minimum) et préparez-vous à une carte chère (du genre 600€). La puce sera grosse mais on ne sait pas ce qu'il y a dedans. : o (nouvelle archi)
 
Sinon, en Septembre, peut-être quelque chose à se mettre sous la dent, tout de même.


Curieux de quoi.  :whistle:  
 
A part le lancement d'une campagne marketing pro DX10.1 pour les CS de Seven.
 
 

Rafale06 a écrit :

Ok pour les 3 ou 4mois d'attente.......par contre 600euros ????? en sachant de depuis 2ans nvidia et ati ne font plus aucunes carte dans cette gamme de prix..pour preuve la carte bi gpu GTX 295 est sortie aux alentours des 450euros.......
 
Donc en théorie la prochaine carte haut de gamme mono gpu de nvidia ne devrait pas dépasser les 400euros gros gros maxx.............
 
Bref pour l'instant on parle dans le vide ..........qui vivra verra.......
 
PS: Pour les Fan boys ils se reconnaitront ........


Concurrente directe de la HD 4870 X2, pas beaucoup moins perf (quand ce n'est pas plus) qui elle était à 400€.  
 
nVidia a aligné le prix sur ces perfs (un peu gonflées par le panel officiel de jeux nV), fait payer 50€ pour le fait de s'appeller nVidia. Et ça a effectivement donné 450€ de la GTX 295.
 
Je rappelle aussi que nV ne l'a au début commercialisé que comme vitrine techno. Ils ne gagnaient pas d'argent dessus. Comme il y avait plus de demande que prévu, ils en ont fait un mono PCB moins cher à fabriquer.

Message cité 1 fois
Message édité par marllt2 le 30-08-2009 à 19:27:27
n°7093003
marllt2
Posté le 30-08-2009 à 19:18:14  profilanswer
 

eldervador a écrit :

Hum non pour 400 € grand max tu peux oublier. nVidia a fait un communiqué ou ils indique que leurs carte HDG seront accessibles contre 599$ minimum. Soit avec la règle du 1=1 : 599€ en France.
 
Tout cele ce certifie quand on voit le prix du die : 52$ !
 
(Source : http://www.puissance-pc.net/cartes [...] Itemid=49)


 :o  
 
J'ai déjà parlé de cette news sur ce topic, et fait un long post pour expliquer pourquoi.
 

Golden Diva a écrit :

Tout à fait. La HD5870-X2 est certainement l'obstacle majeur à la tarification de nVidia. Mais la question est : sera-t-elle disponible à la sortie du GT300 ?  
Si c'est la cas, nVidia prendra un sale coup dans les dents, parce que je vois mal AMD la commercialiser à plus de 600€ ...


Novembre pour le Hemlock ( HD 5870 X2).

Message cité 1 fois
Message édité par marllt2 le 30-08-2009 à 19:52:51
n°7093033
mikestewar​t
Air Roll Spinnin'
Posté le 30-08-2009 à 19:38:09  profilanswer
 

marllt2 a écrit :

Curieux de quoi.  :whistle:  
 
A part le lancement d'une campagne marketing pro DX10.1 pour les CS de Seven.


 
Ils peuvent dire que du hardware DX11 ne sert à rien pour l'instant, je leur fait confiance là dessus. ;)
 
Par contre, par rapport aux performances des 58xx, là, il va falloir qu'ils sortent les meilleures slides qu'ils ont sur le GT300.  

n°7093041
Rafale06
Vive les Suisses (Neutre..)
Posté le 30-08-2009 à 19:41:01  profilanswer
 

Pour ma part, et en imaginant une projection de vente........pour les specs on en sait rien, une idée relativement préçise pour ATI (logique vu l'annonçe proche), et rien du tout pour NVIDIA ou du moins pas grand chose......
 
Donc pour le moment en terme de hardware il n'y a franchement pas grand chose à dire et nous verrons bien pour ATI fin septembre.
 
Alors voila pour ce qui conçerne vraiment les acheteurs, le prix et le rapport prix/perfs.........
 
En suivant l'évolution des 2concurrents sur ces 3dernières années, ont dira que dans le haut de gamme nvidia à un léger avantage qu'il fait payer assez cher....., pour ce qui conçerne le meilleur rapport prix / perfs ont dira qu'ATI à un monopole.
 
Now arrive le moment crucial (DX11) et donc forçément faire miroiter une nouvelle technologie pour les futurs clients.........
 
La ou le bat blesse est qu'actuellement mis à part Crysis (et son addon) - GTA4 - Stalker clear sky. aucun jeux ne néçessite de nouvelle cartes 3D hyper puissante.
 
Donc pour clarifier les choses en terme de projection de vente autant chez ATI que chez NVIDIA, il n'y a aucune viabilité commercial pour un produit à 600euros (même dans le schéma d'une carte bi gpu) sauf juste pour faire vitrine technologique à prix d'or.....un peu comme une ferrari ou lambo.....
 
Du moment qu'il n'y aucun jeux ne néçessitant autant de perfs....... mis à part les joueux fortunés qui ont un 30p avec un résol de tarés et pour les 3 jeux préçités.........
 
Au final pour une carte mono GPU il est clair et net que plus de 400euros chez nvidia serait un suiçide commercial, même si cette dire carte apporte 25 voir 30% de perfs de plus que sa concurrente directe et en restant toujours dans le domaine du mono gpu....
 
La période la vache grasse dans le monde en crise est finie et actuellement je ne vois pas un joueur balançer encore plus de 400euros dans une carte 3D alors que les cartes actuelles cartonnes un maxx pour environs 400euros (sli de 275GTX-bien crossfire de 4890)........
 
Quand on sait qu'une simple GTX 285 est dans 98% des cas largement suffisante dans tous les jeux et dans une résol full hd........


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7093052
Rafale06
Vive les Suisses (Neutre..)
Posté le 30-08-2009 à 19:51:36  profilanswer
 

Pour ma part même si le GT300 est un monstre de puissance pour 400euros maxx je ne craquerais pas ^^........
 
Sauf si un jeu DX11 me fait vraiment planer ^^ et encore..........


Message édité par Rafale06 le 30-08-2009 à 19:51:53

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7093056
White Sh4d​ow
GHz-O-Meter !
Posté le 30-08-2009 à 19:53:30  profilanswer
 

Double post :o

n°7093077
Rafale06
Vive les Suisses (Neutre..)
Posté le 30-08-2009 à 20:02:05  profilanswer
 

;)


---------------
Les kevin (j'ai 12ans lol) je les ignore......
mood
Publicité
Posté le 30-08-2009 à 20:02:05  profilanswer
 

n°7093211
kaiser52
Posté le 30-08-2009 à 21:25:44  profilanswer
 

Gein a écrit :


 
Mais vous les sortez d'où vos stream processor ?
 
http://www.hardware.fr/medias/phot [...] 026339.gif
 
Cest fameux SP, ne serait pas simplement des magouilles marketing ?
Histoire de gonfler les chiffres.  :D  
 
Pour ATI je lis 160 processeur vectoriel et pour Nvidia je lis 240 processeur scalaire.
 
Edit : 160.5 = 800 SP, Maybe ?


 
160 vect 5 => 160 * 5 => 800 ^^
 
Sinon faut pas oublié le faite que nVIDIA va passé de SIMD (Single Instruction Multiple Data) a MIMD (Multiple Instruction Multiple Data).
la question est : "Est-ce que ce pas en avant pourrait justifié un énorme bon de perf ?"
 
Par ce que si le GT300 vise X13 000 (3d moue je sais je sais XD), ca fait qu'il vise plus qu'un SLI de GTX295.
 
Donc en gros 240 SIMD SP = 128 MIMD SP ?
Ce qui voudrait dire que 512 MIMD SP == 960 SIMD SP ?
 
J'attends de voire ce quand même.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7093322
marllt2
Posté le 30-08-2009 à 22:52:41  profilanswer
 

kaiser52 a écrit :

Par ce que si le GT300 vise X13 000 (3d moue je sais je sais XD), ca fait qu'il vise plus qu'un SLI de GTX295.


En même temps le SLI de GTX 295... :o  
 
Une GTX 280 fait X6 000 :
 
http://hothardware.com/articleimages/Item1254/v1.png
 
A comparer aux résultats ingame:
 
http://www.hardware.fr/medias/photos_news/00/25/IMG0025689.gif


Message édité par marllt2 le 30-08-2009 à 23:01:50
n°7093459
White Sh4d​ow
GHz-O-Meter !
Posté le 31-08-2009 à 01:40:08  profilanswer
 

Le test sur 3dMark Vantage date quand même du 10 février, soit 6 mois, et il y en a eu des drivers entre temps.  
 
Aujourd'hui voilà ce que ca donne :
 
http://www.xbitlabs.com/images/video/gf-gtx295-sli/vdm_total.png
 
http://www.xbitlabs.com/images/video/gf-gtx295-sli/vdm_gpu.png
 
Ca change un peu quand même avec +9000 pts sur le score total et +9000 pts au score GPU uniquement... c'est loin d'être négligeable !
 
EDIT : Penser que la GTX380 sera comparable à un CF de 4870x2 n'a pas de sens, parce que ce sont des architectures différentes chez des constructeurs différents avec des drivers différents plus ou moins optimisés pour 3Dmark.
 
Source Date : 08/10/2009 soit le 10 Aout 2009.


Message édité par White Sh4dow le 31-08-2009 à 01:44:46
n°7093461
marllt2
Posté le 31-08-2009 à 01:49:56  profilanswer
 

Surtout que si le scaling avec 2 ou 3 GPU est correct, avec 4 c'est nawak.
 
Donc sur Vantage, en gros GT300 = SLI de GTX 285 o/c de 10%.


Message édité par marllt2 le 31-08-2009 à 01:53:45
n°7093463
White Sh4d​ow
GHz-O-Meter !
Posté le 31-08-2009 à 01:52:10  profilanswer
 

Tu veux dire en jeux ? Si oui, entièrement d'accord... <= Je parlais de la première phrase avant que t'ajoutes la deuxième
 
Edit :  :jap:
 
EDIT2 : Enfait, ca restes dans les normes avec une carte graphique haut de gamme qui équivaut au bigpu de la gamme précédente. C'est quand même raisonable.


Message édité par White Sh4dow le 31-08-2009 à 01:56:19
n°7093465
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 31-08-2009 à 01:57:08  profilanswer
 

eldervador a écrit :

Hum non pour 400 € grand max tu peux oublier. nVidia a fait un communiqué ou ils indique que leurs carte HDG seront accessibles contre 599$ minimum. Soit avec la règle du 1=1 : 599€ en France.
 
Tout cele ce certifie quand on voit le prix du die : 52$ !
 
(Source : http://www.puissance-pc.net/cartes [...] Itemid=49)


Je passe par ici juste pour dire que les prix des wafers sont bien trop bas par rapport à la réalité.
Le prix d'un wafer atteint presque 7000$, et on peut ajouter un minimum de 2000$ si le hk/mg est utilisé.
Donc c'est quelque chose comme 9000$ par wafer de 40nm chez TSMC et son procédé 40G.
Autrement dit un die de G300 revient à environ 93$ au lieu de 52$, et le Cypress à 47$ au lieu de 34$.
 
 
 

Rafale06 a écrit :

...
Au final pour une carte mono GPU il est clair et net que plus de 400euros chez nvidia serait un suiçide commercial, même si cette dire carte apporte 25 voir 30% de perfs de plus que sa concurrente directe et en restant toujours dans le domaine du mono gpu....
 
La période la vache grasse dans le monde en crise est finie et actuellement je ne vois pas un joueur balançer encore plus de 400euros dans une carte 3D alors que les cartes actuelles cartonnes un maxx pour environs 400euros (sli de 275GTX-bien crossfire de 4890).......


En effet, il est bien fini le temps ou le marché des cartes graphique dépassait les 6,6 milliards de dollars...
 
http://www.xbitlabs.com/images/news/2009-08/jpr_aib_mkt_q2_2009_segments_1.jpg
 

n°7093472
White Sh4d​ow
GHz-O-Meter !
Posté le 31-08-2009 à 02:04:13  profilanswer
 

Wirmish a écrit :


En effet, il est bien fini le temps ou le marché des cartes graphique dépassait les 6,6 milliards de dollars...
 
http://www.xbitlabs.com/images/new [...] ents_1.jpg
 


On sent bien que le marché des jeux vidéos commence à stagner. Il n'y a pas eu de gros hits type vitrine téchnologique ces derniers temps, brefs rien qui requiert un changement de config intégral.  
 
Les développeurs voyent en le PC un marché dominé par le piratage, tandis que celui des consoles est "plus facile" (dans le sens ou on achète une console et c'est parti pour jouer. Une fois qu'on achète une console on est obligé d'acheter les jeux avec). Par exemple la PS3 est très difficilement hackable.
 
Et les nouveaux "standards" d'amd qui privilégie rapport Q/P tombe à pic après une crise financière non sans conséquences.
 
On s'éloigne gentillement des CGs haut de gammes certes très performantes mais dons le surplus par rapport au milieu/haut de gamme amd est clairement superflu (à moins évidemment de posséder un 30 pouces, mais c'est loin d'être le cas de tout le monde, cela reste un luxe que seul peut de gens peuvent se permettre).
 
Je vois mal en ce moment un retour en arrière, ou une prochaine 8800 GTX à 600 euros devient un Hit, même si clairement ce GT300 s'annonce comme un monstre (dans tous les sens du termes).
 
Bien évidemment, ceci reste un point de vue purement subjectif et personnel.  :)

n°7093490
marllt2
Posté le 31-08-2009 à 02:37:33  profilanswer
 

Wirmish a écrit :

Le prix d'un wafer atteint presque 7000$, et on peut ajouter un minimum de 2000$ si le hk/mg est utilisé.
Donc c'est quelque chose comme 9000$ par wafer de 40nm chez TSMC et son procédé 40G.


Du HK sur le 40 nm ? C'est pas plutôt pour le 28nm ?
 

Wirmish a écrit :

Autrement dit un die de G300 revient à environ 93$ au lieu de 52$, et le Cypress à 47$ au lieu de 34$.


Avec un yield de 100%.

Message cité 2 fois
Message édité par marllt2 le 31-08-2009 à 02:39:49
n°7093499
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 31-08-2009 à 03:21:41  profilanswer
 

marllt2 a écrit :

Du HK sur le 40 nm ? C'est pas plutôt pour le 28nm ?


En effet, le HK était prévu pour le 32nm, mais ça a été repoussé au 28nm.
Le 40nm c'est plutôt l'utilisation de la gravure par immersion + ELK.
"The 40-nm process employs 193-nm immersion lithography and ultralow-k material."
 
Donc c'est ~7000$ par wafer en 40nm, et l'année prochaine on passera le cap des 9000$ en 28nm.

n°7093500
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 31-08-2009 à 03:35:36  profilanswer
 

Quelques infos supplémentaires à propos des problèmes de production en 40nm chez TSMC.

Citation :

Mark Liu was there not so much to talk about the 32nm and 28nm processes which look to have slipped by about a quarter in terms of when they get underway, but the problems with yield that are rumoured to have tripped up nVidia.
 
Liu started off by claiming that the average yield has roughly doubled within the past three months since the primary causes of failure emerged. In the previous conference call in April, Tsai confessed that the foundry had problems with 40nm but claimed that the root cause of the problem had been found.
 
Liu cited two materials changes, including the use of silicon germanium to strain the silicon layers, and a move to immersion lithography contributed to problems with defects, as being responsible for being a tougher step than the shift to 65nm, which only involved a change in lithography. "We encountered major issues," he said.
 
Liu explained the major problem with yield lay in the stress layers produced by adding different amounts of silicon germanium.
 
On the 40nm process, Liu said the foundry is attempting to ramp-up yield through the summer. "We have several activities in place to move the yield forward. We expect the defect density reduction will continue through September."


 
On apprend donc que le 32/28nm a été repoussé d'un trimestre.
Que nVidia a eu de sérieux problèmes avec le 40nm de TSMC.
Que les yields du 40nm se sont amélioré du double par rapport à avril.
Que l'utilisation du germanium est une des cause des problèmes du 40nm.
Que l'utilisation de la gravure par immersion n'a pas été de tout repos pour les techs de TSMC.
Et que les yields ne sont pas encore à un niveau acceptable, mais qu'il le seront peut-être à la fin septembre.


Message édité par Wirmish le 02-09-2009 à 02:05:19
n°7093545
flav106
Vive la tartiflette !!!
Posté le 31-08-2009 à 08:35:11  profilanswer
 

White Sh4dow a écrit :


On sent bien que le marché des jeux vidéos commence à stagner. Il n'y a pas eu de gros hits type vitrine téchnologique ces derniers temps, brefs rien qui requiert un changement de config intégral.  
 
Les développeurs voyent en le PC un marché dominé par le piratage, tandis que celui des consoles est "plus facile" (dans le sens ou on achète une console et c'est parti pour jouer. Une fois qu'on achète une console on est obligé d'acheter les jeux avec). Par exemple la PS3 est très difficilement hackable.
 
Et les nouveaux "standards" d'amd qui privilégie rapport Q/P tombe à pic après une crise financière non sans conséquences.
 
On s'éloigne gentillement des CGs haut de gammes certes très performantes mais dons le surplus par rapport au milieu/haut de gamme amd est clairement superflu (à moins évidemment de posséder un 30 pouces, mais c'est loin d'être le cas de tout le monde, cela reste un luxe que seul peut de gens peuvent se permettre).
 
Je vois mal en ce moment un retour en arrière, ou une prochaine 8800 GTX à 600 euros devient un Hit, même si clairement ce GT300 s'annonce comme un monstre (dans tous les sens du termes).
 
Bien évidemment, ceci reste un point de vue purement subjectif et personnel.  :)


Je suis complètement d'accord avec cette analyse et je comprends tout à fait le désintérêt pour le THG au vu des productions videoludiques de cette dernière année.
Sans véritable hit pour tirer les ventes de CG (et meme confs complètes), on voit bien que le marché stagne.
 
Perso quand je vois qu'avec une conf qui commence à dater j'arrive à faire tourner tous les jeux récents à fond, je ne vois pas pourquoi je m'amuserais à dépenser des sous dans une nouvelle conf, surtout par les temps qui courent.
 
Et comme tu le signale, les jeux étant multi-plateforme et qu'on trouve la plupart des jeux PC sur console, beaucoup de gens pensent qu'il est plus sympa de jouer sur ces dernières et sur un grand écran (les plus de 46" deviennent la norme) plutôt que de jouer sur un 22" ou 24" rien que pour avoir la réso qui tue et les filtres à fond, chose dont les consoleux se foutent.


---------------
PSN Flav106
n°7093712
Golden Div​a
Posté le 31-08-2009 à 11:53:13  profilanswer
 

campi a écrit :


 
D'un autre coté on avait pensé la même chose du RV770 face au GT200, et au final on a été très surpris :)


 
Oui, c'est vrai.  :jap:  
 
Mais d'un autre côté, à quelques jours de la sortie, une majorité des gens pensaient que la carte ne disposerait que de 480 SP's.  
Cette fois, j'ai la très désagréable impression que les différentes sources affirment connaitre les caractéristiques techniques du RV870 avec beaucoup plus de certitude qu'il y a 15 mois. Je suis surs que certains mettraient leur HD4870 à couper que cette histoire de bande passante comprise entre 150 et 180 GB/s va se vérifier. Et pour moi, ça resterait un facteur limitant, là où, au contraire, le RV770 apportait un équilibre extraordinaire à l'architecture foireuse qui avait précédé.
A cela, on peut ajouter le fait qu'après un GT200 qui n'est pas spécialement synonyme de réussite magistrale et une accumulation de retards divers, nVidia est cette fois le dos au mur. Et, on a beau dire ce qu'on veut, mais quand on a la volonté ET les moyens ... vous connaissez la suite.
Par contre ils peuvent toujours courir s'ils veulent me faire payer leurs mastodontes entre 450 et 600 €.
 
Mais, je le rappelle encore une fois, ça ne reste qu'une impression ! (ajoutée au fait que je suis assez pessimiste de nature ...)
 

marllt2 a écrit :


 
Novembre pour le Hemlock ( HD 5870 X2).


 
OK, alors Huang va peut-être nous faire une petite dépression.
 

n°7093722
trajouf
Posté le 31-08-2009 à 12:09:25  profilanswer
 

En fait c'est Larrabee qui va arriver avant! Tu voulais choisir entre vert et rouge (enfin le rouge est vert maintenant! Pas vert de rage, mais vraiment vert de vert), bah t'auras du bleu!

n°7093729
campi
V8 FTW
Posté le 31-08-2009 à 12:17:58  profilanswer
 

Golden Diva a écrit :


 
Oui, c'est vrai.  :jap:  
 
Mais d'un autre côté, à quelques jours de la sortie, une majorité des gens pensaient que la carte ne disposerait que de 480 SP's.  
Cette fois, j'ai la très désagréable impression que les différentes sources affirment connaitre les caractéristiques techniques du RV870 avec beaucoup plus de certitude qu'il y a 15 mois. Je suis surs que certains mettraient leur HD4870 à couper que cette histoire de bande passante comprise entre 150 et 180 GB/s va se vérifier. Et pour moi, ça resterait un facteur limitant, là où, au contraire, le RV770 apportait un équilibre extraordinaire à l'architecture foireuse qui avait précédé.
A cela, on peut ajouter le fait qu'après un GT200 qui n'est pas spécialement synonyme de réussite magistrale et une accumulation de retards divers, nVidia est cette fois le dos au mur. Et, on a beau dire ce qu'on veut, mais quand on a la volonté ET les moyens ... vous connaissez la suite.
Par contre ils peuvent toujours courir s'ils veulent me faire payer leurs mastodontes entre 450 et 600 €.
 
Mais, je le rappelle encore une fois, ça ne reste qu'une impression ! (ajoutée au fait que je suis assez pessimiste de nature ...)
 


 

Golden Diva a écrit :


 
OK, alors Huang va peut-être nous faire une petite dépression.
 


 
 
Oui c'est vrai, mais qui sait on peut avoir quelques surprises ;)
 
Sinon pour moi c'est pareil, 600E c'est même pas la peine... Surtout qu'il n'y a plus d'exclu PC qui demandent une carte puissante...


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°7093749
flav106
Vive la tartiflette !!!
Posté le 31-08-2009 à 12:30:28  profilanswer
 

campi a écrit :


 
 
Oui c'est vrai, mais qui sait on peut avoir quelques surprises ;)
 
Sinon pour moi c'est pareil, 600E c'est même pas la peine... Surtout qu'il n'y a plus d'exclu PC qui demandent une carte puissante...


On est d'accord.  :jap:


---------------
PSN Flav106
n°7093760
Activation
21:9 kill Surround Gaming
Posté le 31-08-2009 à 12:37:37  profilanswer
 

campi a écrit :


 
 
Oui c'est vrai, mais qui sait on peut avoir quelques surprises ;)
 
Sinon pour moi c'est pareil, 600E c'est même pas la peine... Surtout qu'il n'y a plus d'exclu PC qui m intéresse qui demandent une carte puissante en poussant les réglages à fond...


 
 [:aloy] car tu ne semble pas aux courants de plusieurs jeux


Message édité par Activation le 31-08-2009 à 12:38:27
n°7093761
Golden Div​a
Posté le 31-08-2009 à 12:38:21  profilanswer
 

trajouf a écrit :

En fait c'est Larrabee qui va arriver avant! Tu voulais choisir entre vert et rouge (enfin le rouge est vert maintenant! Pas vert de rage, mais vraiment vert de vert), bah t'auras du bleu!


 
Ben franchement, j'espérais que Larrabee viendrait agrandir la liste de mes options au Q1 2010, mais on suspecte maintenant l'annulation pure et simple de Larrabee 3, pour un Larrabee 4 en 32 nm fin 2010 voire 2011 !
Donc ce ne sera pas pour la prochaine fois, j'en ai bien peur.
Dommage, même par simple curiosité, j'aurais aimé voir ce qu'un géant comme Intel était capable de faire sur un terrain qu'il ne maitrise pas a priori ...
 

campi a écrit :


 
Oui c'est vrai, mais qui sait on peut avoir quelques surprises ;)
 
Sinon pour moi c'est pareil, 600E c'est même pas la peine... Surtout qu'il n'y a plus d'exclu PC qui demandent une carte puissante...


 
Ouaip, gardez vos sous pour Doom 4. Celui-là risque de faire pleurer nos machines ...  ;)  
 

n°7093764
flav106
Vive la tartiflette !!!
Posté le 31-08-2009 à 12:39:51  profilanswer
 

Golden Diva a écrit :


 
Ouaip, gardez vos sous pour Doom 4. Celui-là risque de faire pleurer nos machines ...  ;)  
 


Ouais enfin d'ici à ce que l'IDTEch5 soit fini on a le temps ...  :o


---------------
PSN Flav106
n°7093765
Activation
21:9 kill Surround Gaming
Posté le 31-08-2009 à 12:40:23  profilanswer
 

ça me fait marré depuis le temps que vous l attendez larabee que vous en parlez que vous en revez
 
quand moi je disais lors, "comptez même pas en voir qqchose de concret auprès du grand public avant 2012"
et là tout les 1 an vous parlez de larabee depuis quoi 2007 :D


Message édité par Activation le 31-08-2009 à 12:40:56
n°7093776
Gein
Posté le 31-08-2009 à 12:50:49  profilanswer
 

Sans être méchant émuler l'architecture d'un GPU à travers larabee (CPU en force).
C'est du domaine du rêve  :D

n°7093780
kaiser52
Posté le 31-08-2009 à 12:51:57  profilanswer
 

ou du cauchemar !  :love:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7093781
Gein
Posté le 31-08-2009 à 12:52:16  profilanswer
 

:lol:

n°7093800
Activation
21:9 kill Surround Gaming
Posté le 31-08-2009 à 13:00:55  profilanswer
 

déjà pour que ça fonctionne cmme il voudrait larabee intel
 
faut un nouveau compilateur optimisé pour faire tourner de concert tout ces core d execution x86
celui ci est en phase beta test
et ne devrait si mes infos sont assez fraiche être qu en version final courant 2010
 
ça veut dire que quand bien même la carte serait prète à être vendu les devs de société tierce pourrait rien en foutre commercialement parlant avant 2010
 
un peu comme là les devs de jeux on taffé avec la beta de dx11 depuis mars 2009 (et en gros la prebeta depuis oct 2008)
et du coup ne sortiront les jeux avec dx11 dedant que vers oct/nov 2009

n°7093803
Rafale06
Vive les Suisses (Neutre..)
Posté le 31-08-2009 à 13:01:52  profilanswer
 

si larrabee était vraiment viable, intel à les moyens financier d'imposer sa loi dans le domaine des cartes vidéos, si depuis en gros 2008 il na rien sorti......
 
Et au final on apprend que celui-çi sera plus axé sur le professionnelle que le jeux vidéo pour grand public........(surtout coté tarif)
 
Bref du grand nawak ^^ et d'ici sa sortie effective il aura bcp de mal face aux monstres ATI ET NVIDIA ^^


Message édité par Rafale06 le 31-08-2009 à 13:03:45

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7093818
Activation
21:9 kill Surround Gaming
Posté le 31-08-2009 à 13:09:48  profilanswer
 

c est un peu comme comme le intel atom (solution embarqué) ou le intel xscale (pocketpc...)
 
intel dit que ça pete et tout pour vouloir foutre du x86 partout
sauf qu on se rend compte qu au final un bon processeur arm fait mieux depuis longtemps en consommant moins
 
y a des chose qui ont pas besoin de la lourdeur du x86
 
le seul argument de intel c est de dire aux devs le code x86 vous le connaissez par coeur donc autant vous en servir pour tout
 
sauf que derriere les devs ils ont pas à connaitre le code d un geforce ou d un gpu ati
c est directx voir opengl/openal/opencl qu ils ont à connaitre
 
comment ça tourne derriere ils s en tape... t as des chtit gars consultant de nvidia ou de ati dans leur bureau qui leur disent... ah non là fait pas ça tu va dépassé le buffer de la carte actuelle...
enfin des chtits truc comme ça :D

Message cité 1 fois
Message édité par Activation le 31-08-2009 à 13:16:03
n°7095175
marllt2
Posté le 01-09-2009 à 04:47:01  profilanswer
 

Golden Diva a écrit :

Et, on a beau dire ce qu'on veut, mais quand on a la volonté ET les moyens ... vous connaissez la suite.


Sauf quand le tout dépend d'une société extérieure, comme TSMC.
 
 

Gein a écrit :

Sans être méchant émuler l'architecture d'un GPU à travers larabee (CPU en force).
C'est du domaine du rêve


C'est pas ce que disent les gars de chez id software. :o Qui ont fait un PDF de 50 pages sur le sujet.
 
Evidemment si utiliser un CPU massivement parallèle/GPU x86 pour l'exploiter de la même façon qu'un GPU GT300/R800... aucun intérêt. Larrabee c'est pas pour faire tourner Crysis 2 à fond.  
 
Si Intel fait son "retour" maintenant et pas du temps de DX9 c'est qu'il y a une raison.
 
 

Activation a écrit :

c est directx voir opengl/openal/opencl qu ils ont à connaitre


Et c'est ce que id software ne veut plus. Ils veulent revenir à du rendu software.


Message édité par marllt2 le 01-09-2009 à 04:55:43
n°7095185
Rafale06
Vive les Suisses (Neutre..)
Posté le 01-09-2009 à 06:03:04  profilanswer
 

rendu software = processeur only = presque larabee ^^ parce que dans la théorie un rendu soft = processeur ^^

 

Ensuite id software peut-dire ce qu'il veut, le moteur qui tue actuellement est le cry engine 2 en attendant de voir ce que fera la version 3 sur pc...

 

Pour ma part je pense qu'intel va faire une grosse connerie avec son larabee ^^ et qu'a part du blaa blaa et des infos purement marketing on a jamais rien vu et on ne verra probablement jamais rien......

 

Surtout que d'ici la sortie fantomatique de leur carte il y aura des grosses bombes chez nvidia ou ati (bi gpu ???)

 


PS: Now si vous voulez voir du raytracing real time qui tue mémé et accessoirement les processeurs les plus puissants :

 

http://realstorm.de/

 

Par contre le compteur fps déconne un peu avec les procos intel ^^

Message cité 1 fois
Message édité par Rafale06 le 01-09-2009 à 06:05:13

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7095206
marllt2
Posté le 01-09-2009 à 07:59:10  profilanswer
 

Citation :

Partner roadmap slides shows no GT300 derivatives before Q2 2010


Hum, si on pouvait screener une de ces roadmaps...
 
Ils vont donc laisser à AMD pendant 6 mois le marché des cartes DX11 < 250 €.

Message cité 1 fois
Message édité par marllt2 le 01-09-2009 à 08:02:55
n°7095245
kaiser52
Posté le 01-09-2009 à 09:06:21  profilanswer
 

nVIDIA est bien resté tous seul sur le secteur DX10 pendant 6 mois avec des cartes a 600€ ...
 
Comme quoi tous s'équilibre !
C'est le juste retour des choses.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7095309
Gigathlon
Quad-neurones natif
Posté le 01-09-2009 à 10:10:54  profilanswer
 

Rafale06 a écrit :

Surtout que d'ici la sortie fantomatique de leur carte il y aura des grosses bombes chez nvidia ou ati (bi gpu ???)


Il me semble bien qu'actuellement Larrabee est déjà battu en terme de puissance de calcul brute par les RV790 et RV770XT.
 
Si nV fait le GT300 dont on a eu vent, et le fait bien accessoirement, Larrabee aura déjà un concurrent direct et on ne sait encore rien du RV870 qui pourrait bien être un concurrent encore plus sérieux.
 
Sachant que Larrabee ne devrait pas se pointer avant le refresh du RV870 voire la génération suivante de chacun des 2 acteurs actuels (enfin ça c'est si nV ne merde pas totalement... si le GT300 peine déjà face au RV870, ils auront du mal à s'en relever après le semi-échec du GT200), Intel risque d'avoir bien du mal à s'imposer, et c'est certainement pas l'usine à gaz x86 qui l'y aidera (pas vraiment adapté au multithreading massif, le langage utilisé par les shaders n'étant à la base pas plus complexe que du C).


Message édité par Gigathlon le 01-09-2009 à 10:13:03
n°7095312
bjone
Insert booze to continue
Posté le 01-09-2009 à 10:13:47  profilanswer
 

Gein a écrit :

Sans être méchant émuler l'architecture d'un GPU à travers larabee (CPU en force).
C'est du domaine du rêve  :D


 
Larabee est typé GPU (unitées de texture/et archi vectorielle à mort)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  66  67  68  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)