Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2157 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  23  24  25  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6979973
mikestewar​t
Air Roll Spinnin'
Posté le 02-06-2009 à 01:53:21  profilanswer
 

Reprise du message précédent :

White Sh4dow a écrit :

surtout que nous on en sait rien de ce qu'il y a vraiment derrière le GT300 (on ne fonde nos arguments que sur des rumeurs pour l'instant)


 

Citation :

GT300 is cancelled


 
Source : The Inq. :whistle:
 
J'espère pas, mais bon.  :sweat:
 
TSMC franchement : même pas capables d'assurer correctement la production d'une puce de 800M transistors, alors une avec 2.4G. :/
 

mood
Publicité
Posté le 02-06-2009 à 01:53:21  profilanswer
 

n°6979978
White Sh4d​ow
GHz-O-Meter !
Posté le 02-06-2009 à 02:01:24  profilanswer
 

je vais citer une personne qui a écrit un commentaire fort sympatique sur l'article de The Inq concernant le GT300 :
 

Citation :


Let's look at Charlie's track record, yes? Charlie étant le "journaliste" de The Inq
 
ATI R600 cards will have a built-in sound card that will be an nVidia-crushing killer app for home theater
http://www.theinquirer.net/inquire [...] n-revealed
 
G80 shaping up to be a "patchy part"
http://www.theinquirer.net/inquire [...] thickening
 
G80 and R600 will hit the market at "about the same time"
http://www.theinquirer.net/inquire [...] s-tape-out
 
G80 SLI is "borked", cards have "a lot broken":
http://www.theinquirer.net/inquire [...] s-problems
 
Nvidia hoodwinks reviewers again with mythical GT275s  
http://www.theinquirer.net/inquire [...] cal-gt275s
 
GT200 has "near-fatal" problems, will sell for $500 (260) and $650 (280)
http://www.theinquirer.net/inquire [...] ssor-tapes
 
GTX 280 will "lose badly" to R700 but cost much more
http://www.theinquirer.net/inquire [...] 0-revealed
 
GT200 is "botched badly", except now is "barely faster" than R700 but will still cost much more. And you'll never see a dual-GPU card, like, say, the GTX 295
http://www.theinquirer.net/inquire [...] s-revealed
 
I could go on, but it's pretty obvious. Charlie is a loon. He has no idea what he's talking about, he claims to cite unnamed insider sources that are consistently wrong, and his childish mudslinging is both comedically inaccurate and pathetically unprofessional.
 
As long as this idiot is a part of 'Inq, it's nothing but a cheap tabloid. When I want actual tech news, there are plenty of sites where the writers have both dignity and credibility — qualities lost on Demerjian.
 
And somehow, despite Charlie's best efforts to sling FUD into cyberspace, nVidia still has the fastest GPUs on the market, and absolutely dominates ATI in the discreet GPU market  
http://www.bit-tech.net/news/hardw [...] et-share/1 .
 
No wonder Charlie's panties are in such a wad. It must be hard being so wrong so often.


 
Si vous souhaitez que je traduise le message, faites le moi savoir ;)

n°6979986
mikestewar​t
Air Roll Spinnin'
Posté le 02-06-2009 à 02:50:50  profilanswer
 

D'où ma source The Inq pour "l'info" fictive sur le GT300, effectivement. :D

 

The Inq a démonté de A à Z le GT300 dans sa dernière "analyse", mais du pro-ATI ça compense un peu BSoN. ;)

Message cité 1 fois
Message édité par mikestewart le 02-06-2009 à 02:52:28
n°6979989
White Sh4d​ow
GHz-O-Meter !
Posté le 02-06-2009 à 02:57:23  profilanswer
 

mikestewart a écrit :

D'où ma source The Inq pour "l'info" fictive sur le GT300, effectivement. :D


 
J'avais mal compris le sens de ton message, toutes mes excuses  :jap:  
 

mikestewart a écrit :

The Inq a démonté de A à Z le GT300 dans sa dernière "analyse", mais du pro-ATI ça compense un peu BSoN. ;)


 
Exactement, et les propos ne sont fondées que sur... bah rien dutout enfait; une analyse fictive sur des propos fictifs, rien de plus.

n°6979991
mikestewar​t
Air Roll Spinnin'
Posté le 02-06-2009 à 03:04:20  profilanswer
 

Je le vois bien spéculer justement sur les difficultés de TSMC, disant qu'Nvidia serait obligé d'appliquer un plan B, en attendant de pouvoir sortir un GT300 amélioré (qui serait possible avec un process plus fin que 40nm chez un autre fondeur). Comme pour ATI selon BSoN, histoire de rester dans la partialité, mais de l'autre côté. ;) Est-ce que la possibilité que ça arrive est nulle ? honnêtement, on verra, mais TSMC inquiète de plus en plus.

 

UMC sur le 40nm ça donne quoi ?


Message édité par mikestewart le 02-06-2009 à 03:15:05
n°6979993
marllt2
Posté le 02-06-2009 à 03:13:26  profilanswer
 

mikestewart a écrit :

TSMC franchement : même pas capables d'assurer correctement la production d'une puce de 800M transistors, alors une avec 2.4G. :/


Si on prend l'exemple d'un GPU de 420mm², donc 3x plus gros qu'un RV740:
 
3x moins de GPU sur un wafer, et comme le GPU est 3x plus gros il y a 2-3x (3x théorique, un peu moins en pratique) plus d'erreurs de gravure par chip.
 
Bref le chip est 3x plus gros, mais 6-9x plus cher à fabriquer. Bon après il est vrai qu'ils peuvent faire des déclinaisons avec des unités désactivées, mais ça donne l'ordre de grandeur.
 

marllt2 a écrit :

Je ne sais pas ce que ça vaut, mais des sources asiatiques ont indiqué que le GT300 était très très mal parti. Niveau gravure, pas archi.
 
Il semble que nV va devoir revoir sa stratégie de toujours plus gros, toujours plus chaud, toujours plus cher.

White Sh4dow a écrit :

Personnellement, je ne pense pas que nous sommes en mesures de juger les décisions prises par des entreprises style nVidia, AMD/ATi, Intel etc.


Je n'ai fait aucun jugement dans mon post. Je ne fais que relayer les sources asiatiques. [:spamafote]  
 

White Sh4dow a écrit :

si c'est pour nous pondre un grill à 1000 euros qui n'est pas capable de devancer le gpu du concurrent, vendu lui à moitié prix.


Ce ne sont pas les perfs du GT300 le problème. Le problème c'est TSMC.
 
Avec un 65nm avec de bons yields chez TSMC, et utilisé depuis 1 an, le GT200 était à la limite des possibilités de TSMC. Et que dire des multiples respin du GT200b, pourtant utilisant le même procédé que les RV670 lancés à l'automne 2007.
 
Donc quand nV continue une stratégie de gros chips, et que cette fois le process utilisé n'est pas au point il y a des (gros) problèmes. Içi du leakage et des faibles yields.
 
C'était l'objet de mon 1er post.
 

White Sh4dow a écrit :

Il ne faut pas oublier que leur but premier est de faire de gros bénéfices. Ils ne risqueraient pas de mettre leur situation en danger (faire faillite) : il y a tout plein de personnes très compétentes derrières les logos, des économistes, des ingénieurs, des chercheurs.  
 
Des sommes immenses sont dépensés en R&D, c'est sur, et ils ne tenteraient pas le "tout pour le tout" en matière de gpu, si c'est pour nous pondre un grill à 1000 euros qui n'est pas capable de devancer le gpu du concurrent, vendu lui à moitié prix. Nous ne connaissons encore rien des choix d'nvidia ici en loccurence. Voilà, c'était mon petit coup de gueule : )


Et que dire des NV30 et R600, des GPU (G8x et G9x) défectueux de nV provisionnés à hauteur de 200 millions de $ ... etc


Message édité par marllt2 le 02-06-2009 à 03:33:55
n°6980002
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 02-06-2009 à 05:48:23  profilanswer
 

Le GT300 serait peut être dévoilé plus en avant au computex qui ouvre aujourd'hui jusqu'au 6 Juin.


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6980048
White Sh4d​ow
GHz-O-Meter !
Posté le 02-06-2009 à 09:13:10  profilanswer
 

marllt2 > tes arguments sont pertinents, en tout cas pour moi. Cependant, on voit bien que les gpus sont arrivées dans nos ordis respectifs. Il y a donc quelqu'un qui en connaissance de cause (du moins je l'espère) chez nvidia qui a décidé qu'il y avait toujours une rentabilité minimime à exploiter en vendant ces puces, malgré le faites qu'elles aient pu être défectueuses, chers et chaudes. Ca nous en dit quand même long sur nVidia.
 
EDIT: Ceci pour dire que si le GT300 voit le jour comme il est prévu aujourd'hui, j'espère qu'nvidia réagit intelligemment et qu'il ne va pas être attiré par la palme de la performance de l'ultra haut de gamme pour se retrouver avec des déficits énormes et un gpu indéclinable (comme le GT200), qu'il va donc produire ou non ce gpu suivant les vrais raisons qui poussent une entreprise à le faire : la rentabilité. Tant qu'il y en a, pourquoi pas.

Message cité 1 fois
Message édité par White Sh4dow le 02-06-2009 à 09:16:06
n°6980736
marllt2
Posté le 02-06-2009 à 19:15:19  profilanswer
 

Et aussi j'oubliais le GT212 qui a été annulé. Au moins celui-là ce n'est pas une rumeur puisqu'il était sur les slides d'Elsa.
 

super_newbie_pro a écrit :

Le GT300 serait peut être dévoilé plus en avant au computex qui ouvre aujourd'hui jusqu'au 6 Juin.


Jen-Hsun Hang a dit que leur gamme était parfaitement adaptée, et donc qu'il était inutile de parler des futurs GPU dans ces conditions.
 
Par contre il y aura sûrement les GT215, GT216, GT218 dévoilés.
 
 

White Sh4dow a écrit :

pour se retrouver avec des déficits énormes et un gpu indéclinable (comme le GT200).


 
Le GT200 aurait pû être décliné.  
 
Mais aucun intérêt pour nV à le faire: le GT200 n'était pas DX10.1, et même en le déclinant il n'aurait quasiment rien apporté face au G9x(b).
A part peut-être une amélioration des perfs en GS... qui ne sont utilisés par aucun jeux PC.
 
Bref ils ont continué à rentabiliser les G9x plutôt que d'investir pour des gains anecdotiques. Sur ce point ce n'est pas le problème. Par contre renommer du G92 en GTS 250 ça l'est plus.
 
Et pour les GT2xx 40nm, on ne sait pas encore trop, mais il semble que ça soit du G9x shrinké. Et un peu redisigné pour s'adapter aux spécificités du 40nm. AVec peut-être le support de la GDDR5, mais vraissemblablement rien de plus.
 
Quoique si. Il se murmure que nVidia garderait sous la main le support de DX10.1, qui serait activé quand AMD aura des chips DX11.
 
 

White Sh4dow a écrit :

EDIT: Ceci pour dire que si le GT300 voit le jour comme il est prévu aujourd'hui, j'espère qu'nvidia réagit intelligemment et qu'il ne va pas être attiré par la palme de la performance de l'ultra haut de gamme pour se retrouver avec des déficits énormes et un gpu indéclinable (comme le GT200), qu'il va donc produire ou non ce gpu suivant les vrais raisons qui poussent une entreprise à le faire : la rentabilité. Tant qu'il y en a, pourquoi pas.


Si nV continue de faire de gros chips, c'est parce qu'ils misent sur le GPGPU/CUDA. Qu'ils peuvent vendre sur les marchés à très forte rentabilité.
 
Ils ont commencé avec le G80 pour voir la réaction du marché, et ils ont été plus loin avec le GT200.
 
Sans ça, il est très peu probable qu'ils aient faits des chips (le GT200) aussi gros et chers pour de la 3D.


Message édité par marllt2 le 02-06-2009 à 21:49:20
n°6980877
R 34
Posté le 02-06-2009 à 20:50:00  profilanswer
 

Du G9x shrinké en 40nm sachant que c'est une shrink de 65nm qui est un shrink de 90nm. :ouch:


---------------
Feed-Back Achat-Ventes
mood
Publicité
Posté le 02-06-2009 à 20:50:00  profilanswer
 

n°6980894
marllt2
Posté le 02-06-2009 à 21:13:52  profilanswer
 

Le G80 et G92 sont assez différents. Par contre le G92b est un simple shrink.

n°6980904
Fantryt
Posté le 02-06-2009 à 21:24:21  profilanswer
 

R 34 a écrit :

Du G9x shrinké en 40nm sachant que c'est une shrink de 65nm qui est un shrink de 90nm. :ouch:


Impossible .  :ouch:  
Déjà, le GT200 que nous avons connu n'a pas réussi à passer de 65nm à 40nm, alors une puce qui passe de 90nm à 40nm, je n'y crois tout simplement plus . Même si je dois admettre que le GT200 est bien plus complexe que le G92, ce n'est pas une raison .

n°6980927
marllt2
Posté le 02-06-2009 à 21:43:33  profilanswer
 

Le G92b est un shrink du G92, comme le GT200b est un shrink du GT200. Par contre le G92 est une puce différente du G80.
 
Pour les GT2xx dans tous les cas, ce sera du "shrink +".  
Il faut redisigner la puce pour s'adapter au 40nm. Pas comme les G92b et GT200b qui étaient "faciles" puisque de simples half-node.
 
nVidia a tenté de shrinker à l'arrache le GT200 en 40nm, ce qui a donné le fameux article de DailyTech:  
 
"NVIDIA's attempts to produce a die-shrunk 40nm GT200 chip were "disastrous at best". Design problems became evident, since the GT200 was originally designed for the 65nm node. Two shrinks in a row without a major redesign was just too much for NVIDIA"


Message édité par marllt2 le 02-06-2009 à 21:44:42
n°6980948
R 34
Posté le 02-06-2009 à 21:55:47  profilanswer
 

Perso pour moi G92 = G80 + nvio intégré.
Pas si différent que ça au final.
 
Mais tout de même si le passage en 40nm se fait cela fera du 65=>55=>40. :ouch:
 
Le tout sur une archi basée en 90nm. :pt1cable:
 
Sont sympa chez nvidia, l'écologie va jusque dans le multi recyclage d'architecture. :lol:


---------------
Feed-Back Achat-Ventes
n°6981095
marllt2
Posté le 03-06-2009 à 00:36:19  profilanswer
 

R 34 a écrit :

Perso pour moi G92 = G80 + nvio intégré.
Pas si différent que ça au final.


Et l'adressage des textures doublées, le PCI-E 2.0, le PV2.
 
Le G92 a 73M de transistors en plus par rapport au G80, mais seulement 25M du nVio (malgré ses 49mm en 110nm, il est très pad-limited par ses 553 broches). D'autant qu'il y a aussi 1/3 de moins de ROPs et de contrôleur mémoire que le G80.


Message édité par marllt2 le 03-06-2009 à 00:45:32
n°6981101
White Sh4d​ow
GHz-O-Meter !
Posté le 03-06-2009 à 00:42:13  profilanswer
 

le g92 est un die shrink du g80, avec quelques optimisations (genre bus, quantité de mémoire). mais sinon, à part le tri sli qui part y a pas de grandes différences, l'archi est plus ou moins la même

n°6981105
marllt2
Posté le 03-06-2009 à 00:47:12  profilanswer
 

Le tri-SLI ne part pas vraiment puisque la 9800 GTX l'a.


Message édité par marllt2 le 03-06-2009 à 00:47:49
n°6981106
White Sh4d​ow
GHz-O-Meter !
Posté le 03-06-2009 à 00:47:42  profilanswer
 

justement, la 8800gts 512 et 8800 gt ne le sont pas. c'était pour ségmenter la gamme au début


Message édité par White Sh4dow le 03-06-2009 à 00:47:57
n°6981109
marllt2
Posté le 03-06-2009 à 00:48:02  profilanswer
 

J'ai édité, lu trop vite. :o

n°6981110
White Sh4d​ow
GHz-O-Meter !
Posté le 03-06-2009 à 00:49:21  profilanswer
 

ca ne change pas vraiment ma réponse =/ la 9800 gtx, rien que part son nom, est déjà sensé représenter la gamme du dessus (même si ce n'est qu'une version oc de la 8800 GT/GTS) :/

n°6981111
marllt2
Posté le 03-06-2009 à 00:51:21  profilanswer
 

Les 8800 GT et GTS 512 n'ont effectivement pas le 3-SLI, afin de segmenter la gamme comme tu l'as dit. Mais le G92 le supporte.
 
Et on se demandera aussi pourquoi nVidia a lancé cette 9800 GTX 2 mois avant les GTX 200...


Message édité par marllt2 le 03-06-2009 à 00:52:36
n°6981112
White Sh4d​ow
GHz-O-Meter !
Posté le 03-06-2009 à 00:53:25  profilanswer
 

Oui. Après, je ne sais pas si le tri-sli était là depuis le début sur le G92, mais bloqué, ou si son support avait réellement été enlevé, puis rajouté plus tard après avoir utilisé le gpu pour faire d'autres cartes :??:

n°6981117
marllt2
Posté le 03-06-2009 à 01:01:37  profilanswer
 

Pour ce qui est marqué sur le die:
 
8800 GT: G92-270-A2
8800 GTS: G92-400-A2  
9800 GTX: G92-420-A2
 
Et il est assez improbable qu'ils aient modifié le chip juste pour ajouter le 3-SLI. Enfin bref...


Message édité par marllt2 le 03-06-2009 à 01:02:49
n°6981268
Gigathlon
Quad-neurones natif
Posté le 03-06-2009 à 09:35:10  profilanswer
 

White Sh4dow a écrit :

ca ne change pas vraiment ma réponse =/ la 9800 gtx, rien que part son nom, est déjà sensé représenter la gamme du dessus (même si ce n'est qu'une version oc de la 8800 GT/GTS) :/


Ils n'ont fait que copier AMD sur ce coup, avec les fameuses HD3800/3600/3400 dont les GPU étaient fonctionnellement identiques aux HD2000 et juste débuggées et rétrécies...

n°6981751
White Sh4d​ow
GHz-O-Meter !
Posté le 03-06-2009 à 15:21:40  profilanswer
 

Quoi qu'il en soit, j'espère que le GT300 sera un nouveau gpu du début à la fin, et qu'nvidia y mettra tout son savoir faire, comme pour le G80, qui fut un excellent gpu ( sauf peut être pour les perfs DX10, mais ca allait encore ). Je vois en le gt300 un gpu ultra haut de gamme, ou daamit ne pourra concurrencer que par le dual gpu. Ca risque d'etre un match serré, même si le multi gpu n'est pas la solution idéale. Peut etre qu'amd/ati trouvera la solution au problème de mémoire partagée comme dit pour la 4870x2 ?? Ca serait trop beau

n°6981912
marllt2
Posté le 03-06-2009 à 16:46:51  profilanswer
 

Gigathlon a écrit :


Ils n'ont fait que copier AMD sur ce coup, avec les fameuses HD3800/3600/3400 dont les GPU étaient fonctionnellement identiques aux HD2000 et juste débuggées et rétrécies...


Le R600 - > RV670 ressemble assez au G80 -> G92
 
Globalement même nombre d'unités, die-shrink, bus réduit, décodage HD, PCI-E 2.0...
 
Et AMD devait aussi se défaire de la mauvaise réputation des HD 2000. Et aussi le support de DX10.1 ajouté.


Message édité par marllt2 le 03-06-2009 à 16:49:47
n°6982154
Giz
Posté le 03-06-2009 à 19:13:22  profilanswer
 

GT300... :ange: Fera même pas tourner Crysis 2 à 30fps  :D


---------------
Asus P5Q Pro | C2D E8400 3GHz@4GHz + Noctua NH-C12P | 2x2Go Patriot Extreme PC-8500 | GeForce GTX 460@Stock 1Go GLH | Crucial SSD M4 64Go Sata3
n°6982156
Yoyo_5
Posté le 03-06-2009 à 19:14:12  profilanswer
 

Giz a écrit :

GT300... :ange: Fera même pas tourner Crysis 2 à 30fps  :D


Bha si, le moteur est plus léger... :D


---------------
¤ Paix et félicité ¤

n°6982162
marllt2
Posté le 03-06-2009 à 19:21:33  profilanswer
 

Giz a écrit :

GT300... Fera même pas tourner Crysis 2 à 30fps  : D


Vu comment c'est parti, il ne fera pas tourner Crysis 2 du tout.


Message édité par marllt2 le 03-06-2009 à 19:21:42
n°6982173
Activation
21:9 kill Surround Gaming
Posté le 03-06-2009 à 19:26:43  profilanswer
 

allez hop GT500 shelby edition direct :O

Message cité 2 fois
Message édité par Activation le 03-06-2009 à 19:27:03
n°6982197
mikestewar​t
Air Roll Spinnin'
Posté le 03-06-2009 à 19:34:01  profilanswer
 

Activation a écrit :

allez hop GT500 shelby edition direct :O

 

Avec 300000W (400+ Cv), va falloir prévoir un bon refroidissement.  :o

Message cité 1 fois
Message édité par mikestewart le 03-06-2009 à 19:34:19
n°6982206
Activation
21:9 kill Surround Gaming
Posté le 03-06-2009 à 19:36:45  profilanswer
 

mikestewart a écrit :


 
Avec 300000W (400+ Cv), va falloir prévoir un bon refroidissement.  :o  


 
 
po grave y a un groupe electrogene au mazout livré avec  :o

n°6982243
marllt2
Posté le 03-06-2009 à 19:50:21  profilanswer
 

Activation a écrit :

allez hop GT500 shelby edition direct :O


GTX 580 ça fait pas un peu penser à FX 5800 ?

n°6982255
Activation
21:9 kill Surround Gaming
Posté le 03-06-2009 à 19:53:36  profilanswer
 

marllt2 a écrit :


GTX 580 ça fait pas un peu penser à FX 5800 ?


 
ça aura changé de nom d ici là
 
ça s appelera 590XHC
 
car nvidia aura encore et encore changé sa politique de nommage pour toujours plus nous paumer  :o

Message cité 1 fois
Message édité par Activation le 03-06-2009 à 19:54:17
n°6982708
marllt2
Posté le 04-06-2009 à 02:21:08  profilanswer
 

Encore du retard pour le 40nm chez nV: http://www.semiaccurate.com/2009/0 [...] yed-again/
 
Et la dernière rumeur de Charlie est que nV essayerait... de se vendre: http://www.semiaccurate.com/2009/0 [...] ll-itself/


Message édité par marllt2 le 04-06-2009 à 02:25:43
n°6983083
Activation
21:9 kill Surround Gaming
Posté le 04-06-2009 à 13:34:19  profilanswer
 

perso j ai laissé tombé le decryptage de ses new "pourrait" "il semble" "possible que"  
 
ça c est bon pour nous dans un forum ou on reve à ce qu on pourrait avoir
 
c est vraiment pas digne d'un site de balancer ça comme new
c'est des fausse new, c est même plutot de l intox
 
du computex on aura appris que dalle
c'est CEBIT bis
je sais meme pas pourquoi ils se font chier à faire le computex
 
au moins l'E3 c est l occasion d avoir des nouveaux trailers voir des date prévisionnel de sortie...
 
au computex t apprend jamais rien pratiquement
c'est limite à ce demander si c est pas juste un salon pour présenter les nouveau telephone portable de l'été tellement on apprend rien de plus niveau informatique par rapport au cebit
 
par deelà ça nvidia se fait toujours silencieux
 
même limite je préfèrerais avoir des info sur le prochain milieu de gamme dx11 de nvidia plutot que des info sur le GT300
 
avant juin mon opinion que le RV870 avait vraiment pas l air folichon et que ça nous promettait un saut de puce par rapport à un rv790 mais avec le dx11 en cadeau et que c est cette puce qui sortira d ici la fin de l année
 
et bien au jour d aujourd hui avec la presentation du wafer chez amd (et les demo de tesselation qui date de facile 2 an car désolé mais la montagne paramètrable c est la meme que dans la demo de leur mascotte qui fait du ski lors de la présentation du R600)
 
j'en reste à un avant la fin de l année on aura qu un gpu ati/amd pas beaucoup plus costaud que le RV790 mais cette fois dx11
à la nuance pret que maintenant on est pas sur que ça soit le RV870 mais qui sait peut etre un RV840 (ce qui serait en soit "rassurant" )
 
et coté nvidia rien n'a changé à savoir qu on sait rien
 
puré ça valait le coup de depenser des millions pour faire un computex  :o  
l'année prochain ils peuvent le faire virtuelle sur internet leur computex avec un "coming soon"
et une note invitant à allez au cebit en mars


Message édité par Activation le 04-06-2009 à 13:35:36
n°6983905
Khaomaster
Posté le 04-06-2009 à 21:18:45  profilanswer
 

Arrête deux secondes de râler, au début je trouvais cela marrant, mais là tu deviens vraiment lourd.

 

Nvidia ne dit rien car il y a rien à dire, ils sont en retard pour une durée et une raison qu'on ignore, ca ne sert à rien de spéculer, dans le meilleur des cas, leur puce DX11 sort avant Noel, sinon ce sera pour 2010.

 

Quant à AMD, certes ils vont tres surement nous sortir dans les temps un RV870 à peine plus rapide de le RV790, mais au moins on aura un GPU DX11. Et surtout ce GPU aura un prix tout doux et ne consommera pas grand chose. Et cela pour un GPU introduisant une évolution majeure d'une API.

 

Sa puissance de calcul sera suffisante pour faire tourner à fonds 99% des jeux actuels en 1920x1200, je vois pas de raison de gueuler, surtout que leurs choix semblent très judicieux, vu qu'ils semblent vouloir encore une fois taper très fort dans le MDG.

 

Ensuite il est effectivement possible qu'ils nous sortent plus tard quand le 40nm se sera améliorer une nouvelle puce plus rapide, un RV890 plutot et non pas le RV870 qui est très surement la petite puce qu'ils ont présenté.


Message édité par Khaomaster le 05-06-2009 à 00:08:37
n°6984063
White Sh4d​ow
GHz-O-Meter !
Posté le 04-06-2009 à 23:12:04  profilanswer
 

la cg dx11 d'amd sera très probablement dans les temps pour deux raisons : les cg passées contenaient toutes presque l'entièreté de dx11 (sensé être dx10 déjà à l'époque), donc pas de grosses modifications comme nvidia. et le 40nm est dejà utilisé. donc c'est pas vraiment une surprise qu'amd réussisse à sortir son gpu à temps. après pour ce qui est d'nvidia, c'est du tirage au sort, on en sait rien, et ca dépend ce qu'ils visent, et combien ils investissent dedans pour réaliser leur projet...

n°6984219
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 05-06-2009 à 01:26:01  profilanswer
 

La puce DX11 d'AMD fait 180 mm² alors que le RV770 en fait 272 mm² et que la Radeon HD 4850 se vend 89 €. Il n'est pas nécessaire d'être clairvoyant pour comprendre qu'AMD "pourrait" vendre des cartes DX11, ayant la puissance d'une HD 4890, pour environ 69 €, et faire encore du profit.
 
J'aimerais bien savoir comment nVidia pourra rendre intéressant le rapport perfs/prix de son GT300. Par exemple, si le GT300 se révèle être 3 fois plus puissant qu'un RV790, nVidia devra être prêt à vendre sa carte 207 € (3 x 69 €) pour rester compétitif avec l'offre d'AMD. Et honêtement, je ne vois pas comment cela serait possible.


Message édité par Wirmish le 05-06-2009 à 01:30:30
n°6984243
mikestewar​t
Air Roll Spinnin'
Posté le 05-06-2009 à 02:18:35  profilanswer
 

Sauf qu'AMD vendra jamais une carte meilleure qu'une 4890 (même perfs + DX11 et plus basse conso) à 69€...faut garder la gamme cohérente et comment le faire avec un haut de gamme à 69€ ?...Ok la puce est petite mais y a toujours un bus 256bits et 1Go de DDR5 à priori. :o Sans parler du fait que la 4850 est un mauvais exemple, tuée par la 4770 donc difficile à vendre et la seule chose qui la sauve actuellement c'est l'absence de dispo de la 4770.

 

Ensuite le rapport perfs/prix en se rapprochant du haut-de-gamme n'a jamais été linéaire, le prix monte bien plus vite que les perfs, autant chez ATI que chez Nvidia. ;)

 

Bref, raisonnement évidemment loufoque et je mords au trolling comme d'habitude. :D

 

Et puis vraiment, comment peut-on comparer un puce de moins de 200mm² avec une puce vers les 500 mm² ? DX11 est leur point commun, ça s'arrête là.


Message édité par mikestewart le 05-06-2009 à 02:29:58
n°6984248
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 05-06-2009 à 02:50:23  profilanswer
 

J'ai bien dit qu'AMD "pourrait" vendre ses cartes DX11 sous les 70€.
J'ai pas dit qu'il le feront.
J'ai juste dit que c'était possible.

Message cité 1 fois
Message édité par Wirmish le 05-06-2009 à 02:51:12
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  23  24  25  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)