Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2264 connectés 

 

 

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

[Topic Unique] GT2xx - 40nm Les cartes nvidia entrée de gamme

n°7159495
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 12-10-2009 à 18:26:47  profilanswer
 

Reprise du message précédent :
 
Et la G210 avec DDR2 à 400 Mhz a la même BP qu'une 8400 GS  [:snake12]

mood
Publicité
Posté le 12-10-2009 à 18:26:47  profilanswer
 

n°7159498
Gigathlon
Quad-neurones natif
Posté le 12-10-2009 à 18:29:06  profilanswer
 

Ce topic risque de ne pas tarder à tourner en Hall of Shame... :o
 
Tiens, d'ailleurs vla les press releases pour ceux qui veulent rire:
 
http://www.techpowerup.com/105871/ [...] Cards.html
http://www.techpowerup.com/105868/ [...] e_210.html
http://www.techpowerup.com/105883/ [...] Cards.html
http://www.techpowerup.com/105879/ [...] Cards.html
 
Ca devrait être interdit une telle publicité mensongère à base de "astonishing performance" (performances sidérantes) :/

Message cité 1 fois
Message édité par Gigathlon le 12-10-2009 à 18:40:03
n°7159520
Profil sup​primé
Posté le 12-10-2009 à 18:48:01  answer
 

Bah, elles le sont, sidérantes
Y'a rien de surprenant là :o
 

Spoiler :

[:tinostar]

n°7159527
Profil sup​primé
Posté le 12-10-2009 à 18:59:43  answer
 

Ma 8600GT toute pourrave est Deluxe Edition à ce jeu là [:am7]

Message cité 1 fois
Message édité par Profil supprimé le 12-10-2009 à 19:00:18
n°7159533
Gigathlon
Quad-neurones natif
Posté le 12-10-2009 à 19:02:23  profilanswer
 


Tiens, c'est une bonne idée ça, un comparo 8600GTS/9600GT/GT220! :o  
 
La première était franchement mal accueillie à l'époque, la seconde très bien accueillie car elle prenait vraiment la place d'un GPU mainstream... la 3e, je crois qu'elle fait pire que la première [:yamusha]  
 
Je donne pas 1 semaine à nVidia pour nous dire que leur lancement est bien plus réussi que celui des HD5800 et pourquoi pas HD5700, pour preuve, y'a du stock :whistle:


Message édité par Gigathlon le 12-10-2009 à 19:04:33
n°7159545
Profil sup​primé
Posté le 12-10-2009 à 19:14:08  answer
 

nVidia va refourguer ces cartes essentiellement en OEM en demandant aux vendeurs de crier "the way it's meant to be played" à chaque passage de madame et monsieur Michu :o
 
Et on trouvera ces merveilleux bijoux dans les packard bell du supermarché, collés à des Core i7 surpuissants (pour se la péter octo-threading) et 3 Go de RAM pour ne pas s'obliger à mettre du Windows x64 [:delantera:2]
 
La routine quoi :o

Message cité 1 fois
Message édité par Profil supprimé le 12-10-2009 à 19:19:59
n°7159549
hyksos_sow​o
Posté le 12-10-2009 à 19:19:24  profilanswer
 


Avec des gros sticker PHYSX partout... en 640x480@5fps  :sarcastic:

n°7159557
Profil sup​primé
Posté le 12-10-2009 à 19:25:35  answer
 

Heureusement que le bench de la petite fée Dawn est out-of-date.
 
Vous imaginez nVidia truquer le benchmark en traitant seulement une demie-fée sur les 4 au total ? [:pingouino]


Message édité par Profil supprimé le 12-10-2009 à 19:25:51
n°7159599
Profil sup​primé
Posté le 12-10-2009 à 20:05:59  answer
 

Touchaÿ pas à ma faÿ :cry:
[/fanVidia off] :o

n°7159964
marllt2
Posté le 12-10-2009 à 23:39:30  profilanswer
 

As-t-on des nouvelles de rafale06 ? http://img25.imageshack.us/img25/3572/manneke.gif
 

Rafale06 a écrit :

Tu as raison de comparer un GPU MOBILE qui soit dit en passant une grosse daube pour gamer, à un nouveau GPU haut de gamme pour pc desktop ^^

Gigathlon a écrit :

2- ce que nVidia a prévu d'annoncer la semaine prochaine POUR DESKTOP

Rafale06 a écrit :

2 - Ben ils vont annonçers bcp de choses mais je vois mal sortir des gpu pourraves et invendables dans le circuit grand public, hormis le marché des oem intégrateurs....
 
Entre tes affirmations et la réalité, il y a un gouffre énorme que tu as du mal à saisir il me semble ;)

Gigathlon a écrit :

2- Ces cartes sont déjà dispo depuis quelques semaines pour les OEM, avec d'ailleurs visiblement des problèmes sur les versions fournies par HP, qui ne propose plus de GeForce GT220 et l'a remplacée par une HD4650 dans sa gamme.

Rafale06 a écrit :

2 - On est au moins d'accord sur un point CE SONT DES VERSIONS OEM (d'ailleurs si tu mates bien ton lien il est bien écrit que ce sont des produits destinés pour le marche de l'oem intégrateur hein....) qui ne sortiront jamais pour le marché grand public du moins pas à moyen terme.....et encore une fois ce sont des gpu à la cons qui n'ont strictement rien à voir avec le GT300 dans les grandes lignes....
 
Alors au final abstiens toi de troll des conneries aussi grosses que ton amour pour ATI ( ça fais 50fois qu'on te rabache les mêmes choses)  ;)

Gigathlon a écrit :

Evidemment, c'est pas près de sortir hors circuit OEM, d'ailleurs Gigabyte n'a pas annoncé de GT220: http://www.hardware.fr/news/10435/ [...] abyte.html
 
Evidemment, le fait que ça ressemble à s'y méprendre à un GT200 sur tous les points en dehors du support de DX10.1, qui ne sert à rien, rappelons le, est une pure coïncidence.
 
C'est du déni de réalité que tu nous fais là, oui, ces "merdes" comme tu le dis si bien, nVidia va nous les annoncer sous peu.

Rafale06 a écrit :

Bon j'abdique il sort vraiment de l'asile c pas possible autrement........
 
Ps: l'annonce de gigabyte porte sur un produit qui sera au mieux 3fois moins rapide qu'un GTX 260+ à 120euros, alors que TON annonçe (officiel????) parle d'un produit à 100euros............
 
Ben voyons ...............
http://amiga3forever.free.fr/OEM.jpg
 


Message édité par marllt2 le 12-10-2009 à 23:40:58
mood
Publicité
Posté le 12-10-2009 à 23:39:30  profilanswer
 

n°7159973
Gigathlon
Quad-neurones natif
Posté le 12-10-2009 à 23:46:03  profilanswer
 

En tout cas je note que la conso n'est pas terriblement faible contrairement à ce qu'annonce nVidia... TPU et les autres obtiennent des résultats très similaires entre HD4670 et GT220 en idle, et si la 4670 consomme presque 2x plus en charge elle est aussi 50% plus performante dans pas mal de cas... :o

n°7159981
marllt2
Posté le 12-10-2009 à 23:47:50  profilanswer
 

Gigathlon a écrit :

Ce topic risque de ne pas tarder à tourner en Hall of Shame... :o


En même temps ce topic était au départ créé pour les GT212 et GT214.
 
Depuis qu'ils ont été annulés, à part peut-être les GT215, on peut pas dire que le topic va attirer les masses.

n°7159988
Gigathlon
Quad-neurones natif
Posté le 12-10-2009 à 23:53:51  profilanswer
 

T'as pas compris l'expression? :o
 
Vu les cartes annoncées qui dépassent parfois le ridicule le plus complet, c'est vraiment digne de la recevoir si on les liste :/


Message édité par Gigathlon le 12-10-2009 à 23:54:05
n°7160098
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 13-10-2009 à 03:52:19  profilanswer
 


Chauffe ke dalle ?
 
http://images.anandtech.com/graphs/gt220_101209014938/20436.png
http://images.anandtech.com/graphs/gt220_101209014938/20437.png

n°7160101
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 13-10-2009 à 04:00:42  profilanswer
 

À propos des benchs du premier post, ceux de Tom's Hardware, j'aimerais savoir pourquoi les résultats sont si différents des autres sites. Tom indique que la GT220 serait pas trop loin derrière la HD4670. Pourtant sur les autres sites la différence est bien plus grande.
 
Par exemple, dans Far Cry 2, du côté d'Anandtech:
 
http://images.anandtech.com/graphs/gt220_101209014938/20414.png
Tom's Hardware: GT 220 -> 48.5 FPS
                       HD4670 -> 52.8 FPS
 
Bizarre.

n°7160103
hyksos_sow​o
Posté le 13-10-2009 à 04:15:12  profilanswer
 

plusieurs chroniqueur chez tom's hardware sont pro NVidia, ça fait longtemps que c'est connu.
 
Ils font tout pour favoriser les cartes NVidia (Ex: tester hawx en direct 10 au lieu de 10.1 pour les cartes AMD, tient justement comme NVidia sont rendu 10.1 devinez quoi?? Ils ont finalement tester Hawx en 10.1...)
 
Ils ont tester FarCry en medium quality, pcq il y a une bien moins grosse charge sur les shaders, ce qui favorise la GT220.

n°7160107
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 13-10-2009 à 04:46:43  profilanswer
 

Autre truc qui me chifonne...
 
8800 GTS   (G92a / 65nm) -> 128 SP à 1625 MHz
9800 GTX+ (G92b / 55nm) -> 128 SP à 1836 MHz
GT 220     (GT216 / 40nm) ->  48 SP à 1360 MHz
 
Pour une puce gravée en 40nm, et avec si peu de SP, pourquoi la fréquence des SP est si basse ?
Il faut remonter en 2007, avec les puces gravées en 80nm pour voir des SP aussi lents.
 
Serait-ce la faute des problèmes de gravure en 40nm de TSMC ?
Si c'est le cas, alors pourquoi les puces d'AMD en 40nm s'overclock aussi bien ?
 
 :??:

n°7160111
hyksos_sow​o
Posté le 13-10-2009 à 05:29:17  profilanswer
 

Wirmish a écrit :

Autre truc qui me chifonne...
 
8800 GTS   (G92a / 65nm) -> 128 SP à 1625 MHz
9800 GTX+ (G92b / 55nm) -> 128 SP à 1836 MHz
GT 220     (GT216 / 40nm) ->  48 SP à 1360 MHz
 
Pour une puce gravée en 40nm, et avec si peu de SP, pourquoi la fréquence des SP est si basse ?
Il faut remonter en 2007, avec les puces gravées en 80nm pour voir des SP aussi lents.
 
Serait-ce la faute des problèmes de gravure en 40nm de TSMC ?
Si c'est le cas, alors pourquoi les puces d'AMD en 40nm s'overclock aussi bien ?
 
 :??:


9600GT (G94 65nm) -> 64 SP à 1625Mhz
9500GT (G96 65nm) -> 32 SP 1400Mhz
 
En plus que normalement les fréquences augmentent en diminuant le procédé de fabrication, c'est claire que nvidia ont des problèmes avec le 40nm, je suis certain que la GT220 était supposer battre ou au mois faire jeux égale avec la 4670 sur papier, malheureusement NVidia n'a pas été capable d'atteindre les fréquences nécessaire pour se faire. Et il est un peut trop tard pour augmenter le nombre de SP.

n°7160148
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 08:37:13  profilanswer
 

Wirmish a écrit :

À propos des benchs du premier post, ceux de Tom's Hardware, j'aimerais savoir pourquoi les résultats sont si différents des autres sites. Tom indique que la GT220 serait pas trop loin derrière la HD4670. Pourtant sur les autres sites la différence est bien plus grande.


Gigabyte dont le GPU a pris un boost de 15% vs Palit/Zotac aux fréquences GPU d'origine :o  

n°7160250
shenron67
Sure we can. We're Sega.
Posté le 13-10-2009 à 10:53:21  profilanswer
 

Ce qui est sûr, c'est que ceux qui veulent quelque chose qui consomme rien et offre de bonnes performances, ils pourront prendre le gt220 quand le prix aura baissé.
 
http://tpucdn.com/reviews/Zotac/GeForce_GT_220/images/perfwatt.gif

n°7160252
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 13-10-2009 à 10:54:55  profilanswer
 

Bonnes ... tout est relatif :D

n°7160267
shenron67
Sure we can. We're Sega.
Posté le 13-10-2009 à 11:06:47  profilanswer
 

C'est de ma faute, je suis resté à Oblivion et Fallout 3 niveau jeu, donc forcément elle paraît bonne puisque suffisante dans ces deux jeux. ^^'

n°7160269
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 11:08:04  profilanswer
 

shenron67 a écrit :

Ce qui est sûr, c'est que ceux qui veulent quelque chose qui consomme rien et offre de bonnes performances, ils pourront prendre le gt220 quand le prix aura baissé.
 
http://tpucdn.com/reviews/Zotac/Ge [...] rfwatt.gif


Euh... regarde les graphs des jeux et la conso quand même, car c'est pas franchement glorieux... je l'ai d'ailleurs déjà dit :o
 
1- La GT220 consomme autant en idle que la 4670 (10w chaque).
2- La 4670 consomme certes presque 2x plus en charge (42w contre 22w)... mais offre aussi des perfs très sensiblement supérieures (globalement 38% en 1680x1050, même si pas mal de leurs jeux sont injouables dans les 2 cas).
3- Le prix est en prime quasi identique... voire à l'avantage de la 4670.
4- Il ne faut pas oublier que certaines déclinaisons sont tout simplement merdiques... modèles à DDR2 400MHz en tête.
 
Si on ne considère que les jeux qui sont qualifiables de "jouables" ou "vaguement jouables" en 1680x1050, ça nous donne:
 
- CoD4 -> 27.3fps contre 41fps (injouable -> vaguement jouable)
- CoJ2 -> 25.1fps contre 39.7fps (injouable -> vaguement jouable)
- CoH -> 47.4fps contre 57.6fps
- DoW2 -> 19.5fps contre 33.4fps (injouable -> vaguement jouable)
- ETQW -> 29.9fps contre 47.1fps
- FarCry -> 80.2fps contre 88.8fps (tiens, un cas hyper favorable à la GT220... qui n'a aucun impact :o)
- FEAR -> 38fps contre 49fps
- HAWX -> 18.8fps contre 30.9fps (injouable -> vaguement jouable)
...

Message cité 1 fois
Message édité par Gigathlon le 13-10-2009 à 11:19:39
n°7160282
shenron67
Sure we can. We're Sega.
Posté le 13-10-2009 à 11:19:41  profilanswer
 

Gigathlon a écrit :


Euh... regarde les graphs des jeux et la conso quand même, car c'est pas franchement glorieux... je l'ai d'ailleurs déjà dit :o
 
1- La GT220 consomme autant en idle que la 4670 (10w chaque).
2- La 4670 consomme certes presque 2x plus en charge (42w contre 22w)... mais offre aussi des perfs très sensiblement supérieures (globalement 38% en 1680x1050, même si pas mal de leurs jeux sont injouables dans les 2 cas).
3- Le prix est en prime quasi identique... voire à l'avantage de la 4670.
4- Il ne faut pas oublier que certaines déclinaisons sont tout simplement merdiques... modèles à DDR2 400MHz en tête.


 
Le prix va sûrement rapidement se calquer sur celui de la 9500gt qu'elle remplace, donc vers les 40-50€ soit le prix d'une hd4650.
 
Et puis je l'ai dit qu'elle sera intéressante quand le prix aura baisser, non? C'est sûr qu'à 60€ ça vaut pas le coup face à une hd4670 =/

n°7160444
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 13-10-2009 à 13:53:39  profilanswer
 

nVidia annonce pourtant 69 euros pour la version 512 Mo GDDR3 et 79 euros pour la version 1 Go.
À ce prix c'est du vol car on peut mettre la main sur une HD 4850 pour 84 euros.

n°7160464
shenron67
Sure we can. We're Sega.
Posté le 13-10-2009 à 14:11:36  profilanswer
 

A ce prix là même dans la gamme nvidia tu as mieux avec les 9600gt et les premières 9800gt.
 
Mais à 40-50€ elles seraient plus intéressantes que les hd4650 qui sont +/- tout aussi perf mais consomme plus (55nm oblige).

n°7160611
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 15:35:33  profilanswer
 

shenron67 a écrit :

A ce prix là même dans la gamme nvidia tu as mieux avec les 9600gt et les premières 9800gt.
 
Mais à 40-50€ elles seraient plus intéressantes que les hd4650 qui sont +/- tout aussi perf mais consomme plus (55nm oblige).


Sincèrement, vu le niveau de perfs je ne prendrais ni une HD4650 ni une GT220, même pour jouer 4h par semaine...
 
Entre une HD5870 et une GT220, pour du jeu 24h/24 365 jours par an, la différence de conso s'élève à l'hallucinante somme de... 135€, donc la faible conso n'est pas vraiment un critère très pertinent niveau financier.
 
Jouer 1 an non stop à 3 jeux (40€ pièce) sur HD5870 (320€) coûterait donc 515€.
Jouer 1 an non stop à 3 jeux (40€ pièce) sur GT220 (40€) coûterait donc 180€.
 
Perso, je ne vois rien qui oblige à sacrifier les perfs pour moins d'1€ par jour de différence, et c'est encore un cas totalement farfelu à l'avantage de la carte consommant le moins... (en pratique, c'est grand max 2h de surf/bureautique + 4h/jour de jeu sauf nolife, réduisant la facture EDF annuelle de 135 à 27€ et de 20 à 4€, soit 407 et 164€).
 
Le raisonnement est totalement différent de celui applicable au CPU, d'ailleurs il vaut 100x mieux prendre un CPU à 100€ et une CG à 320€ que l'inverse, toujours dans le cas qui nous intéresse (ceci dit, en pratique on voit plus le cas absurde...)


Message édité par Gigathlon le 13-10-2009 à 15:37:55
n°7160617
Profil sup​primé
Posté le 13-10-2009 à 15:39:58  answer
 

Ce qui est absurde dans ton raisonnement, c'est qu'un CPU est utile toute l'année contrairement au GPU
Même si jouer dans de bonnes conditions ne réclame pas de carte @300+€, un CPU de ce niveau de prix tiendra + longtemps aussi

Message cité 1 fois
Message édité par Profil supprimé le 13-10-2009 à 15:40:27
n°7160631
It_Connexi​on
Posté le 13-10-2009 à 15:48:12  profilanswer
 

Salut super_newbie_pro  ;)  
 
Un petit mot juste pour dire que perso je mettrais en titre : les cartes nvidia entrée et milieu de gamme à la place de bas et milieu de gamme.  
 
Ca fait assez péjoratif "bas de gamme", enfin, c'est juste un avis perso  :jap:

n°7160632
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 15:48:42  profilanswer
 


Non, ce qui est absurde c'est que je ne compte que la carte graphique alors que sous peu, pour quelques personnes, c'est tout un PC qui sera acheté.
 
Personne n'a réellement besoin d'un quad à cette heure, et pourtant on ne voit plus que ça, parfois même couplé à des cartes graphiques totalement ridicules... pour regarder les videos Youtube et autres pubs en flash "car ça ramait sur mon ancien pc" :pfff:
 
Alors oui, un CPU a une durée de vie probablement supérieure à un GPU mais, en pratique, qui utilise réellement des quad à part des pros? (d'ailleurs ça ne durera pas avec les annonces qui ont été faites autour de DX11 et son fameux DirectCompute) Qu'est-ce que ça change que l'encodage en H264 full hd avec son doby true HD de la video de vacances filmée sur un camescope tri-ccd delamorkitu prenne 1h ou 4h? (note que je suis gentil, le rapport de 1 à 4 c'est proche de l'écart entre un Celeron E3000 et un i7 965...)

n°7160635
It_Connexi​on
Posté le 13-10-2009 à 15:51:41  profilanswer
 

Gigathlon a écrit :


Non, ce qui est absurde c'est que je ne compte que la carte graphique alors que sous peu, pour quelques personnes, c'est tout un PC qui sera acheté.
 
Personne n'a réellement besoin d'un quad à cette heure, et pourtant on ne voit plus que ça, parfois même couplé à des cartes graphiques totalement ridicules... pour regarder les videos Youtube et autres pubs en flash "car ça ramait sur mon ancien pc" :pfff:
 
Alors oui, un CPU a une durée de vie probablement supérieure à un GPU mais, en pratique, qui utilise réellement des quad à part des pros? (d'ailleurs ça ne durera pas avec les annonces qui ont été faites autour de DX11 et son fameux DirectCompute) Qu'est-ce que ça change que l'encodage en H264 full hd avec son doby true HD de la video de vacances filmée sur un camescope tri-ccd delamorkitu prenne 1h ou 4h? (note que je suis gentil, le rapport de 1 à 4 c'est proche de l'écart entre un Celeron E3000 et un i7 965...)


 
J'avais cru comprendre que les Quad seraient mieux gérés avec DX11, je me trompes ?

n°7160643
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 15:55:11  profilanswer
 

It_Connexion a écrit :

J'avais cru comprendre que les Quad seraient mieux gérés avec DX11, je me trompes ?


C'est surtout que le GPU va être exploitable hors 3D via une API relativement simple, et si un quad risque de conserver un avantage il sera tout de même moindre que l'écart entre un IGP actuellement suffisant et un GPU mainstream (HD5700) voire performance (HD5800) ou pro (Fermi).
 
Le problème ici, c'est qu'une GT220 rame déjà sur bon nombre des jeux du commerce dès qu'on pousse un peu les détails dans une résolution on ne peut plus courante, et ça ne s'arrangera pas avec le temps, donc quitte à se payer une carte plus performante, autant le faire dès le départ plutôt que de changer ça au bout de 6 mois de slideshow pour au final économiser moins que ce qu'on peut consommer tous les jours pour aller au boulot (et que je sache, tout le monde n'est pas prêt à aller au boulot en velo pour économiser 1-2€ par jour).


Message édité par Gigathlon le 13-10-2009 à 16:04:29
n°7160684
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 16:25:45  profilanswer
 

Bon, à part ça je vais tenter de dresser une liste des GT à éviter à tout prix, c'est à dire les modèles DDR2... :o
 
MSI N220GT-MD512 et N220GT-MD1G (pas MD1G OC/D3)
Point of View R-VGA150929-D2
Asus EN GT220/DI/1GD2 LP
XFX - GT-220X-ZNFC et GT-220X-ZNF2
Club3D CGNX-G222YLI et CGNX-G2224YLI
Twintech - au moins 1 modèle
 
Pour les G210 c'est bien simple: tous les modèles sont sans intérêt (un 785G ou G45 étant au moins équivalents pour la video HD puisque, en 1080p, la G210 est incapable d'appliquer la réduction de bruit indispensable pour atteindre les 100/100).


Message édité par Gigathlon le 13-10-2009 à 16:40:37
n°7160695
shenron67
Sure we can. We're Sega.
Posté le 13-10-2009 à 16:28:41  profilanswer
 

Pourquoi NV n'utilise pas la GDDR5? Ca leur permettrait de se "préparer" pour avoir un bon contrôleur mémoire pour le Fermi, non?

n°7160730
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 16:49:49  profilanswer
 

Ca sera le cas sur la GT240... si elle arrive un jour (prévue pour novembre). Même la GDDR3 est trop performante pour la GT220 et ses misérables 48SP.
 
Outre le doublement des unités de calcul (96), ses fréquences seraient un peu supérieures à la GT220 (avec en outre de la GDDR5 à 3.6Gbps sur un des modèles), mais vraiment pas suffisantes pour lutter avec les HD5700 dotées d'une puissance brute 3-4x plus importante. Il ne faudra pas l'attendre plus haut que la 8800GT/9800GT.

Message cité 1 fois
Message édité par Gigathlon le 13-10-2009 à 16:51:49
n°7160736
Profil sup​primé
Posté le 13-10-2009 à 16:52:12  answer
 
n°7160778
fifi86
Glandeur pro !
Posté le 13-10-2009 à 17:07:55  profilanswer
 

Gigathlon a écrit :

Ca sera le cas sur la GT240... si elle arrive un jour (prévue pour novembre). Même la GDDR3 est trop performante pour la GT220 et ses misérables 48SP.
 
Outre le doublement des unités de calcul (96), ses fréquences seraient un peu supérieures à la GT220 (avec en outre de la GDDR5 à 3.6Gbps sur un des modèles), mais vraiment pas suffisantes pour lutter avec les HD5700 dotées d'une puissance brute 3-4x plus importante. Il ne faudra pas l'attendre plus haut que la 8800GT/9800GT.


 
Oh ça va sortir qu'une question de quelques semaines en théorie
Mais durée de vie du produit avant remplacement super court par contre.
L'utilité du coup ... je vois pas trop  :(  
 
Et pour childerik qui parlait des GT220 fan less, chez certains constructeurs ça ne va pas se faire à cause de la puce qui chauffe un poil trop pour faire une carte facilement stable en fan less (et sans dépenser 50 € de rad sur une carte à 50 € évidemment). Peut être que quelques marques s'y amuseront tout de même.

Message cité 1 fois
Message édité par fifi86 le 13-10-2009 à 17:08:09

---------------
...
n°7160791
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 17:14:06  profilanswer
 

fifi86 a écrit :

Oh ça va sortir qu'une question de quelques semaines en théorie
Mais durée de vie du produit avant remplacement super court par contre.


Remplacement par le client ou par un dérivé de Fermi? :o
 
Par le client j'en doute pas, et je ne doute pas non plus qu'il se tourne vers les rouges pour le coup, mais pour Fermi... faudra déjà que le gros bébé se montre, car jusqu'à preuve du contraire ils sont en train de nous refaire le coup de l'entrée de gamme d'ancienne génération.
 
D'ailleurs ça me fait furieusement penser à ce qu'a fait AMD avec le RV670, mais appliqué au bas de gamme uniquement (les tailles de ces puces sont au plus juste pour la largeur de bus).

Message cité 1 fois
Message édité par Gigathlon le 13-10-2009 à 17:17:09
n°7160801
fifi86
Glandeur pro !
Posté le 13-10-2009 à 17:21:19  profilanswer
 

Gigathlon a écrit :


Remplacement par le client ou par un dérivé de Fermi? :o
 
Par le client j'en doute pas, et je ne doute pas non plus qu'il se tourne vers les rouges pour le coup, mais pour Fermi... faudra déjà que le gros bébé se montre, car jusqu'à preuve du contraire ils sont en train de nous refaire le coup de l'entrée de gamme d'ancienne génération.
 
D'ailleurs ça me fait furieusement penser à ce qu'a fait AMD avec le RV670, mais appliqué au bas de gamme uniquement (les tailles de ces puces sont au plus juste pour la largeur de bus).


 
En théorie par dérivée du Fermi, c'est ce qui ce dit.
Mais bon du coup s'amuser à sortir un gt240 dx10.1 en 40nm juste pour 6 mois maximum c'est assez idiot je trouve.
 
J'arrive pas à cerner le but de la manoeuvre.
Ou alors c'est du blabla et Fermi & coe va avoir de nombreux mois de retard.
On sera fixé avant noël là dessus !


---------------
...
n°7160808
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 13-10-2009 à 17:23:38  profilanswer
 

Ba déjà, faut pas perdre de vue que ces puces ont bien 6 mois de retard mini ...

n°7160922
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 18:19:53  profilanswer
 

fifi86 a écrit :

En théorie par dérivée du Fermi, c'est ce qui ce dit.
Mais bon du coup s'amuser à sortir un gt240 dx10.1 en 40nm juste pour 6 mois maximum c'est assez idiot je trouve.
 
J'arrive pas à cerner le but de la manoeuvre.
Ou alors c'est du blabla et Fermi & coe va avoir de nombreux mois de retard.
On sera fixé avant noël là dessus !


Ils ont du retard, mais pour 2 raisons:
 
1- les GT21x étaient mal planifiés (Q1-2009 alors que TSMC ne pouvait tout simplement pas fabriquer en 40nm avant Q2)
2- TSMC a eu quelques mois de retard (3 mois) sur le 40nm
 
Si on suit la logique nVidia depuis le G80 et même avant ça, il ne faut pas attendre de dérivé mainstream/value de Fermi avant mi-2010 et le 32nm, voire fin 2010 et le 28nm.
 
Ca laisse quand même ~9 mois de durée de vie à ces GT21x, et ça c'est pas franchement bon vu leur niveau.
 
Par contre, il faudrait encore voir si Fermi peut réellement être réduit à une puce ne serait-ce que mainstream, car il a clairement été conçu dans une autre optique avec son FP64 à demi vitesse... ce qui peut impliquer un design totalement différent pour ces futurs GPU "budget".


Message édité par Gigathlon le 13-10-2009 à 18:23:43
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic Unique[Topic Unique] NZXT PanzerBox
ATI Radeon HD 3450 contre NVIDIA GeForce 9300 GECarte graphique gamer ATI ou Nvidia
[Topic Unique] Shuttle SX58H7 Pro Core i7 (avec GTX 680)Nvidia 9800GTX+ et driver 182.50 = écran noir et blanc
Avis sur une config haut de gammerecherche pilotes cartes mères
Question ultra-haut-de-gammeAvis sur config milieu de gamme
Plus de sujets relatifs à : [Topic Unique] GT2xx - 40nm Les cartes nvidia entrée de gamme


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR