Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1766 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  925  926  927  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°7277523
Gigathlon
Quad-neurones natif
Posté le 08-01-2010 à 00:09:49  profilanswer
 

Reprise du message précédent :
Si on compte Redwood et Cedar, ça me parait pas  extraordinaire :o
 
1- La prod de 40nm devait monter courant décembre chez TSMC.
2- AMD avait officiellement annoncé avoir pris des mesures pour mieux approvisionner en Cypress/Juniper.
3- Cedar et Redwood, on en case tout plein par wafer :o

mood
Publicité
Posté le 08-01-2010 à 00:09:49  profilanswer
 

n°7277706
manut2500
Posté le 08-01-2010 à 09:22:07  profilanswer
 

Donc on peut apparemment en conclure que TSMC est pas encore au point et dans ce cas pour le fermi vu sa complexité on risque d'avoir peu d'exemplaires dispos lors de la sortie quelle qu'en soit la date.

n°7277768
Oxygen3
Tears from the moon
Posté le 08-01-2010 à 10:46:15  profilanswer
 

asmomo a écrit :

Citation :

Durant le salon, Nvidia va se concentrer sur ses produits mobiles, mais également sur 3D Vision avec le support des Bluray 3D et de l’affichage sur 3 moniteurs. Nous avons pu voir que Nvidia était en train d’installer le système cet après-midi, l’ouverture officielle étant pour demain.


 
Cool pour le 3screen :)


 
Au vu du "test" de tridam du 3D Vision, je vois strictement aucun intéret à un 3D Vision sur 3 écrans :o:
- La puissance dispo sera jamais suffisante pour faire de la 3D sur 3 écrans.
- La 3D qui ne rend pas bien lorsqu'on déplace la tête risque d'être encore pire avec 3 écrans :o


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°7277771
Oxygen3
Tears from the moon
Posté le 08-01-2010 à 10:48:35  profilanswer
 

Gigathlon a écrit :

3- Cedar et Redwood, on en case tout plein par wafer :o


 
Je pense que c'est plutot ca:
- Cedar et Redwood vont être annoncé dans les jours à venir
- Les 2M sont "vendus aux partenaires"
- Cedard et Redwood sont déjà vendus aux partenaire si ils sont annoncés dans les prochains jours
 
-> Déferlente de cartes DX11 "bas de gamme" à prévoir dans les jours à venir :D


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°7277790
Dyphen
Pull the trigger
Posté le 08-01-2010 à 11:01:51  profilanswer
 

Apparemment Fermi ne serait pas une légende urbaine / mythe ( bref tout ce qu'on veut :D )
 
http://www.cowcotland.com/news/182 [...] y-sli.html
 
tri-SLI de Fermi c'est pas beau ca  :whistle:


Message édité par Dyphen le 08-01-2010 à 11:02:07
n°7277815
asmomo
Modérateur
Posté le 08-01-2010 à 11:11:29  profilanswer
 

Oxygen3 a écrit :

Au vu du "test" de tridam du 3D Vision, je vois strictement aucun intéret à un 3D Vision sur 3 écrans :o:
- La puissance dispo sera jamais suffisante pour faire de la 3D sur 3 écrans.
- La 3D qui ne rend pas bien lorsqu'on déplace la tête risque d'être encore pire avec 3 écrans :o

 

Ah oui c'est sûr que le 3screen 3D ça va être un cauchemar. Moi je parle du 3screen sans ça.

 

edit : enfin je viens de voir que la 3ème sortie est du HDMI, donc la 5870 restera plus adaptée pour 3 écrans haute résolution.

Message cité 2 fois
Message édité par asmomo le 08-01-2010 à 11:13:42

---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7277820
MEI
|DarthPingoo(tm)|
Posté le 08-01-2010 à 11:14:51  profilanswer
 

asmomo a écrit :


 
Ah oui c'est sûr que le 3screen 3D ça va être un cauchemar. Moi je parle du 3screen sans ça.
 
edit : enfin je viens de voir que la 3ème sortie est du HDMI, donc la 5870 restera plus adaptée pour 3 écrans haute résolution.


Sauf si c'est de l'HDMI 1.4 :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7277825
Oxygen3
Tears from the moon
Posté le 08-01-2010 à 11:20:21  profilanswer
 

Et pendant ce temps, à Vera Cruz Las Vegas:

Citation :

L’ingénieur responsable nous a par ailleurs donné la consommation de Fermi : 300 watts ! Il s’agit là de la limite autorisée par la norme PCI-Express 2.0 et pour rappel, Fermi n’est doté que d’un seul GPU ! Retard, consommation de 300 watts, chauffe importante, autant d’éléments qui nous font dire que Fermi a beau être un bijou technologique, il semble d’ores et déjà mal né.


http://www.pcworld.fr/2010/01/08/m [...] te/468101/


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°7277830
Dyphen
Pull the trigger
Posté le 08-01-2010 à 11:24:09  profilanswer
 

Fermi va chauffer à fond alors
 
vla les temperatures qu'elle va atteindre, abused.

n°7277832
MEI
|DarthPingoo(tm)|
Posté le 08-01-2010 à 11:24:47  profilanswer
 

D'un côté une 5870 c'est déjà combien ? 225W non ? ... Bon 75W de plus soit +33% pour ~+33% au première rumeur c'est pas non plus si mauvais que ça en perf/W... :lol:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le 08-01-2010 à 11:24:47  profilanswer
 

n°7277834
Dyphen
Pull the trigger
Posté le 08-01-2010 à 11:26:29  profilanswer
 

pour le rad sur Fermi, ca m'a l'air d'être le meme que sur les GTX2xx
 
ou c'est amélioré ?

n°7277837
devotion42
Posté le 08-01-2010 à 11:28:07  profilanswer
 

Hello ici, je poste ma question ici en pensant que c'est le meilleur topic pour ça (ne voulant pas en créer un nouveau).
 
Je fais de la retouche photo avec une ATI X1900 XTX 512, j'ai aucun autre besoin (pas de video et de jeu). Elle est très bien mais je la trouve vraiment très bruyante en charge alors du coup je me pose plusieurs questions.
1) Est ce que la X1900 est toujours aussi bruyante ou c'est un défaut de ma carte ? Si cela vient de ma carte, si je change le ventilo, ça devrait résoudre le problème...donc si vous pouvez me conseiller là dessus ça serait great :D.
2) Si le souci vient des X1900 en général, que conseillez vous de mieux qu'une X1900 pour mon usage dans les modèles actuels ?
 
Merci pour les réponses !
 
edit : désolé pour le dérangement, j'ai finalement posté sur le topic de la X1900.

Message cité 1 fois
Message édité par devotion42 le 08-01-2010 à 11:50:25

---------------
http://www.pixophil.fr
n°7277839
o_BlastaaM​oof_o
Posté le 08-01-2010 à 11:28:45  profilanswer
 

MEI a écrit :

D'un côté une 5870 c'est déjà combien ? 225W non ? ... Bon 75W de plus soit +33% pour ~+33% au première rumeur c'est pas non plus si mauvais que ça en perf/W... :lol:


MEI, best nVidiot ever !
 
Je crois qu'on va bien se marrer quand on lira les premiers chiffres de conso dans les tests.

n°7277840
MEI
|DarthPingoo(tm)|
Posté le 08-01-2010 à 11:29:05  profilanswer
 

T'arrive a voir quelque chose derrière un cache en plastique toi ?  
 
Franchement on en sais rien, mais comme ça je dirais qu'il sera plus costaud. En tout cas y'aura une vrai aération donc c'est bon signe.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7277843
aliss
Rhyme the Rhyme Well
Posté le 08-01-2010 à 11:31:08  profilanswer
 

Juste une question concernant cette limite de la norme PCI-E, si Fermi consomme effectivement autant, celà ne serait-il pas synonyme de capacité d'oc proche du néant ?

n°7277844
manut2500
Posté le 08-01-2010 à 11:32:13  profilanswer
 

Maintenant que l'on commence à avoir des infos et plus des rumeurs sur le fermi, marc pourrait peut etre re-ouvrir le topic Fermi vous ne croyez pas ?

n°7277849
olfizbak
~ la loutre qui poutre ~
Posté le 08-01-2010 à 11:37:24  profilanswer
 
n°7277852
Dyphen
Pull the trigger
Posté le 08-01-2010 à 11:38:03  profilanswer
 

MEI a écrit :

T'arrive a voir quelque chose derrière un cache en plastique toi ?  
 
Franchement on en sais rien, mais comme ça je dirais qu'il sera plus costaud. En tout cas y'aura une vrai aération donc c'est bon signe.


 
oui j'espère qui sera plus costard vu le TDP de fou qui va atteindre en peak load..
 
 

manut2500 a écrit :

Maintenant que l'on commence à avoir des infos et plus des rumeurs sur le fermi, marc pourrait peut etre re-ouvrir le topic Fermi vous ne croyez pas ?


 
+1  
ca serait bien oui

n°7277858
MEI
|DarthPingoo(tm)|
Posté le 08-01-2010 à 11:41:19  profilanswer
 

o_BlastaaMoof_o a écrit :


MEI, best nVidiot ever !
 
Je crois qu'on va bien se marrer quand on lira les premiers chiffres de conso dans les tests.


Serieux :
- 5870 = 2x 6-pin + PCIe = 225W max.
- GF100 = 1x 8-pin + 1x 6-pin + PCIe = 300W max.
 
On sais juste une chose, au pire on a GF100 qui conso 1,98x plus... Mais c'est pas réaliste de pensé qu'une 5870 ne conso que 151W et que la Fermi consommera 300W.
Au plus favorable ça serait identique. (Fermi a 226W et 5870 a 225W, mais c'est tout autant irréaliste...).
 
Le plus fiable est donc le ratio de conso max. et là seulement +33%... :)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7277868
Charles K
Posté le 08-01-2010 à 11:46:23  profilanswer
 
n°7277875
Oxygen3
Tears from the moon
Posté le 08-01-2010 à 11:49:35  profilanswer
 

MEI a écrit :


Serieux :
- 5870 = 2x 6-pin + PCIe = 225W max.
- GF100 = 1x 8-pin + 1x 6-pin + PCIe = 300W max.

 

On sais juste une chose, au pire on a GF100 qui conso 1,98x plus... Mais c'est pas réaliste de pensé qu'une 5870 ne conso que 151W et que la Fermi consommera 300W.
Au plus favorable ça serait identique. (Fermi a 226W et 5870 a 225W, mais c'est tout autant irréaliste...).

 

Le plus fiable est donc le ratio de conso max. et là seulement +33%... :)

 

Sauf que tu bases ton raisonnement sur un TDP de 225W sur une 5870, alors qu'il n'est que de 188W...
Et même 151W pour la 5850.

 

C'est non plus +33% mais près de +60% :/

 

C'est la 5970 qui est limitée par le Power Limit du PCI-Ex de 300W et est donnée pour 290W :o


Message édité par Oxygen3 le 08-01-2010 à 11:50:55

---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°7277884
aliss
Rhyme the Rhyme Well
Posté le 08-01-2010 à 11:53:31  profilanswer
 

Dans l'article linké par Oxygen3, on peut lire également ceci,
 
Pourquoi une certification ? Parce que ce boîtier dispose d’un système de refroidissement dédié au SLI de la future carte de la firme au caméléon. Il s’agit d’un module supplémentaire à mettre en place une fois les cartes graphiques installées. Il vient alors couvrir une bonne partie de la carte avec au bout un ventilateur de 120 millimètres. C’est ce système qui a été validé par Nvidia après que de nombreux exemplaires envoyés à la firme de Santa Clara soient revenus avec la mention « failed ». La cause ? Refroidissement insuffisant pour évacuer la chaleur générée par deux cartes Fermi en SLI.
 
Ce n'est pas vraiment rassurant.

n°7277890
mikestewar​t
Air Roll Spinnin'
Posté le 08-01-2010 à 11:56:39  profilanswer
 

aliss a écrit :

Dans l'article linké par Oxygen3, on peut lire également ceci,

 

Pourquoi une certification ? Parce que ce boîtier dispose d’un système de refroidissement dédié au SLI de la future carte de la firme au caméléon. Il s’agit d’un module supplémentaire à mettre en place une fois les cartes graphiques installées. Il vient alors couvrir une bonne partie de la carte avec au bout un ventilateur de 120 millimètres. C’est ce système qui a été validé par Nvidia après que de nombreux exemplaires envoyés à la firme de Santa Clara soient revenus avec la mention « failed ». La cause ? Refroidissement insuffisant pour évacuer la chaleur générée par deux cartes Fermi en SLI.

 

Ce n'est pas vraiment rassurant.

 

D'un côté, si le tri-SLI de Fermi a la conso (et le dégagement thermique) de 3 5970 (300W inside), c'est compréhensible. :o (et le WC sur la photo au CES prend tout son sens ;) )

 

J'espère quand même que la Fermi consommera moins qu'une 5970, tout de même. :D

Message cité 1 fois
Message édité par mikestewart le 08-01-2010 à 11:57:09
n°7277916
Gigathlon
Quad-neurones natif
Posté le 08-01-2010 à 12:10:33  profilanswer
 

devotion42 a écrit :

Hello ici, je poste ma question ici en pensant que c'est le meilleur topic pour ça (ne voulant pas en créer un nouveau).
 
Je fais de la retouche photo avec une ATI X1900 XTX 512, j'ai aucun autre besoin (pas de video et de jeu). Elle est très bien mais je la trouve vraiment très bruyante en charge alors du coup je me pose plusieurs questions.
1) Est ce que la X1900 est toujours aussi bruyante ou c'est un défaut de ma carte ? Si cela vient de ma carte, si je change le ventilo, ça devrait résoudre le problème...donc si vous pouvez me conseiller là dessus ça serait great :D.
2) Si le souci vient des X1900 en général, que conseillez vous de mieux qu'une X1900 pour mon usage dans les modèles actuels ?
 
Merci pour les réponses !
 
edit : désolé pour le dérangement, j'ai finalement posté sur le topic de la X1900.


Mon conseil : attend les cartes d'entrée de gamme DX11 et prend toi une HD5500/5600, comme ça si Adobe se décide à sortir des plugins DirectCompute tu y auras accès pour améliorer sensiblement les perfs, mais dans le même temps une conso et un bruit bien inférieurs à ta X1900XTX.

n°7277917
Gigathlon
Quad-neurones natif
Posté le 08-01-2010 à 12:12:10  profilanswer
 

MEI a écrit :


Serieux :
- 5870 = 2x 6-pin + PCIe = 225W max.
- GF100 = 1x 8-pin + 1x 6-pin + PCIe = 300W max.
 
On sais juste une chose, au pire on a GF100 qui conso 1,98x plus... Mais c'est pas réaliste de pensé qu'une 5870 ne conso que 151W et que la Fermi consommera 300W.
Au plus favorable ça serait identique. (Fermi a 226W et 5870 a 225W, mais c'est tout autant irréaliste...).
 
Le plus fiable est donc le ratio de conso max. et là seulement +33%... :)


5870 : 188w
5970 : 294w
Fermi : mini 225w, maxi 300w...
 
Donc la conso tournera entre 1.2x celle de la 5870 et celle de la 5970.


Message édité par Gigathlon le 08-01-2010 à 12:12:22
n°7277922
aliss
Rhyme the Rhyme Well
Posté le 08-01-2010 à 12:15:04  profilanswer
 

mikestewart a écrit :


 
D'un côté, si le tri-SLI de Fermi a la conso (et le dégagement thermique) de 3 5970 (300W inside), c'est compréhensible. :o (et le WC sur la photo au CES prend tout son sens ;) )
 
J'espère quand même que la Fermi consommera moins qu'une 5970, tout de même. :D


 
Sans doute, mais de là à créer une certification de boitier (et un système de ventilation supplémentaire) pouvant acceuillir un sli de Fermi...Il me semble que c'est une première dans le petit monde du multi-gpu.

n°7277939
Dyphen
Pull the trigger
Posté le 08-01-2010 à 12:26:56  profilanswer
 

je vois déja la GTX395 à base de 2 GPU de GTX360..
 
600watts, bruit d'aspirateur , peak load ~100°C  :sol:  
 
 :D

n°7277961
poiuytr
\o/
Posté le 08-01-2010 à 12:40:38  profilanswer
 

C'est pour quand la norme PCI-Express 3.0 ? :whistle:  
Très intéressante la news de PCW. En toute fin de celle-ci, il est d'ailleurs pressenti que le remplaçant de Fermi tarderait beaucoup moins à arriver...
 
Concernant la certification "SLI Fermi", des boitiers déjà existants doivent être efficaces comme le Lian Li A10 (avec un 120mm juste au dessus des cartes filles) et pas mal de boitiers qui ont des ventilos latéraux (P193 & co).

Message cité 1 fois
Message édité par poiuytr le 08-01-2010 à 12:41:10

---------------

n°7277973
MEI
|DarthPingoo(tm)|
Posté le 08-01-2010 à 12:49:43  profilanswer
 

Dyphen a écrit :

je vois déja la GTX395 à base de 2 GPU de GTX360..
 
600watts, bruit d'aspirateur , peak load ~100°C  :sol:  
 
 :D


Deja si on a maxi 300W pour une GTX 380, une GTX 395 sera pas a 600W ;)
 
Apres le bruit d'aspirateur ça veut rien dire et a ce jeux NVIDIA a depuis longtemps été meilleur qu'ATI donc c'est dur de preduire. ;)
 
Quand au peak load @ 100°C perso j'm'en fou si c'est fiable.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7277976
asmomo
Modérateur
Posté le 08-01-2010 à 12:56:46  profilanswer
 

poiuytr a écrit :

C'est pour quand la norme PCI-Express 3.0 ? :whistle:  
Très intéressante la news de PCW. En toute fin de celle-ci, il est d'ailleurs pressenti que le remplaçant de Fermi tarderait beaucoup moins à arriver...
 
Concernant la certification "SLI Fermi", des boitiers déjà existants doivent être efficaces comme le Lian Li A10 (avec un 120mm juste au dessus des cartes filles) et pas mal de boitiers qui ont des ventilos latéraux (P193 & co).


 
Mmh, ça manque un poil de source quand même. La seule façon de sauver Fermi, pour nvidia, c'est le 28nm (ou une résurrection du 32nm), et au mieux ce serait possible fin 2010 (quand on voit le retard du 40nm, faut pas trop espérer quand même). Considérer que puisque nvidia est à la bourre pour Fermi, alors ils vont être en avance pour le remplaçant, c'est un peu étrange, la logique est plutôt que le remplaçant est à la méga bourre voire annulé !


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7277983
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 08-01-2010 à 13:06:05  profilanswer
 

Rien de nouveau sous le soleil, les TDP des Tesla qui sont moins perfs sont déjà à 225W, c'est logique qu'on passe à une connectique permettant de fournir 300W sur la version GeForce.
 
Reste à voir quel sera la conso typique.

n°7277985
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 08-01-2010 à 13:09:14  profilanswer
 

Citation :

Fermi était présent sur le stand de Nvidia puisqu’un boîtier renfermait bien une carte GF100, nous l’avons vérifié par la porte latérale transparente, sans pour autant prendre de photos, les sbires verts montant la garde. Au-delà de cette brève apparition, nous avons pu discuter des futures cartes Nvidia avec les… fabricants de boîtiers. Et le moins que l’on puisse dire, c’est que nous avons été quelque peu surpris de ce que nous avons appris. Chez Thermaltake par exemple, nous avons pu voir un boîtier aux couleurs de Nvidia, l’Element V, qui sera certifié pour la GeForce Fermi 100. Pourquoi une certification ? Parce que ce boîtier dispose d’un système de refroidissement dédié au SLI de la future carte de la firme au caméléon. Il s’agit d’un module supplémentaire à mettre en place une fois les cartes graphiques installées. Il vient alors couvrir une bonne partie de la carte avec au bout un ventilateur de 120 millimètres. C’est ce système qui a été validé par Nvidia après que de nombreux exemplaires envoyés à la firme de Santa Clara soient revenus avec la mention « failed ». La cause ? Refroidissement insuffisant pour évacuer la chaleur générée par deux cartes Fermi en SLI.
 
Même son de cloche chez Cooler Master où nous avons pu voir le futur boîtier HAF X, sous NDA malheureusement, qui lui aussi sera certifié Nvidia Fermi. Pourquoi ? Parce que lui aussi est capable de participer activement à la dissipation de la chaleur générée par Fermi. L’ingénieur responsable nous a par ailleurs donné la consommation de Fermi : 300 watts ! Il s’agit là de la limite autorisée par la norme PCI-Express 2.0 et pour rappel, Fermi n’est doté que d’un seul GPU ! Retard, consommation de 300 watts, chauffe importante, autant d’éléments qui nous font dire que Fermi a beau être un bijou technologique, il semble d’ores et déjà mal né. Il se susurre d’ailleurs que la plus puissante des Fermi égalerait une Radeon HD 5870 mais pas la 5970. Pour aller au-delà de la 5870, il faudrait augmenter les fréquences et… dépasser alors la limite des 300 watts. La vie de Fermi pourrait dès lors être courte et la nouvelle génération arriverait nettement plus vite… A confirmer dans les mois à venir.

source : http://www.pcworld.fr/2010/01/08/m [...] te/468101/


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7277994
Gigathlon
Quad-neurones natif
Posté le 08-01-2010 à 13:15:52  profilanswer
 

Marc a écrit :

Rien de nouveau sous le soleil, les TDP des Tesla qui sont moins perfs sont déjà à 225W, c'est logique qu'on passe à une connectique permettant de fournir 300W sur la version GeForce.
 
Reste à voir quel sera la conso typique.


Etonnant qu'on ait que des bruits de couloirs quand même, en particulier pour le côté "perfs", c'est facile de voir si Heaven tourne autour des 20fps (saccades franchement sensibles), bien en dessous (slideshow) ou bien au-dessus (fluide ou presque) dans les passages les plus lourds... :o
 
Enfin là, étant donné que comme je l'avais prévu il n'y avait pas le compteur en haut à droite, ça continue de pointer vers un GF100 vraiment pas glop.

n°7277997
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 08-01-2010 à 13:17:50  profilanswer
 

Oui enfin les drivers sont peut être aussi loin du niveau de perfs attendu au launch, donc bon, pour le moment on s'en fout un peu.

n°7278070
MEI
|DarthPingoo(tm)|
Posté le 08-01-2010 à 13:58:12  profilanswer
 

asmomo a écrit :


 
Mmh, ça manque un poil de source quand même. La seule façon de sauver Fermi, pour nvidia, c'est le 28nm (ou une résurrection du 32nm), et au mieux ce serait possible fin 2010 (quand on voit le retard du 40nm, faut pas trop espérer quand même). Considérer que puisque nvidia est à la bourre pour Fermi, alors ils vont être en avance pour le remplaçant, c'est un peu étrange, la logique est plutôt que le remplaçant est à la méga bourre voire annulé !


La remplaçante a mon avis c'était prevu pour être un die shrink en 32/28nm, y'a largement de quoi faire, et par le passé NVIDIA a pas mal utilisé de ce procédé.
 
Alors y'a des chances que la NVIDIA 32/28nm soit une évolution plus qu'un die shrink, mais chose sur l'ecart entre GTX 280 et Fermi (et meme GTX 285 et Fermi) étant plus long qu'esperer, l'ecart entre Fermi et successeur devrait en être raccourci vu que normalement les boite de la taille de NVIDIA on plusieurs equipes en //.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7278087
Gigathlon
Quad-neurones natif
Posté le 08-01-2010 à 14:05:33  profilanswer
 

MEI a écrit :

La remplaçante a mon avis c'était prevu pour être un die shrink en 32/28nm, y'a largement de quoi faire, et par le passé NVIDIA a pas mal utilisé de ce procédé.


On a vu ce que ça a donné... [:yamusha]  
 
Entre le G92b (conso identique, réduction du die franchement moyenne), le GT200b (conso légèrement à la baisse mais die à peine réduit) et les GT21x (die énorme pour le GT215, qui nous amènerait à ~350mm² pour un "GT212" reprenant les specs générales d'un GT200 en 40nm), je crois qu'on peut dire que récemment le passage à une gravure plus fine a toujours été problématique pour NVidia...

n°7278114
MEI
|DarthPingoo(tm)|
Posté le 08-01-2010 à 14:15:43  profilanswer
 

Gigathlon a écrit :


On a vu ce que ça a donné... [:yamusha]  
 
Entre le G92b (conso identique, réduction du die franchement moyenne), le GT200b (conso légèrement à la baisse mais die à peine réduit) et les GT21x (die énorme pour le GT215, qui nous amènerait à ~350mm² pour un "GT212" reprenant les specs générales d'un GT200 en 40nm), je crois qu'on peut dire que récemment le passage à une gravure plus fine a toujours été problématique pour NVidia...


Faut revenir bien plus loin avec les G70/G71 par ex.
 
En plus faut déjà comparé G80->G92 aussi, car là l'optique était peut être du haut de gamme avec des perfs, alors que le G92b il a toujours été utilisé dans du milieu de gamme, donc le yield avant tout surement...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7278123
asmomo
Modérateur
Posté le 08-01-2010 à 14:19:35  profilanswer
 

Et les 280 étaient déjà en retard par rapport à ce qui était prévu. Je parlais bien d'un shrink, c'est le seul moyen à court terme, je doute qu'une autre équipe nvidia bossait sur un GPU 40nm, donc de toute façon l'espoir, shrink ou nouvelle archi, ne peut venir que d'une nouvelle gravure. JHH a lui-même dit qu'il n'y avait pas de plan B.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7278138
xvince1
Ma question préférée
Posté le 08-01-2010 à 14:24:16  profilanswer
 

Faut voir à pas enterrer le bébé avec l'eau du bain trop vite. Même si Fermi est moyen, ils peuvent encore adopter la tactique FX5800 : pousser le bouzin à mort avec un seche cheveux (300w) en attendant du mieux sur la gravure et surtout, peaufiner (trafiquer ???) les drivers au poil de bip

Message cité 1 fois
Message édité par xvince1 le 08-01-2010 à 14:25:50

---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
n°7278162
Gigathlon
Quad-neurones natif
Posté le 08-01-2010 à 14:41:47  profilanswer
 

MEI a écrit :


Faut revenir bien plus loin avec les G70/G71 par ex.
 
En plus faut déjà comparé G80->G92 aussi, car là l'optique était peut être du haut de gamme avec des perfs, alors que le G92b il a toujours été utilisé dans du milieu de gamme, donc le yield avant tout surement...


Tu crois qu'avec une puce abusivement complexe l'objectif c'est pas le rendement par wafer avant tout? :heink:
 
Au contraire, les GT21x sont probablement les GPU qui ont le moins besoin de redondance, et malgré ça un GPU de la complexité d'un GT200 serait tout juste comparable en taille à un Cypress (soit une réduction de 25% contre 50% pour un shrink parfait... à comparer aux 17% gagnés entre GT200 et GT200b, contre 28% pour un shrink parfait)
 
Le passage du G70 au G71, c'était une tout autre époque, on ne peut plus se référer à ce qui se passait sur les 130/110nm depuis un bail, sinon pendant que t'y es compare le 5µm au 8µm... [:alf1976]

Message cité 1 fois
Message édité par Gigathlon le 08-01-2010 à 14:45:07
n°7278167
aliss
Rhyme the Rhyme Well
Posté le 08-01-2010 à 14:46:09  profilanswer
 

xvince1 a écrit :

Faut voir à pas enterrer le bébé avec l'eau du bain trop vite. Même si Fermi est moyen, ils peuvent encore adopter la tactique FX5800 : pousser le bouzin à mort avec un seche cheveux (300w) en attendant du mieux sur la gravure et surtout, peaufiner (trafiquer ???) les drivers au poil de bip


 
En résumé nous pondre un nv30-like  :??:  :D

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  925  926  927  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR