Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1005 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  927  928  929  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°7284483
aliss
Rhyme the Rhyme Well
Posté le 12-01-2010 à 16:08:07  profilanswer
 

Reprise du message précédent :
Si c'était le cas, nVidia aurait cessé tout rapport avec eux, ils ne font que les retirer de la liste des privilégiés...
 
 
 

mood
Publicité
Posté le 12-01-2010 à 16:08:07  profilanswer
 

n°7284728
Yoyo_5
Posté le 12-01-2010 à 18:30:14  profilanswer
 

MEI a écrit :


Y'a bien que les pro-ATI qui extrapole...  :heink:  

Mais on ne peut décemment pas conclure avec un seul problème qui n'est résolu par un seul algo dont on a fait qu'une seule implémentation sur une seul API.
 
Cap peut tout aussi bien être simplement l'archi NVIDIA qui montre ses limites pour ce problème précis plus que le pilote OpenCL qui est à chier. D'autant plus que si c'était le cas, et si on voulait vraiment le prouver, implémenter le même algo en CUDA ne serait pas non plus impensable. Où encore en DirectCompute.
 


Je ne disais ça que pour montrer ton coté Fanboy Néphrétique nVidia.  [:cbrs]


---------------
¤ Paix et félicité ¤

n°7284736
hyksos_sow​o
Posté le 12-01-2010 à 18:40:42  profilanswer
 

Et j'espère qu'il est payé par NVidia pour son travail de marketing, sinon je comprend pas pourquoi il perd autant de temps à défendre NVidia :lol:

n°7284805
asmomo
Modérateur
Posté le 12-01-2010 à 19:24:09  profilanswer
 

aliss a écrit :

Si c'était le cas, nVidia aurait cessé tout rapport avec eux, ils ne font que les retirer de la liste des privilégiés...


 
En fait charlie sous-entend que ce partenaire est hyper important, et qu'en gros s'il coule, ça ferait mal à nvidia. ça montrerait notamment que personne ne gagne plus d'argent avec eux depuis un bout de temps.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7284897
Gigathlon
Quad-neurones natif
Posté le 12-01-2010 à 20:10:52  profilanswer
 

hyksos_sowo a écrit :

Et j'espère qu'il est payé par NVidia pour son travail de marketing, sinon je comprend pas pourquoi il perd autant de temps à défendre NVidia :lol:


C'est surtout que si le code ressemble au Smallpt original (pas encore pris le temps de regarder l'archive 7zip que j'ai dl) y'a pas vraiment de raison qu'il provoque une réaction atypique du pilote.
 
Par contre, ce qui est clair, c'est que les 2 versions du pilote testées (win et nux) ne réagissent pas du tout de la même façon, et ça y'a pas photo, c'est lié au pilote OpenCL.
 
Qu'une GTX280 soit moins performante qu'une 4870 dans cet exercice ne me choque pas vu le différentiel en terme de puissance brute et les calculs massivement parallélisables, mais ça n'explique pas la différence énorme (et dans les 2 sens) entre 2 pilotes pour ladite GTX280.
 
 
Par contre, ce petit exercice de style montre à quel point on est loin de pouvoir envisager des jeux full raytracing, ça demande vraiment trop de puissance de calcul.


Message édité par Gigathlon le 12-01-2010 à 21:48:04
n°7284962
aliss
Rhyme the Rhyme Well
Posté le 12-01-2010 à 20:45:28  profilanswer
 

asmomo a écrit :


 
En fait charlie sous-entend que ce partenaire est hyper important, et qu'en gros s'il coule, ça ferait mal à nvidia. ça montrerait notamment que personne ne gagne plus d'argent avec eux depuis un bout de temps.


 
Dans ce cas, le seul qui soit important à ce point et dépendant uniquement de nvidia c'est EVGA ?

n°7285072
asmomo
Modérateur
Posté le 12-01-2010 à 21:56:13  profilanswer
 

Je crois pas qu'EVGA soit très gros.
 
http://www.fudzilla.com/content/view/17205/1/
 

Citation :

Citation :

Cypress yields not a problem


 
Claims that the current TSMC 40nm process that is being used for the AMD/ATI Cypress family is achieving yields of in the neighborhood of 40% don’t seem to have a shred of truth. Our sources close to TSMC claim that actually the 40nm process that is being used for the Cypress family is routinely achieving yields in the 60% to 80% range, which is actually confirmed by the fact that ATI is keeping product in the pipeline and you can actually buy boards at retail.
 
Chip yields seem to be the topic of discussion lately as the much larger Nvidia Fermi chip is struggling with yield issues as our sources suggest that the actual yields are as low as 20% and are not improving quickly according to sources close to the fabs. With wafer starts costing about $5K the numbers suggest that each chip would cost an astounding estimated $200 per chip which pegs the card with a sticker price of about $600.
 
Those in the know are claiming that Fermi despite the yield and thermal issues is only about 20% faster than Cypress, while Hemlock smokes it. The combination of low yields, high thermals, and marginally better performance than Cypress could be conspiring to place Nvida in the position of having to release the card, but have to sell it at a loss till they are able to address the issues in the next spin according to sources. Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better.

All of the talk of yields seems to be in some ways nothing more than a smoke screen to shine the light off of the current situation to stall sales by promising something that most consumers are likely going to be unable to buy. The moles claim you will not need a pair of 3D glasses to watch this shake out in the next few weeks.


 
 [:simchevelu]  
 
On notera que l'article n'est pas de Fuad, lui il parle d'un bi-Fermi 1 mois après le single  [:dark]


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7285080
couillesho​t
Les bouboules et la boubouche
Posté le 12-01-2010 à 21:59:35  profilanswer
 

aliss a écrit :


 
Dans ce cas, le seul qui soit important à ce point et dépendant uniquement de nvidia c'est EVGA ?


 
d'autres suspects?:
 
twintech
gainward
galaxy
POV
leadtek
albatron (disparu je crois... :whistle: )


Message édité par couilleshot le 12-01-2010 à 22:00:52

---------------
:o :o :o
n°7285081
asmomo
Modérateur
Posté le 12-01-2010 à 22:00:20  profilanswer
 

Tom's a retiré son article bidon  [:prozac]


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7285084
couillesho​t
Les bouboules et la boubouche
Posté le 12-01-2010 à 22:01:29  profilanswer
 

asmomo a écrit :

Tom's a retiré son article bidon  [:prozac]


 
toujours mieux que de le laisser  :D


---------------
:o :o :o
mood
Publicité
Posté le 12-01-2010 à 22:01:29  profilanswer
 

n°7285156
sasuke87
Posté le 12-01-2010 à 22:49:39  profilanswer
 

asmomo a écrit :

Je crois pas qu'EVGA soit très gros.
 
http://www.fudzilla.com/content/view/17205/1/
 

Citation :

Citation :

Cypress yields not a problem


 
Claims that the current TSMC 40nm process that is being used for the AMD/ATI Cypress family is achieving yields of in the neighborhood of 40% don’t seem to have a shred of truth. Our sources close to TSMC claim that actually the 40nm process that is being used for the Cypress family is routinely achieving yields in the 60% to 80% range, which is actually confirmed by the fact that ATI is keeping product in the pipeline and you can actually buy boards at retail.
 
Chip yields seem to be the topic of discussion lately as the much larger Nvidia Fermi chip is struggling with yield issues as our sources suggest that the actual yields are as low as 20% and are not improving quickly according to sources close to the fabs. With wafer starts costing about $5K the numbers suggest that each chip would cost an astounding estimated $200 per chip which pegs the card with a sticker price of about $600.
 
Those in the know are claiming that Fermi despite the yield and thermal issues is only about 20% faster than Cypress, while Hemlock smokes it. The combination of low yields, high thermals, and marginally better performance than Cypress could be conspiring to place Nvida in the position of having to release the card, but have to sell it at a loss till they are able to address the issues in the next spin according to sources. Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better.

All of the talk of yields seems to be in some ways nothing more than a smoke screen to shine the light off of the current situation to stall sales by promising something that most consumers are likely going to be unable to buy. The moles claim you will not need a pair of 3D glasses to watch this shake out in the next few weeks.


 
 [:simchevelu]  
 
On notera que l'article n'est pas de Fuad, lui il parle d'un bi-Fermi 1 mois après le single  [:dark]


 
C'est plus 36% plus perf, c'est 20% maintenant... bon bon que dire  :whistle:  

n°7285207
sharshar
PLO Style
Posté le 12-01-2010 à 23:19:48  profilanswer
 

fermi===> [:st 89] <===hemlock


---------------
PSN : aLka94/Sharshar_Bling
n°7285237
aliss
Rhyme the Rhyme Well
Posté le 12-01-2010 à 23:38:29  profilanswer
 

sasuke87 a écrit :


 
C'est plus 36% plus perf, c'est 20% maintenant... bon bon que dire  :whistle:  


 
Que si c'est le cas (conso importante, 20-25% plus rapide que le RV870 pour 600$) nVidia a raison de se concentrer sur le marché pro ?  ;)

n°7285238
Gein
Posté le 12-01-2010 à 23:40:12  profilanswer
 

Attention sur le marché pro c'est le rapport puissance(de calcul)/watt qui est regardé.

n°7285252
aliss
Rhyme the Rhyme Well
Posté le 12-01-2010 à 23:50:29  profilanswer
 

asmomo a écrit :


On notera que l'article n'est pas de Fuad, lui il parle d'un bi-Fermi 1 mois après le single  [:dark]


 
J'ai trouvé plus optimiste que Fuad encore,
 
http://www.overclock.net/nvidia/64 [...] marks.html
 
 :D

n°7285273
blazkowicz
Posté le 13-01-2010 à 00:13:31  profilanswer
 

je suis tombé là-dessus : mieux qu'un quad core pour lire ses mails, un GROS gros serveur qui utilise 1% de ses CPU
http://gadgetopia.com/post/6196
 

n°7285347
marllt2
Posté le 13-01-2010 à 06:57:10  profilanswer
 

http://www.fudzilla.com/content/view/17197/34/
 

Citation :

Dual-GPU Fermi card to launch after singles. First to launch are two single-GPU cards.
 
Fermi GF100 is a single chip GT300-based 40nm DirectX 11 card. Nvidia plans to launch two cards that will aim to replace Geforce GTX 285 and Geforce GTX 260 in enthusiast and performance markets respectively, while the high-end dual-chip Fermi card will come after.
 
We don’t know how much later the dual-GPU should launch, but it should happen within one to two months. If all goes well and it doesn’t get delayed, we can hope to see it by May. Around that time, ATI might be ready with its refreshed 40nm cards that might have more juice and could compete better. However, this is only after Nvidia finally launches its GT300, Fermi-based products.
 
It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.


 
 

aliss a écrit :

J'ai trouvé plus optimiste que Fuad encore,
 
http://www.overclock.net/nvidia/64 [...] marks.html
 
 :D


Citation :

The GF100 card length is 10.61"
The GF104 is going to be larger, around 5870 length
The GF104 is the faster of the two cards.
 
GF100 outperforms ATi's 5870 by 46% on average
GF100 outperforms ATi's 5970 by 8% on average
 
GF100 promises to deliver at least 40% more performance than the GTX295 for less money. GF104 promises double that.
GF100 and GF104 feature full SLi capability and a new scaling method for rendering
 
GF104 will feature new technology designed for UHD OLED monitors!

Message cité 1 fois
Message édité par marllt2 le 13-01-2010 à 08:18:18
n°7285393
Oxygen3
Tears from the moon
Posté le 13-01-2010 à 08:54:42  profilanswer
 

Citation :

GF104 will feature new technology designed for UHD OLED monitors!


 [:delarue5]


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°7285399
Yoyo_5
Posté le 13-01-2010 à 09:05:47  profilanswer
 

Oxygen3 a écrit :

Citation :

GF104 will feature new technology designed for UHD OLED monitors!


 [:delarue5]


La CG n'envoie plus des bits mais des photons... [:cerveau afrojojo]


Message édité par Yoyo_5 le 13-01-2010 à 09:06:13

---------------
¤ Paix et félicité ¤

n°7285402
It_Connexi​on
Posté le 13-01-2010 à 09:12:31  profilanswer
 

marllt2 a écrit :

http://www.fudzilla.com/content/view/17197/34/
 

Citation :

Dual-GPU Fermi card to launch after singles. First to launch are two single-GPU cards.
 
Fermi GF100 is a single chip GT300-based 40nm DirectX 11 card. Nvidia plans to launch two cards that will aim to replace Geforce GTX 285 and Geforce GTX 260 in enthusiast and performance markets respectively, while the high-end dual-chip Fermi card will come after.
 
We don’t know how much later the dual-GPU should launch, but it should happen within one to two months. If all goes well and it doesn’t get delayed, we can hope to see it by May. Around that time, ATI might be ready with its refreshed 40nm cards that might have more juice and could compete better. However, this is only after Nvidia finally launches its GT300, Fermi-based products.
 
It is definitely not fun to be in Nvidia's shoes, especially when it comes to the desktop graphics card market.


 
 


 

marllt2 a écrit :


Citation :

The GF100 card length is 10.61"
The GF104 is going to be larger, around 5870 length
The GF104 is the faster of the two cards.
 
GF100 outperforms ATi's 5870 by 46% on average
GF100 outperforms ATi's 5970 by 8% on average
 
GF100 promises to deliver at least 40% more performance than the GTX295 for less money. GF104 promises double that.
GF100 and GF104 feature full SLi capability and a new scaling method for rendering
 
GF104 will feature new technology designed for UHD OLED monitors!



 
46 % de mieux qu'une 5870 en moyenne  :ouch:  :ouch:  Ca paraît vraiment énorme...  

n°7285408
MEI
|DarthPingoo(tm)|
Posté le 13-01-2010 à 09:21:04  profilanswer
 

Oxygen3 a écrit :

Citation :

GF104 will feature new technology designed for UHD OLED monitors!


 [:delarue5]


A part le support de l'HDMI 1.4 ou du DisplayPort 1.2 ou d'un truc du genre... (genre un TMDS pour faire du Quad HD), je vois pas trop ce que ça peut-être.
 
Mais le plus problématique c'est que les OLED Quad-HD si j'ai bien suivit c'est pas avant 2013 au mieux d'après les dernieres new au CES :??:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7285410
MEI
|DarthPingoo(tm)|
Posté le 13-01-2010 à 09:22:57  profilanswer
 

It_Connexion a écrit :


 
46 % de mieux qu'une 5870 en moyenne  :ouch:  :ouch:  Ca paraît vraiment énorme...  


Ca me parait plausible si on estime qu'ils ont réussi leur parie de tourner @ 1700MHz et qu'on fait les projections en se basant sur 4870 vs GTX280.
Après c'est p'tet une GTX 380 Ultra Extreme qui fait ça qui sera dispo a 1000 exemplaire et que les GTX 380 normale sont que 25% plus perfs... :o
Ca serait pas la premiere fois. (cf les 6800 ...)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7285412
It_Connexi​on
Posté le 13-01-2010 à 09:25:02  profilanswer
 

MEI a écrit :


Ca me parait plausible si on estime qu'ils ont réussi leur parie de tourner @ 1700MHz et qu'on fait les projections en se basant sur 4870 vs GTX280.
Après c'est p'tet une GTX 380 Ultra Extreme qui fait ça qui sera dispo a 1000 exemplaire et que les GTX 380 normale sont que 25% plus perfs... :o
Ca serait pas la premiere fois. (cf les 6800 ...)


 
A suivre de prêt ;)

n°7285416
MEI
|DarthPingoo(tm)|
Posté le 13-01-2010 à 09:28:41  profilanswer
 

Par contre question con, c'est quoi la GF104 :??: La dual GPU :??:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7285432
marllt2
Posté le 13-01-2010 à 09:49:38  profilanswer
 

GF104 c'est censé être un dérivé de Fermi MDG (256 SP ?), pour remplacer les GTX 260/275/285.
 
Un peu comme Cypress vs Juniper.


Message édité par marllt2 le 13-01-2010 à 09:52:02
n°7285436
MEI
|DarthPingoo(tm)|
Posté le 13-01-2010 à 09:51:51  profilanswer
 

Là on lit GF104 > GF100 c'pour ça que je comprends rien. :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7285515
dll_75
Posté le 13-01-2010 à 10:51:31  profilanswer
 

It_Connexion a écrit :


 
46 % de mieux qu'une 5870 en moyenne :ouch: :ouch: Ca paraît vraiment énorme...  


 
Ben +46% pour une carte à 600$ (source Aliss?), même si elle consomme 270/300W en full, ca le fait sans probleme je pense!
 
Puis faut arreter un peu avec la conso, la majorité des joueurs jouent 6 à 10 heures par semaine, donc entre 230 watts et 300 watts OSEF.
700watts /=/ 7 centimes d'euros.....

n°7285521
Zack38
Posté le 13-01-2010 à 10:54:02  profilanswer
 

La GeForce GF100 « Fermi » pour mars ?
 

Citation :

De nombreuses rumeurs courent actuellement sur Fermi, il est temps de faire le point...
 
On sait depuis quelque temps qu'AMD a été obligé de sous-cadencer son ATI Radeon HD 5970 faute de pouvoir dépasser la limite de 300 watts prévue par la norme ATX. Aujourd'hui il apparait de plus en plus certain que NVIDIA l'a atteinte avec une carte graphique à un GPU, une première ! Le prototype de GF100 vu par certains de nos confrères disposait bien de la double connectique d'alimentation PCIe 6+8 pins. En plus de cette consommation gargantuesque, la GF100 aurait un dégagement thermique plutôt élevé comme nous l'avons découvert lors du CES de Las Vegas.
 
http://wd.ch-img.com/1104751-nvidia-gf100-01,bWF4LTIzOXgyMDA=.jpg
 
Les choses s'annoncent plutôt mal pour NVIDIA, dont la nouvelle solution haut de gamme ne devrait pas être beaucoup plus performante que la Radeon HD 5870. Son coût est de plus estimé à environ 600 dollars, soit le prix de la Radeon HD 5970 ! Pour espérer battre cette dernière NVIDIA préparerait actuellement une solution Fermi à deux GPU. Nous ne voyons guère comment le caméléon pourrait réaliser une telle prouesse sans sacrifier les fréquences à un tel point que tout l'intérêt d'un bi-GPU (le gain de performances) s'érode considérablement...
 
http://wd.ch-img.com/1104741-gf100-fermi-sli-02,bWF4LTEwOHgxMDA=.jpg http://wd.ch-img.com/1104731-gf100-fermi-sli-01,bWF4LTkxeDEwMA==.jpg
 
Les rumeurs actuelles annoncent un début de la production de masse de la GeForce GF100 pour la troisième semaine de février, avec une disponibilité limitée courant mars. L'arrivée éventuelle d'une carte bi-GPU serait quant à elle prévue vers le mois de mai, dans le meilleur des cas. Cela signifie qu'AMD conserverait la couronne des performances pour encore quelques mois, au moins. La firme texane pourra ensuite jouer sur le prix, ce qui semble moins réalisable pour NVIDIA. Au final, 2010 pourrait bien s'annoncer comme un remake de 2009 dans le domaine des cartes graphiques...


 
Bref, le Fermi va arriver avec :

  • plusieurs mois de retard
  • un niveau de perfs comparable à la HD5870
  • une consommation déraisonnable (6+8pin)
  • un dégagement thermique élevé
  • un prix comparable à la HD5970
  • une disponibilité très limitée qui accroîtra son prix


On peut imaginer qu'nVidia se décide réellement à lancer une biFermi . Si c'est le cas, cette fameuse carte graphique aurait une consommation qui nécessiterait une alim de 850W au minimum, un ventirad triple-slot, un prix avoisinant 800€ au bas mot (hors inflation temporaire à cause de l'indisponibilité), une taille démesurée, bref . Un truc dont seuls les fanboy nVidia pourront chanter les louanges .
 
J'exagère peut-être un peu, mais il ne faudra pas s'attendre à beaucoup mieux de la part de nVidia ... :sweat:

n°7285536
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 13-01-2010 à 11:03:39  profilanswer
 

Une GTX 280 c'est aussi un 6+8 pin  [:petrus75]

n°7285540
Charles K
Posté le 13-01-2010 à 11:07:45  profilanswer
 

c'est la loose, ça va pas aider amd a baisser les prix tout ça  :(

n°7285561
MEI
|DarthPingoo(tm)|
Posté le 13-01-2010 à 11:25:35  profilanswer
 

Marc a écrit :

Une GTX 280 c'est aussi un 6+8 pin  [:petrus75]


Les 8800 Ultra étaient pas mal non plus aussi. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7285562
poiuytr
\o/
Posté le 13-01-2010 à 11:25:42  profilanswer
 

Marc a écrit :

Une GTX 280 c'est aussi un 6+8 pin  [:petrus75]


Je garde un assez mauvais souvenir de ma dernière CG 6+8 pins (2900XT). :D
 
 
Sinon HD 5870 @ 1Go chez Giga
1300 Mhz pour la ram et un ventirad maison... mais toujours un seul petit giga de ram. :o


---------------

n°7285573
Profil sup​primé
Posté le 13-01-2010 à 11:30:36  answer
 

poiuytr a écrit :

[..]
 
Sinon HD 5870 @ 1Go chez Giga
1300 Mhz pour la ram et un ventirad maison... mais toujours un seul petit giga de ram. :o


Voilà pourquoi elles ne sont pas chères ces ATI [:otourne]


Message édité par Profil supprimé le 13-01-2010 à 11:31:03
n°7285576
o_BlastaaM​oof_o
Posté le 13-01-2010 à 11:31:20  profilanswer
 

dll_75 a écrit :


 
Ben +46% pour une carte à 600$ (source Aliss?), même si elle consomme 270/300W en full, ca le fait sans probleme je pense!
 
Puis faut arreter un peu avec la conso, la majorité des joueurs jouent 6 à 10 heures par semaine, donc entre 230 watts et 300 watts OSEF.
700watts /=/ 7 centimes d'euros.....


Sauf que là le problème risque de se poser en termes de refroidissement. Si effectivement Fermi a une conso déraisonnable, faudra voir d'une part la stabilité de la carte en pratique et d'autre part l'éventuel impact sur le reste du système (élévation de la température interne du boîtier).

n°7285580
MEI
|DarthPingoo(tm)|
Posté le 13-01-2010 à 11:33:41  profilanswer
 

Zack38 a écrit :

La GeForce GF100 « Fermi » pour mars ?
 
Bref, le Fermi va arriver avec :

  • plusieurs mois de retard
  • un niveau de perfs comparable à la HD5870
  • une consommation déraisonnable (6+8pin)
  • un dégagement thermique élevé
  • un prix comparable à la HD5970
  • une disponibilité très limitée qui accroîtra son prix


On peut imaginer qu'nVidia se décide réellement à lancer une biFermi . Si c'est le cas, cette fameuse carte graphique aurait une consommation qui nécessiterait une alim de 850W au minimum, un ventirad triple-slot, un prix avoisinant 800€ au bas mot (hors inflation temporaire à cause de l'indisponibilité), une taille démesurée, bref . Un truc dont seuls les fanboy nVidia pourront chanter les louanges .
 
J'exagère peut-être un peu, mais il ne faudra pas s'attendre à beaucoup mieux de la part de nVidia ... :sweat:


 
Comme d'hab' PC World extrapole et donne un avis tranché peu impartial.
 

  • On sais tous, surtout les oceurs. qu'on peut diviser le TDP en ne perdant que 25% de perfs. On peut donc imaginer un bi-Fermi avec des perfs théorique de seulement 1,5x celle du mono-GPU mais avec un TDP identique.
  • Le niveau de perf, ils le sortent comparable alors que plusieurs sources/rumeurs l'annonce entre 1,25x et 1,5x une 5870, donc à voir...
  • La consommation déraisonnable c'est bon, euh, une 5970 c'est pareil et on ne la traite pas de déraisonnable (sans compté le passif des 3870/4870 X2 qui étaient guère mieux), ou même d'autres NVIDIA, en plus c'est leur crédo depuis la TNT2 Ultra de tirer le max du max niveau conso, donc je pense que c'est pas une surprise non plus... :D
  • Estimer le prix c'est fort sachant que NVIDIA a dit vouloir faire un gros effort dessus et qu'un modèle bi-GPU est prévu. Et là clairement une carte a $800-900, bi-GPU ou pas, ça se vends pas. Donc y'a sans doute confusion avec le prix de la bi-GPU.  



---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7285586
MEI
|DarthPingoo(tm)|
Posté le 13-01-2010 à 11:37:56  profilanswer
 

o_BlastaaMoof_o a écrit :


Sauf que là le problème risque de se poser en termes de refroidissement. Si effectivement Fermi a une conso déraisonnable, faudra voir d'une part la stabilité de la carte en pratique et d'autre part l'éventuel impact sur le reste du système (élévation de la température interne du boîtier).


Y'a des gens qu'on eu des SLI de 8800 Ultra sans gros pbs. Y'a des gens qu'on des GTX 295/5970 aussi. C'est pas non plus impensable de dissiper tout ça.
 
Comme dit c'est 300W maxi de conso, comme la GTX 280, et donc y'a pas de raison que ça soit beaucoup plus problématique, d'autant vu la taille du die, la surface d'échange sera quand même conséquente.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7285589
Gigathlon
Quad-neurones natif
Posté le 13-01-2010 à 11:41:35  profilanswer
 

Marc a écrit :

Une GTX 280 c'est aussi un 6+8 pin  [:petrus75]


Dans le même temps c'était obligatoire avec une conso max de 236w :o

n°7285594
Zack38
Posté le 13-01-2010 à 11:43:47  profilanswer
 

MEI a écrit :


 
Comme d'hab' PC World extrapole et donne un avis tranché peu impartial.
 

  • On sais tous, surtout les oceurs. qu'on peut diviser le TDP en ne perdant que 25% de perfs. On peut donc imaginer un bi-Fermi avec des perfs théorique de seulement 1,5x celle du mono-GPU mais avec un TDP identique.
  • Le niveau de perf, ils le sortent comparable alors que plusieurs sources/rumeurs l'annonce entre 1,25x et 1,5x une 5870, donc à voir...
  • La consommation déraisonnable c'est bon, euh, une 5970 c'est pareil et on ne la traite pas de déraisonnable (sans compté le passif des 3870/4870 X2 qui étaient guère mieux), ou même d'autres NVIDIA, en plus c'est leur crédo depuis la TNT2 Ultra de tirer le max du max niveau conso, donc je pense que c'est pas une surprise non plus... :D
  • Estimer le prix c'est fort sachant que NVIDIA a dit vouloir faire un gros effort dessus et qu'un modèle bi-GPU est prévu. Et là clairement une carte a $800-900, bi-GPU ou pas, ça se vends pas. Donc y'a sans doute confusion avec le prix de la bi-GPU.  




 
Certes, cependant je partage bien l'avis de PCWorld .

  • La biGPU consommera plus que la monoGPU, TDP identique ou pas, ou sinon les fréquences seront si basses que le gain apporté par le biGPU sera difficile à perçevoir .
  • La HD5870 a le double d'ALU que la HD4870, et la "GTX380" aura 448SP, c'est à dire moins du double de la GTX280 . On est donc en droit de les comparer au niveau perf, puisque si d'une génération à l'autre ATi a doublé la puissance théorique, ce n'est pas le cas chez nVidia . Résultat, il se pourrait bien que la HD5870 et la "GTX380" aient des perfs très proches .
  • La HD5970 est une biGPU !! Voilà pourquoi son TDP, quoique élevé, n'est et ne sera pas autant critiqué que la "GTX380" car celle-là est monoGPU . Une consommation potentiellement raisonnable et acceptable pour nVidia serait aux environs de 200W au maximum, ce qui ne paraît pas vraiment être le cas .
  • Je n'ai jamais vu nVidia tenir de tels propos . nVidia et des prix raisonnables, c'est comme le jour et la nuit en quelque sorte, surtout pour le HDG . Je pense que les prix pourraient être de 599$ pour la "GTX380", puis un abaissement à 499$ avec l'arrivée de la biGPU à 699$ .
  • J'ajouterai aussi que l'on est en droit d'attendre un produit irréprochable, au vu du retard pris par nVidia . Que TSMC en soit responsable, c'est une chose, mais que nVidia n'ait pas profité du temps imparti supplémentaire que ce retard engendrait, c'est inacceptable .

n°7285602
Gigathlon
Quad-neurones natif
Posté le 13-01-2010 à 11:47:29  profilanswer
 

Zack38 a écrit :

  • La HD5970 est une biGPU !! Voilà pourquoi son TDP, quoique élevé, n'est et ne sera pas autant critiqué que la "GTX380" car celle-là est monoGPU . Une consommation potentiellement raisonnable et acceptable pour nVidia serait aux environs de 200W au maximum, ce qui ne paraît pas vraiment être le cas .



Bi-GPU ou pas, ce qui importe c'est les perfs.
 
Si ils ont trouvé des technologies extra-terrestres et parviennent au même niveau de perfs que la 5970, le TDP on se cogne royalement qu'il soit à 300w, mais si ça n'est pas le cas et que les perfs sont similaires à celles d'une 5870, c'est une autre histoire.

n°7285605
MEI
|DarthPingoo(tm)|
Posté le 13-01-2010 à 11:48:26  profilanswer
 

C'est plutôt 512 SP vs 240 SP donc le postulat est un peu faux. Et vu la fréquence d'une GTX 280, @ 1700MHz pour les SP (fréquence annoncé comme ciblé au GPU Tech), ca fait même de mémoire plutôt vers les 2,4x de puissance supplémentaire. ;)
 
A voir aussi que chez NVIDIA l'augmentation de BP sera aussi sans doute plus grande que chez ATI, même si niveau fillrate là ça sera limité.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7285611
MEI
|DarthPingoo(tm)|
Posté le 13-01-2010 à 11:52:33  profilanswer
 

Zack38 a écrit :


  • J'ajouterai aussi que l'on est en droit d'attendre un produit irréprochable, au vu du retard pris par nVidia . Que TSMC en soit responsable, c'est une chose, mais que nVidia n'ait pas profité du temps imparti supplémentaire que ce retard engendrait, c'est inacceptable .


Tu veux qu'ils fassent quoi ? Déjà c'est pas 3 mois de plus qui font des miracles... Surtout qu'ils ont du être occupés à améliorer le design pour obtenir des yields plus correct malgré un process sans doute moins bon qu'estimé.
 
Mais surtout, qu'auraient-il pu faire ? C'est trop tard maintenant pour changé fondamentalement la puce... Et au vu des samples du CES, on a quand même l'impression que niveau PCB/cooling c'est pas non plus fait à l'arrache, ça a l'air propre et soigné.
 
A côté de ça on ne peux pas encore le savoir, mais il se peux que les pilotes soient plus mur qu'à l'habitude. :spamafote:
 
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  927  928  929  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR