Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1275 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  921  922  923  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°7260532
Gigathlon
Quad-neurones natif
Posté le 26-12-2009 à 12:55:04  profilanswer
 

Reprise du message précédent :

MEI a écrit :


Plus on augmentent en resolution plus l'AA est utile. Si on a dit que l'AA8X etait utile en 1600x1200, je vois pas pourquoi l'AA16X ne serait pas utile en 2560&+. ;)
 
De plus c'est sans doute le CFAA qui passe en 32X ;)


Le CSAA... et quand on sait que le CSAA 16x est à mi-chemin entre le 4x et le 8x c'est pas forcément une meilleure idée.
 
L'AA 4x réduit déjà pas mal l'aliasing, avec un AA 8x c'est très difficilement perceptible, au-delà, on est obligé de taper dans de l'AA custom pour virer un aliasing d'une autre nature.

Message cité 1 fois
Message édité par Gigathlon le 26-12-2009 à 12:57:57
mood
Publicité
Posté le 26-12-2009 à 12:55:04  profilanswer
 

n°7261285
MEI
|DarthPingoo(tm)|
Posté le 26-12-2009 à 22:55:33  profilanswer
 

Gigathlon a écrit :


Le CSAA... et quand on sait que le CSAA 16x est à mi-chemin entre le 4x et le 8x c'est pas forcément une meilleure idée.
 
L'AA 4x réduit déjà pas mal l'aliasing, avec un AA 8x c'est très difficilement perceptible, au-delà, on est obligé de taper dans de l'AA custom pour virer un aliasing d'une autre nature.


Le CFAA se cumule au MSAA, donc le CFAA 16X est pas entre le MSAA4X et le MSAA8X, d'autant plus que le cas typique d'utilisation c'est avec le MSAA8X...  :sarcastic:  


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7261652
Gigathlon
Quad-neurones natif
Posté le 27-12-2009 à 11:49:40  profilanswer
 

MEI a écrit :


Le CFAA se cumule au MSAA, donc le CFAA 16X est pas entre le MSAA4X et le MSAA8X, d'autant plus que le cas typique d'utilisation c'est avec le MSAA8X...  :sarcastic:  


Le CSAA 16x c'est un MSAA 4x à la base hein, ils ajoutent des données de couverture mais c'est pas magique...
 
http://www.hardware.fr/articles/64 [...] 0-gts.html
 
Ose pas me dire que le CSAA 16x est meilleur qu'un MSAA 8x qui fonctionne correctement.

n°7261677
blazkowicz
Posté le 27-12-2009 à 12:03:17  profilanswer
 

j'espère surtout qu'ils ont ajouté le support du RGSS, idéalement qu'on peut mixer du RGSS avec du RGMS comme on veut (2x et 2x, 4x et 2x, 4x et 4x etc.)

n°7262868
cbo
Posté le 28-12-2009 à 08:44:38  profilanswer
 

Le problème c'est qu'avant tout une carte c'est fait pour jouer
 
Moi je ne passe pas des heures à essayer tous les AAs possibles et imaginables pour savoir lequel est le mieux, entre les réglages du jeux et ceux des drivers.
 
J'espère que l'on en sera plus la semaine prochaine
 

n°7262938
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 28-12-2009 à 10:59:57  profilanswer
 

Bon... Vous voulez pas réouvrir le topic Fermi ? :sweat:  
 

Citation :

Donanimhaber.com published a new video interview with Luciano Alibrandi form Nvidia.
 
Some highlights from video;
 
Alibrandi said;
 
- Fermi based GPUs will be fastest solutions in the market.
- We are very happy to see internal test results of Fermi.
- Fermi architecture developing for every single segment, dual GPU is also possible for Nvidia.
- We are very happy to work with TSMC but also we are always looking for another oppurtinies.
- ION 2 and Tegra 2 are very near to launch.


La vidéo ==> http://www.donanimhaber.com/Nvidia [...] -17219.htm
 
Nvidia Is Happy With Performance of GeForce GF100 “Fermi” Graphics Card.

Citation :

Nvidia Corp. first demonstrated its code-named GF100 (NV60, G300, GT300, etc) graphics processing units (GPU) based on Fermi architecture over three months ago. Since the product is still not released, it is not a surprise that there are loads of speculations about performance of the next-generation GeForce. According to a representative at Nvidia, the company is happy about performance of the novelty.
 
“We expect [Fermi] to be the fastest GPU in every single segment. The performance numbers that we have [obtained] internally just [confirms] that. So, we are happy about this and are just finalizing everything on the driver side,” said Luciano Alibrandi, the head of Nvidia public relations department in EMEAI region, in an interview with DonanimHaber web-site.  
 
It was untraditional for Nvidia to demonstrate capabilities of its forthcoming graphics card months ahead of actual release. It is generally believed that Nvidia showed off its Fermi product in late September in an attempt to slowdown sales of its arch-rival ATI’s DirectX 11 graphics processors. The company yet has to show performance numbers of its next-gen graphics products. However, according to Mr. Alibrandi, the company is not only working hard on the new chip itself, but is also developing “perfect” drivers in an attempt to provide ultimate experience for the end-user.
 
“We just want to make sure it is as perfect as we want it to be in both graphics and computing [performance and quality],” said Mr. Alibrandi.
 
To date, Nvidia has demonstrated its next-generation GeForce GF100 graphics card rendering a DirectX 11 benchmark and working in multi-GPU SLI mode.
 
The chief of Nvidia’s public relations department in EMEAI did not reveal when exactly Nvidia plans to launch its GF100 GPU for consumers. The only official comment on the matter was made by the company’s chief executive Jen-Hsun Huang, who said that production of the GF100 would be ramped only in Q1 FY2011. Nvidia’s first quarter of fiscal year 2011 begins on the 26th of January and ends on the 26th of April, 2010.
 
The flagship Fermi graphics processor will feature 512 stream processing engines (which are organized as 16 streaming multi-processors with 32 cores in each) that support a type of multi-threading technology to maximize utilization of cores. Each stream processor has a fully pipelined integer arithmetic logic unit (ALU) and floating point unit (FPU). The top-of-the-range chip contains 3 billion of transistors, features 384-bit memory GDDR5 memory controller with ECC and features rather unprecedented 768KB unified level-two cache as well as rather complex cache hierarchy in general. Naturally, the Fermi family is compatible with DirectX 11, OpenGL 3.x and OpenCL 1.x application programming interfaces (APIs). The new chips will be made using 40nm process technology at TSMC.

Source : http://www.xbitlabs.com/news/video [...] _Card.html


Message édité par super_newbie_pro le 28-12-2009 à 11:00:19

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7263047
cbo
Posté le 28-12-2009 à 12:24:19  profilanswer
 
n°7263084
Gigathlon
Quad-neurones natif
Posté le 28-12-2009 à 12:52:09  profilanswer
 


Ils se contentent de répéter ce qu'on a eu comme infos officieuses jusque là en même temps :o
 
Par contre la gamme qu'ils annoncent est assez bordélique...
 
- GF100 en enthusiast
- GF104 en high end (remplacement des GTX260/275/285/295?!? L'est pas un pwal gros l'écart là? :heink: )
- G92 en performance
- GT21x en value/mainstream
 
Ca ne rime à rien, car outre la présence de GPU DX10.1 en entrée de gamme et DX10 en performance (pour un niveau de perfs inférieur à ce que peut proposer AMD avec les HD5700), le segment High End pourrait tout juste lutter avec une HD5850 dans sa meilleure déclinaison (256 SP/256bits), et c'est déjà peu probable (le 4 indiquant un GPU... mainstream, comme le G84 qui était 1/4 de G80).
 
Bref, c'est le dawa et la logique nous oriente plus vers la suppression de tous les GPU DX10 actuels avec au second trimestre l'apparition d'un GPU mainstream (128SP) et non high end.
 
Gamme attendue pour ma part :
 
- GF100 en high end (GTX360 avec 448SP et GTX380 avec 512SP ou 384/448SP)
- GF104 en performance/mainstream (GTS340 avec 96SP et GTS350 avec 128SP)
- GT21x en value (G310 à base de GT218, G315 à base de GT216, GT330 et GT335 à base de GT215 GDDR3/GDDR5)
 
Puis au 3e ou 4e trimestre mise à jour avec un GF102 ou 112 (GTS355 & 360?) mais maintien des GT21x qui ne disparaîtront que pour 2011 avec l'arrivée du 28nm. Note que déjà avec cette gamme ça fait 8 références allant d'une puissance ridiculement faible à une puissance conséquente.


Message édité par Gigathlon le 28-12-2009 à 12:53:45
n°7263137
cbo
Posté le 28-12-2009 à 13:29:53  profilanswer
 

Moi littéralement je comprend plutôt
 
Je comprend plutôt GF100 Fermi A3 448 SP en mars
 
GF104 Fermi  A4 512 SP au deuxième trimestre
 
 

n°7263159
mikestewar​t
Air Roll Spinnin'
Posté le 28-12-2009 à 13:41:15  profilanswer
 

En principe, un GF104 devrait être une déclinaison moins haut de gamme du GF100. (bon après, entre la GTX260 et la GTX295, effectivement...peut-être serait-ce l'équivalent d'un GT200 en 40nm avec DX11 en supplément ? :??: ) Et puis, le GF100, qu'il soit en rev. A4 avec tous ses clusters activés ou pas, ça reste un GF100. ;)

Message cité 1 fois
Message édité par mikestewart le 28-12-2009 à 13:44:51
mood
Publicité
Posté le 28-12-2009 à 13:41:15  profilanswer
 

n°7263270
Gigathlon
Quad-neurones natif
Posté le 28-12-2009 à 14:43:58  profilanswer
 

mikestewart a écrit :

En principe, un GF104 devrait être une déclinaison moins haut de gamme du GF100. (bon après, entre la GTX260 et la GTX295, effectivement...peut-être serait-ce l'équivalent d'un GT200 en 40nm avec DX11 en supplément ? :??: )


Comme je l'ai dit (256SP/256bits), ça impliquerait d'avoir le bon vieux G92 DX10 intercalé entre du value moisi supportant DX10.1 et du high end supportant DX11, ce qui est complètement anormal.
 
Par contre, un Fermi castré de 4 clusters sur une GTX360 et 2 sur une GTX380, c'est pas totalement inconcevable si ils ont du mal à obtenir un rendement acceptable, ça leur permettrait au passage de faire évoluer au cours de l'année vers 448/512SP pour des GTX365 et GTX385.


Message édité par Gigathlon le 28-12-2009 à 14:44:46
n°7263349
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 28-12-2009 à 15:43:18  profilanswer
 

Fermi semble désormais en bonne voie pour une arrivée courant mars 2010...
 

Citation :

Luciano Alibrandi, le responsable des relations presse Europe de NVIDIA, vient de déclarer à nos confrères de DonanimHaber que la firme au caméléon était heureuse des performances de sa GeForce GF100, basée sur l'architecture Fermi. NVIDIA finalise désormais les pilotes de la carte, de manière à ce que tout soit parfait pour le lancement.
 
 
À ce sujet, plusieurs informations inédites donnent des précisions sur la date précise d'arrivée des nouvelles GeForce. Jen-Hsun Huang, le président de NVIDIA, aurait mentionné que la production en masse débuterait dans le courant du premier trimestre fiscal 2011 de sa société, soit entre le 26 janvier et le 26 avril 2010. Nos confrères de DigiTimes indiquent quant à eux que le lancement aurait été annoncé aux fabricants de cartes graphiques taiwanais comme étant prévu courant mars, peut-être au moment du CeBIT ? Le GF100 aurait été retardé du fait d'un certain nombre de défauts imprévisibles, qu'il a fallu corriger à l'aide de plusieurs révisions. Une nouvelle puce, connue pour le moment sous le nom de code GF104, serait prévue pour le second trimestre 2010, et viserait à remplacer les actuelles GeForce GTX295/285/275/260.
 
 
Malgré l'amélioration du taux de rendement des galettes de silicium gravées en 40 nm chez TSMC, ce lancement pourrait être compromis par l'incapacité du fondeur taiwanais à fournir assez de puces à la fois pour AMD et pour NVIDIA... Quoi qu'il en soit, les ATI Radeon HD 5000 devraient régner quelques mois de plus sur le marché des cartes graphiques !

source : http://www.pcworld.fr/2009/12/28/m [...] it/466441/


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7263428
tridam
Profil : Equipe HardWare.fr
Posté le 28-12-2009 à 16:49:01  profilanswer
 

Faut pas chercher trop d'informations dans ce genre de déclaration dont le but est de rassurer tout en ne disant rien du tout de neuf.  
 
Après c'est interprété par qqn puis qqn d'autre reprend et réinterprète ce qu'un autre avait déjà interprété... Bref du blabla qui ne sert strictement à rien ;)

n°7263481
cbo
Posté le 28-12-2009 à 17:20:43  profilanswer
 

Et les vrais info c'est vraiment pour la semaine prochaine ?( euh dans quinze jours)

Message cité 1 fois
Message édité par cbo le 28-12-2009 à 17:24:25
n°7263716
Gigathlon
Quad-neurones natif
Posté le 28-12-2009 à 20:11:07  profilanswer
 

cbo a écrit :

Et les vrais info c'est vraiment pour la semaine prochaine ?( euh dans quinze jours)


Au mieux, oui... en pratique, j'en doute :o

n°7263910
tridam
Profil : Equipe HardWare.fr
Posté le 28-12-2009 à 22:36:21  profilanswer
 

Les vraies infos ce ne sera pas au CES.

n°7264228
Gigathlon
Quad-neurones natif
Posté le 29-12-2009 à 07:41:38  profilanswer
 

J'espère qu'ils balanceront quand même quelques nonos, ça commence à faire un pwal long...

n°7264244
It_Connexi​on
Posté le 29-12-2009 à 08:40:42  profilanswer
 

Rien de nouveau pour le moment :  
 
Cela se confirme donc, la petite Fermi de Nvidia ne sortira pas avant Mars. Nous nous en doutions, car de nombreuses news à ce sujet on déjà été rédigées par la team, et toutes indiquaient une date de sortie de plus en plus lointaine. Cette nouvelle information fait suite à l'interview de Luciano Alibrandi, le responsable presse Europe de Nvidia, qui a été interviewé par DominHarber.
 
De plus, Jen-Hsun Huang, président de NV, a lui aussi confirmé que la production de la carte sera lancé entre fin Janvier et Avril 2010. La carte ne sera donc pas présenté au CES comme nous le pensions, mais surement plus tard, lors du CeBIT.
 
Enfin, il faut espérer que TSMC puisse assumé la production d'une nouvelle collection de puces en 40 nm... Bref, Fermi, c'est pas gagné...

 
Source : http://www.cowcotland.com/news/181 [...] -mars.html


Message édité par It_Connexion le 29-12-2009 à 08:41:17
n°7264405
asmomo
Modérateur
Posté le 29-12-2009 à 11:20:37  profilanswer
 

:hello:
 
Moi je suis pas contre rouvrir le topic, maintenant qu'il est clair que le Fermi ne sera pas une révolution pour les joueurs, les fanboys devraient être un peu calmés. Mais je suis en vacances et je me connecte peu, donc c'est pas moi qui vais prendre le risque ^^
 
En tout cas je vois rien dans les déclarations du nvidia gars d'intéressant, oui oui on est les meilleurs, bi-Fermi pas de problème (en 2011), on est heureux Tegra 2 sort (et Tegra 1 ?), etc.
 
Ensuite pour le GF104 le seul soucis c'est que personne n'a entendu parler de son tape-out, donc bon il est pas près de voir le jour. Certains songent à un demi-Fermi en attendant un nouveau die, charlie de S|A en doute car selon lui la carte reviendrait trop cher (enfin c'est ce qu'il disait sur son forum il y a quelques jours, j'y suis pas retourné depuis).


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7264439
Dark Schne​iderr
⭐⭐
Posté le 29-12-2009 à 11:37:54  profilanswer
 

+1 avec asmomo
 
Pour le moment, on n'apprend pas grand chose d'intéressant.

n°7264795
dll_75
Posté le 29-12-2009 à 15:18:24  profilanswer
 

asmomo a écrit :

:hello:
 
Moi je suis pas contre rouvrir le topic, maintenant qu'il est clair que le Fermi ne sera pas une révolution pour les joueurs, les fanboys devraient être un peu calmés. Mais je suis en vacances et je me connecte peu, donc c'est pas moi qui vais prendre le risque ^^
...


 
 
Ca se comprend....
 
Avec un Gigathlon dénué d'objectivité, chaud comme la braise et pret à défoncer du camélon au moindre frémissement (voir ses derniers posts :o ), le topic va partir en sucette en moins de 2.
Sans même parler d'un Wirmish...
 
Donc finalement, 2 mecs font un peu leur loi sur le forum, c'est juste inadmissible...
que font les modos?

Message cité 2 fois
Message édité par dll_75 le 29-12-2009 à 15:19:11
n°7264805
o_BlastaaM​oof_o
Posté le 29-12-2009 à 15:22:52  profilanswer
 

dll_75 a écrit :


 
 
Ca se comprend....
 
Avec un Gigathlon dénué d'objectivité, chaud comme la braise et pret à défoncer du camélon au moindre frémissement (voir ses derniers posts :o ), le topic va partir en sucette en moins de 2.
Sans même parler d'un Wirmish...
 
Donc finalement, 2 mecs font un peu leur loi sur le forum, c'est juste inadmissible...
que font les modos?


[:prozac]

n°7265008
MEI
|DarthPingoo(tm)|
Posté le 29-12-2009 à 17:29:52  profilanswer
 

asmomo a écrit :

:hello:
 
Moi je suis pas contre rouvrir le topic, maintenant qu'il est clair que le Fermi ne sera pas une révolution pour les joueurs, les fanboys devraient être un peu calmés. Mais je suis en vacances et je me connecte peu, donc c'est pas moi qui vais prendre le risque ^^
 
En tout cas je vois rien dans les déclarations du nvidia gars d'intéressant, oui oui on est les meilleurs, bi-Fermi pas de problème (en 2011), on est heureux Tegra 2 sort (et Tegra 1 ?), etc.
 
Ensuite pour le GF104 le seul soucis c'est que personne n'a entendu parler de son tape-out, donc bon il est pas près de voir le jour. Certains songent à un demi-Fermi en attendant un nouveau die, charlie de S|A en doute car selon lui la carte reviendrait trop cher (enfin c'est ce qu'il disait sur son forum il y a quelques jours, j'y suis pas retourné depuis).


Rien ne prouve le contraire... on est toujours autant dans le flou quand on performance pratique finale en jeu... Bref...  :whistle:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7265270
Gigathlon
Quad-neurones natif
Posté le 29-12-2009 à 20:18:18  profilanswer
 

dll_75 a écrit :

Avec un Gigathlon dénué d'objectivité, chaud comme la braise et pret à défoncer du camélon au moindre frémissement (voir ses derniers posts :o ), le topic va partir en sucette en moins de 2.


Sans aller jusqu'à dire que je suis d'une objectivité parfaite, on ne peut objectivement que craindre le pire rien que par les déclarations/annonces publiques de la firme et les procédés employés pour faire parler de leur futur produit... après on verra le moment venu ce qu'il en est.
 
Le fait est qu'à cette heure ils ne sont toujours pas capables de fournir les fréquences de fonctionnement (tout juste une fourchette relativement large) et ne parlons pas de benchs...

n°7265461
blazkowicz
Posté le 29-12-2009 à 22:11:58  profilanswer
 

tout le monde leur tomberait dessus s'ils s'y aventuraient. je suis pas choqué.
 
ce qui va prendre du temps surtout, c'est une carte mainstream. un modèle 128SP, 128bits, 16 ROP et 1Go de gddr5, dual slot ou passive, ça me suffirait.  (et mon alim 350W continue d'être surdimensionnée)

n°7265467
MEI
|DarthPingoo(tm)|
Posté le 29-12-2009 à 22:19:52  profilanswer
 

blazkowicz a écrit :

tout le monde leur tomberait dessus s'ils s'y aventuraient. je suis pas choqué.
 
ce qui va prendre du temps surtout, c'est une carte mainstream. un modèle 128SP, 128bits, 16 ROP et 1Go de gddr5, dual slot ou passive, ça me suffirait.  (et mon alim 350W continue d'être surdimensionnée)


Il feront pas mieux que la GT240 en passif... Déjà en 40nm c'est limite pour les 75W... Donc franchement on peut craindre le pire. Pourrai y avoir plus de ROP/TMU dans le même TDP dans doute mais bon...
Et clairement une carte passive avec prise PCIe aux c'est du faux passif vu que faux ventilé le boitier plus que de raison.
 
Le salut pour du DX11 serait peut etre les 5670 mais même pas sur que niveau perfs se soit meilleur.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7265554
asmomo
Modérateur
Posté le 29-12-2009 à 23:26:35  profilanswer
 

MEI a écrit :

Rien ne prouve le contraire... on est toujours autant dans le flou quand on performance pratique finale en jeu... Bref...  :whistle:


 
Les performances seront dans les eaux d'une 5870 dans tous les cas, même 25% de mieux ce serait pas révolutionnaire, surtout 6 mois après, et 4 mois après la 5970.
 
Quant au rapport performance/prix, ou encore le rapport performance/W, on peut craindre le pire.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7265582
MEI
|DarthPingoo(tm)|
Posté le 29-12-2009 à 23:48:54  profilanswer
 

asmomo a écrit :


 
Les performances seront dans les eaux d'une 5870 dans tous les cas, même 25% de mieux ce serait pas révolutionnaire, surtout 6 mois après, et 4 mois après la 5970.
 
Quant au rapport performance/prix, ou encore le rapport performance/W, on peut craindre le pire.


Sauf que 25% de mieux, ATI peut pas le faire en claquant des doigts sans que le prix et/ou la conso explose, même d'ici 3 mois... :spamafote:
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7265624
Yoyo_5
Posté le 30-12-2009 à 00:16:11  profilanswer
 

MEI a écrit :

Sauf que 25% de mieux, ATI peut pas le faire en claquant des doigts sans que le prix et/ou la conso explose, même d'ici 3 mois... :spamafote:


On le fait déjà en OCant la CG... [:afrojojo]


---------------
¤ Paix et félicité ¤

n°7265644
MEI
|DarthPingoo(tm)|
Posté le 30-12-2009 à 00:25:53  profilanswer
 

Yoyo_5 a écrit :


On le fait déjà en OCant la CG... [:afrojojo]


Si on pouvais compter l'o/c comme acquis, Intel aurai pu sortir des C2Q @ 4GHz sans soucis au lieu de se limiter a 3,2GHz... Mais c'est p'tet aussi parce que y'a un moment ou commercialement on peut pas sortir des truc qui consomme/dissipe beaucoup et qui sont très/trop dur a valider.
 
ATI a choisi une fréquence et un Vcore qui sont quand même déjà borderline par rapport au refroidissement et ce que peut faire TSMC. Sans révision conséquente du GPU et amélioration drastique de TSMC, on peut difficilement envisager un gain de 25% de performances. Même des marque "folles" comme Sapphire ou XFX on pas de modèle o/c plus que de 10% sur le GPU... Pourtant ça les a jamais empêchés sur les RV770/RV790.
 
Et pour la RAM vidéo, clairement rien que de passé a de la RAM @ 6GHz au lieu de 5GHz ça impacterais pas mal la dispo et le prix.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7265707
moggbomber
War, war never changes
Posté le 30-12-2009 à 05:11:51  profilanswer
 

oui et si ils sont 2 fois moins cher pour 25% de perf en moins ca fera comme la 4870, ca se vendra comme des petits pains parce tout le monde n'a pas un 30 pouces et que bon un carte a 500-600€ c'est quand meme trop cher au final pour une utilisation réelle en jeux


---------------
Neuroatypique PEUQ GMSP GQGWL UZI
n°7265726
hyksos_sow​o
Posté le 30-12-2009 à 08:19:59  profilanswer
 

NVidia l'on dit... on va rester surpris du prix... tant qu'a moi ça ne peux indiquer qu'une chose, la carte défoncera pas tout ce qui existe, sinon NVidia les vendraient à prix d'or, donc NVidia seront obligé de mettre un prix entre la 5870 et la 5970.

n°7265776
MEI
|DarthPingoo(tm)|
Posté le 30-12-2009 à 10:17:31  profilanswer
 

moggbomber a écrit :

oui et si ils sont 2 fois moins cher pour 25% de perf en moins ca fera comme la 4870, ca se vendra comme des petits pains parce tout le monde n'a pas un 30 pouces et que bon un carte a 500-600€ c'est quand meme trop cher au final pour une utilisation réelle en jeux


2x plus cher c'est peu probable vu le MSRP actuel de la 5870 et le fait que NVIDIA n'a que rarement sortie des carte a plus de 600€... (et encore c'était dans un contexte ou ATI faisait +/- pareil).
 
Franchement faut plus tabler sur du 500€ max., sinon ça ne se vendra jamais, d'autant plus que la gamme serait alors un vrai gruyere avec rien entre 200€ et la Fermi. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7265790
dll_75
Posté le 30-12-2009 à 10:25:53  profilanswer
 

MEI a écrit :


Franchement faut plus tabler sur du 500€ max., sinon ça ne se vendra jamais, d'autant plus que la gamme serait alors un vrai gruyere avec rien entre 200€ et la Fermi. ;)


 
pas vrm d'accord.
 
les G92b/GT200b dans la tranche 50€->250€
la GTX 360 dans les 320-390€
la GTX 380 dans les 450-500€
 
y'a pas de gruyere ;)

n°7265801
o_BlastaaM​oof_o
Posté le 30-12-2009 à 10:35:14  profilanswer
 

MEI a écrit :


2x plus cher c'est peu probable vu le MSRP actuel de la 5870 et le fait que NVIDIA n'a que rarement sortie des carte a plus de 600€... (et encore c'était dans un contexte ou ATI faisait +/- pareil).
 
Franchement faut plus tabler sur du 500€ max., sinon ça ne se vendra jamais, d'autant plus que la gamme serait alors un vrai gruyere avec rien entre 200€ et la Fermi. ;)


T'es en plein rêve avec tes 500 €.

n°7265807
Gigathlon
Quad-neurones natif
Posté le 30-12-2009 à 10:39:39  profilanswer
 

MEI a écrit :

ATI a choisi une fréquence et un Vcore qui sont quand même déjà borderline par rapport au refroidissement et ce que peut faire TSMC


T'es sûr qu'on parle du même GPU là? Une 5870 ça ne chauffe pas et niveau bruit c'est sans commune mesure avec ce qu'on a pu avoir chez ATI par le passé hein... :heink:  
 
Dans le cas le plus extrême, elle consomme moins qu'une 4870 qui ne se met pas en protection.

Message cité 1 fois
Message édité par Gigathlon le 30-12-2009 à 10:40:29
n°7265812
MEI
|DarthPingoo(tm)|
Posté le 30-12-2009 à 10:44:08  profilanswer
 

Gigathlon a écrit :


T'es sûr qu'on parle du même GPU là? Une 5870 ça ne chauffe pas et niveau bruit c'est sans commune mesure avec ce qu'on a pu avoir chez ATI par le passé hein... :heink:  
 
Dans le cas le plus extrême, elle consomme moins qu'une 4870 qui ne se met pas en protection.


Avec un cooling aussi bruyant en charge actuellement, si ATI augmentait le Vcore ca serait le drame. Suffit de voir deja la différence entre une 5850 et une 5870 pour imaginer ce que donnerait une 5870 a +25% de freq. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7265815
o_BlastaaM​oof_o
Posté le 30-12-2009 à 10:46:14  profilanswer
 

MEI a écrit :


Avec un cooling aussi bruyant en charge actuellement, si ATI augmentait le Vcore ca serait le drame. Suffit de voir deja la différence entre une 5850 et une 5870 pour imaginer ce que donnerait une 5870 a +25% de freq. ;)


On te parle de consommation, tu réponds sur le système de refroidissement. Bel exemple de défense Chewbacca [:implosion du tibia]

n°7265818
MEI
|DarthPingoo(tm)|
Posté le 30-12-2009 à 10:48:33  profilanswer
 

o_BlastaaMoof_o a écrit :


T'es en plein rêve avec tes 500 €.


Suffit de voir le prix d'introduction des GTX280/285 pour ne pas se croire trop en plein rêve vu que NVIDIA dit vouloir faire le max pour limiter le prix.
 
A 549€ a l'époque, franchement quand je dit 500€ c'est vraiment une limite énorme en prenant en compte le fait que TSMC ai eu du mal et le retard. Car je pense qu'en pratique faudrait plus s'attendre a un MSRP de 450€ pour une version 1,5Go.
C'est du moins ce qui semble le plus logique par rapport au discours de NVIDIA et au marché actuel. Sachant que le but de NVIDIA c'est pas non plus d'à moitié coulé à cause du premier retard venu.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7265819
MEI
|DarthPingoo(tm)|
Posté le 30-12-2009 à 10:49:02  profilanswer
 

o_BlastaaMoof_o a écrit :


On te parle de consommation, tu réponds sur le système de refroidissement. Bel exemple de défense Chewbacca [:implosion du tibia]


Au depart je parlait du refroidissement d'un côté.  :whistle:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7265821
o_BlastaaM​oof_o
Posté le 30-12-2009 à 10:50:21  profilanswer
 

MEI a écrit :


Suffit de voir le prix d'introduction des GTX280/285 pour ne pas se croire trop en plein rêve vu que NVIDIA dit vouloir faire le max pour limiter le prix.
 
A 549€ a l'époque, franchement quand je dit 500€ c'est vraiment une limite énorme en prenant en compte le fait que TSMC ai eu du mal et le retard. Car je pense qu'en pratique faudrait plus s'attendre a un MSRP de 450€ pour une version 1,5Go.
C'est du moins ce qui semble le plus logique par rapport au discours de NVIDIA et au marché actuel. Sachant que le but de NVIDIA c'est pas non plus d'à moitié coulé à cause du premier retard venu.


Avec le GT200, le contexte était complètement différent.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  921  922  923  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR