Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1239 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  29  30  31  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7141991
asmomo
Modérateur
Posté le 01-10-2009 à 02:58:10  profilanswer
 

Reprise du message précédent :
ça vient d'un article légèrement trollesque de mai 2009...
 
http://www.theinquirer.net/inquire [...] chitecture


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
mood
Publicité
Posté le 01-10-2009 à 02:58:10  profilanswer
 

n°7141995
Rafale06
Vive les Suisses (Neutre..)
Posté le 01-10-2009 à 03:07:06  profilanswer
 

Bon aprés avoir bien lus tous les messages ^^
 
Une chose en ressort, Nvidia na parlé que de la version pro du produit, qui contrairement aux anciennes carte 3Dpro de la marque....ne se différencaient qu'au niveau des drivers optimisés pour les logiciels pros (3dsmaxx, maya etc........)
 
Donc apparement ils ont déçidés de faire un Gpu version pro avec tout ce que cela implique (ram ECC) et des dérivés pour le marché grand public...
 
Bref oui il est hyper déçevant que la version grand public n'aie pas été présenté (ne serait-ce que furtivement  :cry: ) , pour ma part j'ai été vraiment déçu sur ce plan là.
 
Avec un peu de chance (le salon ferme le 2octobre) nous aurons peut-être d'autres infos sur la version GAMER ????  
 
 
Wait and see.............


Message édité par Rafale06 le 01-10-2009 à 03:09:14

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7141999
Jack_Power
Posté le 01-10-2009 à 03:20:17  profilanswer
 

http://www.clubic.com/actualite-30 [...] fermi.html
 
Interrogé sur la date de disponibilité des premières cartes graphiques « Fermi », Jen Hsun Huang a répondu qu'elles seraient lancées un mardi sans toutefois préciser lequel. Il se murmure toutefois que « Fermi » sera commercialisé au plus tôt à la fin de l'année sous un nom commercial qui n'est pas encore connu (GeForce GTX 380 ?). En terme d'architecture, le CEO de NVIDIA a tenu a rassuré les sceptiques en précisant que celle-ci était facilement déclinable, contrairement à la précédente génération GT200 : on devrait donc voir arriver dans le courant 2010 des versions milieu de gamme de « Fermi ».
 
 
http://www.pcinpact.com/actu/news/ [...] eforce.htm
 
Toutes les annonces - reviews en 1 seul lien .
Si la puce tient toute ses promesses dans l'ensemble ,les journalistes annoncent un gain de +50% comparé a une 5870 , tout cela est bien sur théorique en se basant sur les specs annoncé , a voir de visue avec les version final et commercial bien sur (pincette toussa!) .
Le Jen Hsun-Huang a en tout cas le mérite d'avoir crée un énorme buzz avec ses specs et son annonce , il n'y a cas voir les forums anglophone hardware , c'est la panique lol .

Message cité 1 fois
Message édité par Jack_Power le 01-10-2009 à 03:33:31

---------------
Retrouvez nous sur https://metaluna.forumactif.fr/ dorénavant avec notre forum sur l'actualité 4K Ultra HD et Blu-ray.
n°7142019
earth2172
Posté le 01-10-2009 à 05:23:35  profilanswer
 

Wirmish a écrit :

Citation :

"... many of the architectural features of Fermi are targeted specifically for Tesla markets. ... Yet Tesla accounted for less than 1.3% of NVIDIA's total revenue last quarter.
 
Given these numbers it looks like NVIDIA is building GPUs for a world that doesn't exist." - Anandtech



 

Gigathlon a écrit :

Quand bien même, ce bestiau doit être énorme, donc ils ne pourraient pas le vendre sous forme de GPU sans avoir derrière des rentrées par le marché GPU computing.


 
aussitot dit, aussi fait.. ca vient de tomber:
http://www.nvidia.com/object/pr_oakridge_093009.html

Citation :

SANTA CLARA, Calif. —Sep. 30, 2009—Oak Ridge National Laboratory (ORNL) announced plans today for a new supercomputer that will use NVIDIA®’s next generation CUDA™ GPU architecture, codenamed “Fermi”. Used to pursue research in areas such as energy and climate change, ORNL’s supercomputer is expected to be 10-times more powerful than today’s fastest supercomputer.
 
Jeff Nichols, ORNL associate lab director for Computing and Computational Sciences, joined NVIDIA co-founder and CEO Jen-Hsun Huang on stage during his keynote at NVIDIA’s GPU Technology Conference. He told the audience of 1,400 researchers and developers that “Fermi” would enable substantial scientific breakthroughs that would be impossible without the new technology.
 
“This would be the first co-processing architecture that Oak Ridge has deployed for open science, and we are extremely excited about the opportunities it creates to solve huge scientific challenges,” Nichols said. “With the help of NVIDIA technology, Oak Ridge proposes to create a computing platform that will deliver exascale computing within ten years.”
 
ORNL also announced it will be creating the Hybrid Multicore Consortium. The goals of this consortium are to work with the developers of major scientific codes to prepare those applications to run on the next generation of supercomputers built using GPUs.
 
“The first two generations of the CUDA GPU architecture enabled NVIDIA to make real in-roads into the scientific computing space, delivering dramatic performance increases across a broad spectrum of applications,” said Bill Dally, chief scientist at NVIDIA. “The ‘Fermi’ architecture is a true engine of science and with the support of national research facilities such as ORNL, the possibilities are endless.”


10 fois plus puissant que RoadRunner :ouch:

n°7142027
marllt2
Posté le 01-10-2009 à 06:50:49  profilanswer
 

http://www.anandtech.com/video/sho [...] i=3651&p=7

Citation :

I asked Jonah if that meant Fermi would take a while to move down to more mainstream pricepoints. Ujesh stepped in and said that he thought I'd be pleasantly surprised once NVIDIA is ready to announce Fermi configurations and price points. If you were NVIDIA, would you say anything else?


Hum, nV reprend le terme "pleasantly surprised" d'AMD.  
 
 

Gigathlon a écrit :

ça n'est pas un GPU et ça ne pourra que s'y substituer le jour où ça sera dispo, grâce à des vestiges destinés à assurer une certaine continuité.


 :??:
 

Jack_Power a écrit :

les journalistes annoncent un gain de +50% comparé a une 5870 , tout cela est bien sur théorique en se basant sur les specs annoncé , a voir de visue avec les version final et commercial bien sur (pincette toussa!) .


+50% basé sur quelles specs ?  Sur les 512 SP et le bus 384 bits ?


Message édité par marllt2 le 01-10-2009 à 07:35:12
n°7142040
MEI
|DarthPingoo(tm)|
Posté le 01-10-2009 à 08:00:16  profilanswer
 

Gigathlon a écrit :


Pour qui veut un GPU même, nVidia semble avoir abandonné le secteur avec ce GF100 et les seuls disponibles seront les GT218 (cte blague), GT216 et GT215 au mieux digne d'une 4770.
 
Avec des caches ECC et un bus 384bits + ECC, soit 432bits, je te raconte pas le gâchis de transistors pour un GPU, c'est tout simplement immonde.
 
Par contre, ces mesures correspondent parfaitement à une cible bien plus fortunée qui cherche des grosses calculatrices ultra-puissantes, plus que Cypress en tout cas car la fiabilité est le point crucial de ce marché, et là l'ECC est décisif.


C'est juste un peu le B.-A. BA les caches ECC... :o Sinon on sert a rien pour faire du GPGPU si le cache peut etre un maillon faible. Donc jusque là rien d'etonnant.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7142041
MEI
|DarthPingoo(tm)|
Posté le 01-10-2009 à 08:07:33  profilanswer
 

Gigathlon a écrit :


Il n'y aura que ça.
 
Le programme, c'est:
 
- comment nVidia va révolutionner le calcul parallèle
- idem + dans les films
- idem + ...
 
Mais pas "idem + dans les jeux vidéos".
 
L'architecture est très intéressante, mais ça n'est clairement pas un GPU, c'est un co-processeur massivement parallèle.
 
Un architecte en pleine possession de ses moyens n'aurait en aucun cas l'idée de foutre de l'ECC dans un GPU, c'est devenu une utilisation secondaire.


 
Mais on s'en fou que ce soit un "GPU" ou un "cGPU" ou comme Larrabee une sorte de CPU multicore... Tant que ça fait tourner DX11 et que y'a un port HDMI, ca reste une carte graphique... :o
 
Parfois c'est pathétique les réactions... :'( NVIDIA continue simplement ce qu'on voyait venir depuis le G80... :spamafote:. Déjà le GT200 etait très teinté GPGPU dans ces changements, là c'est carrement le GPGPU qu'il embrasse, mais ça ne veut surtout pas dire qu'l va etre mauvais en jeu. Alors avec le meme cout on aurai pu faire mieux, mais il reste officiellement plus perf qu'une 5870, la flexibilité en plus à priori. Ce qui avec les efforts fait pour CUDA ça pourrai payer même pour l'utilisateur lambda...
 
Après NVIDIA n'est pas fou, et je pense qu'ils veulent pas abandonné les gamers comme ça. Donc si y'a qu'une archi qui existe, c'est qu'elle reste bonne pour le jeu. Après p'tet que dans le futur y'aura GT400 pour le jeu et GF200 pour le GPGPU, pourquoi pas après tout, NVIDIA est sans doute capable d'assumer le design de plusieurs puces en //. D'autant plus qu'une puce type GPGPU ne conviendra pas a un de leur grand marché, les portables...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7142058
Blue Apple
Posté le 01-10-2009 à 08:52:14  profilanswer
 

Citation :

Given these numbers it looks like NVIDIA is building GPUs for a world that doesn't exist." - Anandtech


 
+1
 
Le secteur des superordinateurs rapporte que dalle, il a eu la peau des Cray, Silicon Graphics, NEC (série Earth Simulator)...  
 
Les seuls qui tirent leur épingle du jeux, ce sont ceux qui utilisent des processurs développés (et payés) par d'autres marchs: processurs x86, BlueGene/Cell (merci Sony), IA64...
 
Il est clair que les GPU arriveront bientôt sur ce marché mais si nVidia fait plus que les modifs les plus basiques (genre ECC sur la mémoire et un poil d'effort sur le scheduling), ils vont se faire bouffer tout cru: la puissance brute a toujours fini par l'emporter sur le long terme.

n°7142064
MEI
|DarthPingoo(tm)|
Posté le 01-10-2009 à 09:10:25  profilanswer
 

Sauf qu'en l'occurence le GT300 sera AUSSI le GPU le plus puissant du marché à sa sortie. Ce qui pour le moment assure à NVIDIA un fenêtre de secour.
 
Apres le GPGPU justement ce n'est pas les supercalculateurs. C'est comme ces chercheurs Belges qui ont utilisé des GPU en SLI comparé a un supercalculateur car pour leur appli c'était beaucoup plus perfs et BEAUCOUP moins cher.
 
On en reviendra toujours là. Même a 3000$ une carte GPGPU reste beaucoup moins cher que le ticket d'entrée du premier serveur de calcul du marché. CUDA étant déjà pas mal implementé, NVIDIA aurai tord de ne pas evolué vers se marché.
 
D'autant plus que même si la cission est très proche, ca reste toujours de GPU capable d'avoir des perfs de haut niveau dans les jeux.
 
(et si l'archi est vraiment flexible, ça peut sans doute via extensions OpenGL/OpenCL/CUDA lui assurer une compatibilité > a ce que limite DX11 pour le moment)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7142067
noobzed
Where is Brian ? DTC !
Posté le 01-10-2009 à 09:15:00  profilanswer
 

merci les modos pour le repis ;)
 
vous croyez qu"elle va avoir le look de la carte plus haut la ?


---------------
FEEDBACK HFR  
mood
Publicité
Posté le 01-10-2009 à 09:15:00  profilanswer
 

n°7142070
Profil sup​primé
Posté le 01-10-2009 à 09:15:47  answer
 

Une question l'archi et jeu d'instrcution semble tout le temps évolué, ca donne un air d'une technologie pas encore mature. Ca me donne une certaine appréhension et je comprends que les développeur ne se jettent pas dessus.  
Qu'en est-t-il de la compatibilité/rétro compatibilité.
 
Une application codé pour ce GT300 fonctionnera sur une Geforce 8? Et inversement?
Ou est-ce qu'il faut tout recompiler?

Message cité 1 fois
Message édité par Profil supprimé le 01-10-2009 à 09:17:05
n°7142076
MEI
|DarthPingoo(tm)|
Posté le 01-10-2009 à 09:21:02  profilanswer
 


 
Pour le moment on attaque JAMAIS le GPU directement, y'a toujours une API pour ça.
 
Alors aujourd'hui on a OpenCL / CUDA / DirectCompute / ATI Stream.
 
Si on veut etre très generaliste OpenCL/DirectCompute reste le mieux. Du côté de CUDA y'a des versions. I.e. les G80 sont CUDA tel version, les G92 une autre version, les GT200 encore une autre etc.
 
D'autre part le jeu d'instruction c'est comme les CPU, il s'étoffe c'est tout. C'est plutôt un bien pour le GPGPU.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7142113
Kenshin011
Posté le 01-10-2009 à 10:04:02  profilanswer
 

MEI a écrit :


 
Mais on s'en fou que ce soit un "GPU" ou un "cGPU" ou comme Larrabee une sorte de CPU multicore... Tant que ça fait tourner DX11 et que y'a un port HDMI, ca reste une carte graphique... :o
 
Parfois c'est pathétique les réactions... :'( NVIDIA continue simplement ce qu'on voyait venir depuis le G80... :spamafote:. Déjà le GT200 etait très teinté GPGPU dans ces changements, là c'est carrement le GPGPU qu'il embrasse, mais ça ne veut surtout pas dire qu'l va etre mauvais en jeu. Alors avec le meme cout on aurai pu faire mieux, mais il reste officiellement plus perf qu'une 5870, la flexibilité en plus à priori. Ce qui avec les efforts fait pour CUDA ça pourrai payer même pour l'utilisateur lambda...
 
Après NVIDIA n'est pas fou, et je pense qu'ils veulent pas abandonné les gamers comme ça. Donc si y'a qu'une archi qui existe, c'est qu'elle reste bonne pour le jeu. Après p'tet que dans le futur y'aura GT400 pour le jeu et GF200 pour le GPGPU, pourquoi pas après tout, NVIDIA est sans doute capable d'assumer le design de plusieurs puces en //. D'autant plus qu'une puce type GPGPU ne conviendra pas a un de leur grand marché, les portables...


 
Je suis d'accord avec toi et c'est ce que je me dis pour me rassurer. Mais tu résumes très bien ma déception en disant : "Alors avec le meme cout on aurai pu faire mieux"
Après les déconvenues des GF9 et les GT200 qui n'étaient pas si mauvais que ça, je m'attendais vraiment à ce que nVidia nous en foute plein la vue dans ce qu'il maitrise le mieux : un GPU pour gamer, orienté pour les joueurs quoi ! Un GPU pur sang qui sait ce qu'il fait et qui ne fait que ça.
Qui soit un peu le messie attendu pour redorer le blason de Nvidia, une sorte de G80 bis.
 
Alors maintenant certes ce Fermi devrait exploser la 5870 (je n'en doute pas), mais nous, les joueurs, on paie les pots cassés relatifs à cette nouvelle architecture qui ne nous concerne qu'à moitié (et encore) : retard lié à la complexité de la puce, prix qui risque d'être très élevé,...
 
Est ce que Nvidia pourra raisonnablement vendre cette carte 500$ quand on voit le bijou technologique que ça sera ?

n°7142121
MEI
|DarthPingoo(tm)|
Posté le 01-10-2009 à 10:12:57  profilanswer
 

Chose sur c'est architecturé pour être downscallé facilement.
 
Donc y'aura p'tet des version 384 core pour concurencer les gamme de prixi inférieur, du niveau de perfs des 5850.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7142129
aliss
Rhyme the Rhyme Well
Posté le 01-10-2009 à 10:18:28  profilanswer
 
n°7142139
dr g frag
In Game
Posté le 01-10-2009 à 10:26:54  profilanswer
 

Je ne sais pas si la carte presentée resemblera à la "GTX380" mais en terme de taille elle semble bien raisonnable.


---------------
Site perso | Mes ventes
n°7142142
olioops
Si jeune et déjà mabuse.
Posté le 01-10-2009 à 10:28:15  profilanswer
 

MEI a écrit :


 
Mais on s'en fou que ce soit un "GPU" ou un "cGPU" ou comme Larrabee une sorte de CPU multicore... Tant que ça fait tourner DX11 et que y'a un port HDMI, ca reste une carte graphique... :o
 
Parfois c'est pathétique les réactions... :'( NVIDIA continue simplement ce qu'on voyait venir depuis le G80... :spamafote:. Déjà le GT200 etait très teinté GPGPU dans ces changements, là c'est carrement le GPGPU qu'il embrasse, mais ça ne veut surtout pas dire qu'l va etre mauvais en jeu. Alors avec le meme cout on aurai pu faire mieux, mais il reste officiellement plus perf qu'une 5870, la flexibilité en plus à priori. Ce qui avec les efforts fait pour CUDA ça pourrai payer même pour l'utilisateur lambda...
 
Après NVIDIA n'est pas fou, et je pense qu'ils veulent pas abandonné les gamers comme ça. Donc si y'a qu'une archi qui existe, c'est qu'elle reste bonne pour le jeu. Après p'tet que dans le futur y'aura GT400 pour le jeu et GF200 pour le GPGPU, pourquoi pas après tout, NVIDIA est sans doute capable d'assumer le design de plusieurs puces en //. D'autant plus qu'une puce type GPGPU ne conviendra pas a un de leur grand marché, les portables...


d'accord avec MEI !
 
ça me parait d'ailleurs une évidence , mais comme je suis pas spécialiste je la ramène pas  :p  
 
l'orientation que prend NVidia permettra d'avoir une réelle évolution de la puissance de calcul pour les jeux de demain , pas besoin d'être ingénieur pour remarquer que la 3D " stagne " depuis des années , à part rajouter des effets cache misère !!!
 
tout dois changer en profondeur et c'est en cours , la facons de calculer une image , les outils de programmation , le harware ( sinon on aurait fini avec des CG de 5 kg et de 1000w pour avoir des contours lisse et des effets de lumière photoréaliste ) ...
 
- Le GT 300 à juste du retard et on sait pourquoi , NVidia communique pas trop sur cet aspect négatif ..... c'est normal  [:airforceone]  
- la puissance des archis actuelles n'apparaîtra pas réellement sur l'immense majorité des jeux déjà sortie ( donc il ne faudra pas accordé trop d'importance aux 1er benchs )
- les Cartes seront peut-être cher ... au début  [:lucykc]


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°7142173
Profil sup​primé
Posté le 01-10-2009 à 10:40:19  answer
 

olioops a écrit :


d'accord avec MEI !
 
ça me parait d'ailleurs une évidence , mais comme je suis pas spécialiste je la ramène pas  :p  

l'orientation que prend NVidia permettra d'avoir une réelle évolution de la puissance de calcul pour les jeux de demain
, pas besoin d'être ingénieur pour remarquer que la 3D " stagne " depuis des années , à part rajouter des effets cache misère !!!
 
tout dois changer en profondeur et c'est en cours , la facons de calculer une image , les outils de programmation , le harware ( sinon on aurait fini avec des CG de 5 kg et de 1000w pour avoir des contours lisse et des effets de lumière photoréaliste ) ...
 
- Le GT 300 à juste du retard et on sait pourquoi , NVidia communique pas trop sur cet aspect négatif ..... c'est normal  [:airforceone]  
- la puissance des archis actuelles n'apparaîtra pas réellement sur l'immense majorité des jeux déjà sortie ( donc il ne faudra pas accordé trop d'importance aux 1er benchs )
- les Cartes seront peut-être cher ... au début  [:lucykc]


 
Si, et seulement si, les dev de jeux suivent: les jeux massivement parallélisés ce n'est vraiment pas pour tout de suite. La grande majorité ne tire toujours pas profit de plus de 2 cores CPU, pour mémoire...

n°7142228
neo673
Posté le 01-10-2009 à 11:05:20  profilanswer
 

@Ycar : et c'est bien en changeant en profondeur les cartes graphiques qu'on obligera les éditeurs de jeux à suivre..... Comme microsoft à imposer Vista, un bon nombre d'éditeurs ont du recoder leurs programmes pour qu'il soit compatible.

n°7142235
Profil sup​primé
Posté le 01-10-2009 à 11:09:40  answer
 

neo673 a écrit :

@Ycar : et c'est bien en changeant en profondeur les cartes graphiques qu'on obligera les éditeurs de jeux à suivre..... Comme microsoft à imposer Vista, un bon nombre d'éditeurs ont du recoder leurs programmes pour qu'il soit compatible.

 

Hum... L'influence de  nV n'est pas franchement comparable à celle de M$, même si je comprends bien ton propos. Lorsqu'on tient plus de 90% du marché des OS, on peut imposer beaucoup de chose par ce biais puisque ce marché est de toute façon largement captif. Imposer des technos par le biais d'un hardware, qui est de toute façon "optionnel" ET concurrentiel, c'est loin d'être gagné...


Message édité par Profil supprimé le 01-10-2009 à 11:10:30
n°7142236
neo673
Posté le 01-10-2009 à 11:09:56  profilanswer
 

Le changement, ca ne peut faire que du bien à mon avis. Et de toute facon si ils disent que le marché des jeux n'est plus leur priorité c'est qu'ils ont des raisons (commerciales et stratégiques) arrêtez de dire qu'ils vivent dans un monde qui n'existe pas... ils font du fric et savent très bien comment en avoir encore plus. Si le marché des jeux / particuliers n'est plus si attrayant, et bien soit.... :-)
 
//Edit : correction de quelques fautes de grammaire  :o

Message cité 1 fois
Message édité par neo673 le 01-10-2009 à 11:11:01
n°7142237
castormali​n
上手くなりたい
Posté le 01-10-2009 à 11:11:30  profilanswer
 

Pas mal les nouvelles features du gt300, j'suis en train de lire, mais déjà les calculs IEEE, la vraie hiérarchie de cache, ça sent très bon.


---------------
on est pas des vaches à lait, boycottez les dlc  [:mcberd], fan club Cyril Lignac, les films inspirés de livres, profil sens critique
n°7142238
picturaw
Posté le 01-10-2009 à 11:12:34  profilanswer
 

[:drapal]


---------------
=> Vends compte iRacing. Plus de détails par MP.
n°7142257
Profil sup​primé
Posté le 01-10-2009 à 11:32:52  answer
 

neo673 a écrit :

Le changement, ca ne peut faire que du bien à mon avis. Et de toute facon si ils disent que le marché des jeux n'est plus leur priorité c'est qu'ils sont des raisons (commerciales et stratégiques) arrêtez de dire qu'ils vivent dans un monde qui n'existent pas... ils font du fric et savent très bien comment en avoir encore plus. Si le marché des jeux / particuliers n'est plus si attrayant, et bien soit.... :-)

 

Le problème c'est qu'économiquement c'est suicidaire à terme. Les marchés vers lesquels se tournent Fermi sont des marchés de niche. Partir de ces marchés pour décliner des solutions grands publics est une inversion de la logique économique: tu rentabilises de la R&D à partir de marchés qui te permettront de vendre de très gros volumes, pas l'inverse...
Le marché gamer n'est pas particulièrement attrayant parce qu'il ne permet pas de dégager de bonnes marges... (les marges se font sur le marché IGP/cartes value et cartes pros...), mais il reste un appui promotionnel extrêmement important en raison des volumes de vente, de la concurrence acharnée et de la publicité qu'elle génère (la quasi disparition de Matrox du marché gamer ne leur a pas coûté cher?).
La vérité c'est que nV n'avait pas les moyens de promouvoir 2 archis en parallèle (une archi simple et efficace pour le grand public, et une archi sophistiquée pour les pros), du coup ils tentent d'imposer la plus chère à tout le monde, en espérant que leurs technos s'imposent: ils ont juste oublié que ce n'est pas essentiellement le hardware qui normalise les technos, le plus souvent c'est le soft. La plupart des technos hard, n'ayant pas été validée au préalable par une utilisation massive des softs, se sont plantées commercialement. Ils mettent la charrue largement avant les boeufs, dans des proportions assez invraisemblables, y compris pour les marchés pros.

Message cité 2 fois
Message édité par Profil supprimé le 01-10-2009 à 11:33:38
n°7142260
MEI
|DarthPingoo(tm)|
Posté le 01-10-2009 à 11:35:18  profilanswer
 

Au pire pendant un moment on aura des effet en DirectCompute et des effets++ (optimisation ou plus beau) en CUDA "GT300"...
 
Ce que va offrir NVIDIA pour l'industrie du jeux c'est plus de possibilité de programmation à priori via extensions OpenCL/OpenGL et CUDA.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7142262
Profil sup​primé
Posté le 01-10-2009 à 11:35:41  answer
 


Ne prenons pas les dirigeant Nvidia pour des cons non plus...
 
S'il ont choisi cette voie c'est qu'il y a une bonne raison, surement économique à ca...

Message cité 1 fois
Message édité par Profil supprimé le 01-10-2009 à 11:36:02
n°7142265
Profil sup​primé
Posté le 01-10-2009 à 11:37:27  answer
 


 
Moi je veux bien, mais donne la moi: ils se tournent complètement vers TESLA..., qui ne représente aujourd'hui que 1,3% de leur CA...

n°7142267
MEI
|DarthPingoo(tm)|
Posté le 01-10-2009 à 11:37:57  profilanswer
 


C'est pas suicidaire vu qu'il font le vendre aussi aux joueurs, et que la R&D sera utile pour faire du GPU de 32 shader core à 512+ shader core. ;)
 
En plus la marché du GPGPU augmente drastiquement vu l'intérêt pour la calcul scientifique du rapport perf/W/prix. (des institut comme le CERN, par expérience d'acceleration dep articule, aurai besoin de toutes les PC personnel de la planète pendant ~1 ans pour traiter toutes les infos par ex... (infos qu'on ma notifié en 2002 certes ;)))


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7142271
Yoyo_5
Posté le 01-10-2009 à 11:38:49  profilanswer
 


Ils veulent peut-être que ça pèse plus...! :spamafote:


---------------
¤ Paix et félicité ¤

n°7142285
Profil sup​primé
Posté le 01-10-2009 à 11:45:21  answer
 


Ben forcement s'il veulent augmenter cette part et faut bien qu'ils sortent des produits générant ce marché.
C'est l'histoire de la poule et de l'oeuf.
 
Nvidia a besoin de se diversifier c'est tout. Et justement parce que ce marché est encore peu générateur de revenu, qu'il vaut mieux avoir un produit tout en un GPU et cGPU. Ils ne se sont pas lancé à l'aveugle, il y a eu surement des études chiffrées de fait et ont choisi ce choix en fonction de ca.
 
Le problème c'est la licence x86 qu'ils n'ont pas, ils ont besoin au plus vite de construire leur plateforme à eux.
D'autant plus qu'avec Intel et ses GPU de plus en plus performant, intégré au CPU, Nvidia a des soucis à se faire sur l'entrée de gamme qui représente le gros du marché.


Message édité par Profil supprimé le 01-10-2009 à 11:58:11
n°7142286
castormali​n
上手くなりたい
Posté le 01-10-2009 à 11:46:52  profilanswer
 

Yoyo_5 a écrit :


Ils veulent peut-être que ça pèse plus...! :spamafote:


J'ai l'impression qu'ils veulent vendre du gpu à tout le monde. Avant ça se vendait aux joueurs, mais n'importe quel gpu suffit à jouer à spore et aux sims. Elargissons le marché ont dû t-ils se dire, et ça a plutôt marché. Aujourd'hui, le mot magique gpu comme accélérateur général est très attrayant vu les résultats affichés (pas systématique mais ce sont les records que l'on constate le plus).
 
Un peu l'effet emotion engine ou cell, on a un supercalculateur à la maison.


---------------
on est pas des vaches à lait, boycottez les dlc  [:mcberd], fan club Cyril Lignac, les films inspirés de livres, profil sens critique
n°7142295
neo673
Posté le 01-10-2009 à 11:53:37  profilanswer
 

le GPUTech vient de s'ouvrir que vous tirez déjà des conclusions sur les premières annonces qui ont été faites.
 
Ils n'ont encore pas parlés de 3d... On aura bien assez vite des indices de perf 3d...

n°7142304
bjone
Insert booze to continue
Posté le 01-10-2009 à 11:59:39  profilanswer
 

Hâte de voir ce qu'il va donner en perfs ce petit GT300. Leur design me plait bien, il risque d'y avoir moyen de faire des trucs drôles.
J'aurai bien aimé voir un MMU comme pour le Larrabee, ce sera pour la prochaine génération.


Message édité par bjone le 01-10-2009 à 12:01:23
n°7142346
Cyber-sola​ris
Posté le 01-10-2009 à 12:37:57  profilanswer
 

J'espère que mon alim de 1000 Watts va suffire pour ce monstre


---------------
Mon Feed-back
n°7142353
Profil sup​primé
Posté le 01-10-2009 à 12:41:15  answer
 

Cyber-solaris a écrit :

J'espère que mon alim de 1000 Watts va suffire pour ce monstre


Ca dépend :D.
C'est une Corsair 1000HW  ? [:tinostar]

 

http://www.hardware.fr/news/10454/ [...] tions.html


Message édité par Profil supprimé le 01-10-2009 à 12:41:48
n°7142399
Blue Apple
Posté le 01-10-2009 à 13:07:54  profilanswer
 

Citation :

Ne prenons pas les dirigeant Nvidia pour des cons non plus...

Disons que quand ils ont définit l'architecture du GT300, il y a vait des ATI 38xx en face (voide les 29xx) et ils étaient dans une position assez dominante pour que Microsoft castre DX10 pour leur faire plaisir.
 
La donne a changé et il est fort possible que ce qui était logique à l'époque ne soit plus la meilleure option aujourd'hui.

Citation :

Sauf qu'en l'occurence le GT300 sera AUSSI le GPU le plus puissant du marché à sa sortie.


Ca, ce sont des spéculations. C'est vraisemblable vu la taille du machin mais quand on voir le four que s'est pris ATI avec le 2900XT, on est pas à l'abri d'une mauvaise surprise. Et AMD pourrait sortir une 5890 surcadencée pour pourrir encore un peu plus la situation.

n°7142405
earth2172
Posté le 01-10-2009 à 13:10:06  profilanswer
 


sans ECC, sans C++ et sans debugger performant c'est déja très fort, alors imagine avec un produit adapté  :o  
Ils l'ont dit au keynote, Fermi devrait rapporter un milliard de dollars de CA par an...

Message cité 1 fois
Message édité par earth2172 le 01-10-2009 à 13:14:55
n°7142407
Gigathlon
Quad-neurones natif
Posté le 01-10-2009 à 13:10:59  profilanswer
 

MEI a écrit :

Chose sur c'est architecturé pour être downscallé facilement.
 
Donc y'aura p'tet des version 384 core pour concurencer les gamme de prixi inférieur, du niveau de perfs des 5850.


C'est un peu leur discours depuis le G80 en même temps...
 
Le GT200 n'était pas scalable et ce GF100 ne l'est pas plus, car si les monstrueux blocs de SP sont directement réutilisables en moindre quantité ça n'est pas le cas de toute la logique de contrôle, qui représente grosso modo 1/4 de la puce et ne peut pas être décemment diminuée.
 
Quand nVidia parle de "scalable", c'est vers le haut, jamais vers le bas.
 
Pour ce qui est d'espérer +50% par rapport à une 5870 pour les jeux c'est totalement irréaliste, la puissance brute SP est clairement insuffisante (30-40% moindre) et je ne parle même pas de l'absence de tesselator.

Message cité 3 fois
Message édité par Gigathlon le 01-10-2009 à 13:14:01
n°7142428
earth2172
Posté le 01-10-2009 à 13:19:24  profilanswer
 

Gigathlon a écrit :


C'est un peu leur discours depuis le G80 en même temps...
 
Le GT200 n'était pas scalable et ce GF100 ne l'est pas plus, car si les monstrueux blocs de SP sont directement réutilisables en moindre quantité ça n'est pas le cas de toute la logique de contrôle, qui représente grosso modo 1/4 de la puce et ne peut pas être décemment diminuée.
 
Quand nVidia parle de "scalable", c'est vers le haut, jamais vers le bas.
 
Pour ce qui est d'espérer +50% par rapport à une 5870 pour les jeux c'est totalement irréaliste, la puissance brute SP est clairement insuffisante (30-40% moindre) et je ne parle même pas de l'absence de tesselator.


oui c'est pas comme si la RV770 avec deux fois plus de FLOPS theoriques que la GT285 etait plus performante hein  :o  
les FLOPS ATI c'est du pipeau dans les vrais jeux, on les voit seulement dans certains tests tres particuliers, alors aucun doute que Fermi va exploser la 5870...

n°7142430
neo673
Posté le 01-10-2009 à 13:21:20  profilanswer
 

earth2172 a écrit :


sans ECC, sans C++ et sans debugger performant c'est déja très fort, alors imagine avec un produit adapté  :o  
Ils l'ont dit au keynote, Fermi devrait rapporter un milliard de dollars de CA par an...


 
C'est pas tout a fait ce qui a été dit ;)
 
Il y a un marché d'1 milliard de dollars à prendre entre tous les acteurs économiques, rien nous dit que Fermi viendra couvrir ce marché à 100%...

n°7142453
Rafale06
Vive les Suisses (Neutre..)
Posté le 01-10-2009 à 13:33:17  profilanswer
 

Kenshin011 a écrit :


 
Je suis d'accord avec toi et c'est ce que je me dis pour me rassurer. Mais tu résumes très bien ma déception en disant : "Alors avec le meme cout on aurai pu faire mieux"
Après les déconvenues des GF9 et les GT200 qui n'étaient pas si mauvais que ça, je m'attendais vraiment à ce que nVidia nous en foute plein la vue dans ce qu'il maitrise le mieux : un GPU pour gamer, orienté pour les joueurs quoi ! Un GPU pur sang qui sait ce qu'il fait et qui ne fait que ça.
Qui soit un peu le messie attendu pour redorer le blason de Nvidia, une sorte de G80 bis.
 
Alors maintenant certes ce Fermi devrait exploser la 5870 (je n'en doute pas), mais nous, les joueurs, on paie les pots cassés relatifs à cette nouvelle architecture qui ne nous concerne qu'à moitié (et encore) : retard lié à la complexité de la puce, prix qui risque d'être très élevé,...
 
Est ce que Nvidia pourra raisonnablement vendre cette carte 500$ quand on voit le bijou technologique que ça sera ?


 
 
Il me semble que durant la présentation le CEO nvidia à annonçé des déclinaisons trés façilement , donc qui nous dis que la version présenté lors du salon était la carte pour gamer ????...
Pour ma part je suis quasi sur et certain que la dite carte est une version destinée au marché pro (ram ecc etc......) .
 
Donc wait and see ^^


---------------
Les kevin (j'ai 12ans lol) je les ignore......
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  29  30  31  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR