Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
5310 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  22  23  24  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7140760
havoc_28
Posté le 30-09-2009 à 15:12:36  profilanswer
 

Reprise du message précédent :

Wirmish a écrit :


Cloud9 de NHN Games (en développement), juin 2008, tesselation & autres effets -> TRUVEO
 
Performance : DX10 vs DX10.1 vs DX11, BattleForge :
http://img21.imageshack.us/img21/6594/bf1920.png
 
Comme tu peux le voir, le DX11 c'est de la balle.


 
http://images.anandtech.com/graphs [...] /20218.png  
 
Marrant pourquoi sur anandtech DX11 apporte aucun gain ? : /
 
http://www.anandtech.com/video/sho [...] i=3650&p=2

mood
Publicité
Posté le 30-09-2009 à 15:12:36  profilanswer
 

n°7140784
Gigathlon
Quad-neurones natif
Posté le 30-09-2009 à 15:28:35  profilanswer
 

asmomo a écrit :

On voit déjà le pb posé sur les CM X58 avec le tri-channel (192bit).


Oui, enfin sur les mobos les traces sont beaucoup plus longues et concernent qui plus est plusieurs puces... :o
 
Sur les cartes graphiques, les contraintes électriques/électro-magnétiques sont moindres à fréquence égale du fait de la proximité et la charge électrique moindre.
 
Maintenant, un bus 512bits impose d'autres contraintes que purement relatives aux signaux, il y a nécessité d'avoir un certain dégagement pour l'alimentation du GPU et surtout la complexité du contrôleur mémoire, qui est tout sauf linéaire.
 
Quoi qu'il en soit, ce soir on aura probablement rien d'autre que des slides/discours vantant l'architecture, comme ils l'avaient fait pour le NV30 à l'époque, et comme l'a fait AMD avec le R600, et tant qu'on aura pas les fréquences (et la conso?) exactes on ne pourra toujours pas le positionner ne serait-ce qu'approximativement.

n°7140785
0b1
There's good in him
Posté le 30-09-2009 à 15:28:38  profilanswer
 

Vivement ce soir 22h alors  :hello:

 
Gigathlon a écrit :


Oui, enfin sur les mobos les traces sont beaucoup plus longues et concernent qui plus est plusieurs puces... :o

 

Sur les cartes graphiques, les contraintes électriques/électro-magnétiques sont moindres à fréquence égale du fait de la proximité et la charge électrique moindre.

 

Maintenant, un bus 512bits impose d'autres contraintes que purement relatives aux signaux, il y a nécessité d'avoir un certain dégagement pour l'alimentation du GPU et surtout la complexité du contrôleur mémoire, qui est tout sauf linéaire.

 

Quoi qu'il en soit, ce soir on aura probablement rien d'autre que des slides/discours vantant l'architecture, comme ils l'avaient fait pour le NV30 à l'époque, et comme l'a fait AMD avec le R600, et tant qu'on aura pas les fréquences (et la conso?) exactes on ne pourra toujours pas le positionner ne serait-ce qu'approximativement.


Tu n'arriveras pas à entamer ma bonne humeur et ma motivation pour l'annonce de ce soir.
C'est quand même drôle de voir tous ces gens qui espèrent un GT300 300% meilleur que la HD5870 pour une consommation divisée par deux et un prix cadeau. Noël c'est le 25 décembre.

Message cité 1 fois
Message édité par 0b1 le 30-09-2009 à 15:31:48
n°7140805
Gigathlon
Quad-neurones natif
Posté le 30-09-2009 à 15:38:26  profilanswer
 

0b1 a écrit :

Tu n'arriveras pas à entamer ma bonne humeur et ma motivation pour l'annonce de ce soir.


Bah je te le dis clairement, les +30% je les attend pas. Si ils sont là, tant mieux, mais ça me semble totalement irréaliste, même si c'est le minimum qu'on est en droit d'attendre.
 
L'archi au coeur des G80 et G86/G92 présente une efficacité proche de la perfection (~95% sur le hash md5 par exemple), faire réellement mieux est impossible.
 
Si ils poussent le DP, ça ne changera rien dans les jeux (sérieux, en 32bits le HDR est déjà pas si loin du photo-réalisme, non? Surtout couplé au SSAO...), ce qui veut dire qu'ils vont encore perdre en perf/mm².
 
Là où on peut espérer une amélioration, c'est sur les "corner cases" où la précédente génération nVidia était très mal en point, mais où dans le même temps l'archi des puces concurrentes limitait bien la casse, donc c'est un pari très risqué.

Message cité 1 fois
Message édité par Gigathlon le 30-09-2009 à 15:45:07
n°7140813
Rafale06
Vive les Suisses (Neutre..)
Posté le 30-09-2009 à 15:43:03  profilanswer
 

Sans parler d'une nouvelle architecture qui poutre sa mémé (enfin dans l'idée hein.....)

 

Rien que l'apport de la DDR5 sera déja un bond énorme en avant....il n'y a qu'a voir ce qu'elle à donné chez ATI...

 

Pour le reste comme je ne sais rien ^^ je ne dirais rien perso...........

 

Et comme certains je dirais vivement ce soir qu'on en sache un peu plus... ;)

 

Ps: hypothèse hyper négative, elle n'à que 20% de puissance en plus réel et non théorique, si elle sort vers les 370euros !!! moi j'dis ok..........


Message édité par Rafale06 le 30-09-2009 à 15:45:12

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7140828
Profil sup​primé
Posté le 30-09-2009 à 15:53:35  answer
 

NVIDIA GT300 : le GPU est mort, vive le cGPU, compatible C++ ?

Citation :

D'après nos confrères de BSN, l'annonce de ce soir de NVIDIA pourrait permettre au constructeur de se préparer à l'arrivée de Larrabee en dévoilant un véritable petit monstre qui prendrait le nom de code Fermi.
 
Le GT300 : l'équivalent de deux RV870 ?
 
nvidia logoSelon leurs informations, le GT300 serait en effet composé de pas moins de 3 milliards de transistors, soit deux fois plus que le RV870 d'AMD qui est au coeur des Radeon HD 5870.
 
Gravée par TSMC en 40 nm, la puce disposerait de 16 groupes (ou Shader Cluster) de 32 unités de calcul (ou CUDA Cores), soit un total de 512.
 
Ainsi, il pourrait traiter jusqu'à 512 opérations de type Fused MADD (FMA) par cycle en simple précision et jusqu'à 256 en double précision. Reste à connaitre la fréquence de fonctionnement de ces unités. Le tout devrait être compatible avec la norme IEEE 754-2008, comme le RV870.
 
Du côté des caches, on aurait droit à un total de 1 Mo de L1 divisé en portions de 16 ko et à 768 ko de L2, unifié.
 
Un bus mémoire qui reste à 384 bits... la GDDR-5 à la rescousse
 
  Le contrôleur mémoire serait composé de six fois 64 bits soit un total de 384 bits. Les cartes pourraient gérer la GDDR-5 de dernière génération dans des quantités pouvant aller jusqu'à 6 Go (sûrement pour les versions destinées aux serveurs et aux unités de calcul).
 
CUDA LogoMais la caractéristique la plus INtéressante de ce GT300 serait sans nul doute sa capacité à gérer de nombreux langages de manière native, qu'NVIDIA introduirait avec le concept de cGPU.
 
On aurait ainsi droit au support de C for CUDA, C++, DirectCompute 5.0, DirectX 11, Fortran, OpenCL, OpenGL 3.1 and OpenGL 3.2.
 
Le GPU est mort... vive le cGPU, avec support natif du C++ ?
 
Il serait ainsi possible de faire tourner n'importe quel code C++ sur ce GPU, comme on le fait actuellement avec du Code C for CUDA ou DirectX, ce qui pourrait faire de l'ombre à Larrabee qui est sans nul doute le premier visé par le GT300.
 
Reste maintenant à savoir si ces informations se confirment, et quels autres détails NVIDIA peut bien avoir à nous dévoiler lors de la Keynote de ce soir... et surtout si la 3D et les joueurs seront toujours au coeur de la stratégie de NVIDIA.
 
Pour cela il faudra sûrement que des versions moins complexes de la puce voient le jour, afin de permettre à M. tout le monde de se l'offrir.


 
http://www.pcinpact.com/actu/news/ [...] a-cgpu.htm

n°7140830
dragonlore
Posté le 30-09-2009 à 15:53:51  profilanswer
 

Gigathlon a écrit :


Bah je te le dis clairement, les +30% je les attend pas. Si ils sont là, tant mieux, mais ça me semble totalement irréaliste, même si c'est le minimum qu'on est en droit d'attendre.
 
L'archi au coeur des G80 et G86/G92 présente une efficacité proche de la perfection (~95% sur le hash md5 par exemple), faire réellement mieux est impossible.
 
Si ils poussent le DP, ça ne changera rien dans les jeux (sérieux, en 32bits le HDR est déjà pas si loin du photo-réalisme, non? Surtout couplé au SSAO...), ce qui veut dire qu'ils vont encore perdre en perf/mm².
 
Là où on peut espérer une amélioration, c'est sur les "corner cases" où la précédente génération nVidia était très mal en point, mais où dans le même temps l'archi des puces concurrentes limitait bien la casse, donc c'est un pari très risqué.


bizarre, moi, au vu des specs qu'on peut avoir ici et là, et si ça se confirme j'attends les 30 % mini voir plus. L'inverse serait au contraire très décevant.
 
après ce soir peut être on verra que les specs sont tout autre et que ce ne sera pas le cas ou alors encore bien mieux mais ^pour l'instant ça semble aller bien au delà de la HD5870

n°7140843
vodnok
Le meilleur reste à venir
Posté le 30-09-2009 à 15:59:53  profilanswer
 

Zack38 a écrit :


 
D'autant plus que CUDA ne subsistera pas longtemps, quoi que fasse nVidia .  :o


 
Si j'ai bien compris CUDA est une interface entre le CG et du code
 
 
C++ passe par CUDA pour s'executer sur le CG
OpenCL passe par CUDA pour....
etc etc
 
Donc CUDA est là et restera

n°7140851
asmomo
Modérateur
Posté le 30-09-2009 à 16:04:18  profilanswer
 

bigbenze a écrit :

lis tout les commentaires au lieu de dire des trucs qui n'ont pas de sens surtout que la 5870 je l'ai commandé le lendemain de sa sortie donc les tests étaient déja sortie et je savais à quoi m'attendre.


 
N'empêche qu'il a raison. On joue pas sur PC (ni sur console d'ailleurs) pour gagner de l'argent, ou pour en perdre le moins possible. Vendre une CG pour se retrouver sans rien pendant des mois ça ne rime à rien, à moins de partir en vacances pendant cette période :o
 
Si la 4870X2 était en fait un achat trop cher pour ta bourse (ou ton utilisation) alors la logique aurait été de reprendre une 48x0 simple GPU, et là tu pourrais attendre tranquillement plutôt que te précipiter sur la 5870 quitte à le regretter.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7140858
aliss
Rhyme the Rhyme Well
Posté le 30-09-2009 à 16:06:12  profilanswer
 


 
Intéressant, par contre j'apprends avec stupeur que 2 et 2 font 3... :whistle:  
 
Edit, ils ont corrigé leur erreur...


Message édité par aliss le 30-09-2009 à 16:07:30
mood
Publicité
Posté le 30-09-2009 à 16:06:12  profilanswer
 

n°7140868
dragonlore
Posté le 30-09-2009 à 16:10:47  profilanswer
 

asmomo a écrit :

 

N'empêche qu'il a raison. On joue pas sur PC (ni sur console d'ailleurs) pour gagner de l'argent, ou pour en perdre le moins possible. Vendre une CG pour se retrouver sans rien pendant des mois ça ne rime à rien, à moins de partir en vacances pendant cette période :o

 

Si la 4870X2 était en fait un achat trop cher pour ta bourse (ou ton utilisation) alors la logique aurait été de reprendre une 48x0 simple GPU, et là tu pourrais attendre tranquillement plutôt que te précipiter sur la 5870 quitte à le regretter.


merci, tu as dit le fond de ma pensée mais je voulais pas lui répondre de peur d'entrer dans un HS ou de m'énerver.


Message édité par dragonlore le 30-09-2009 à 16:10:56
n°7140871
Gigathlon
Quad-neurones natif
Posté le 30-09-2009 à 16:11:19  profilanswer
 

dragonlore a écrit :

bizarre, moi, au vu des specs qu'on peut avoir ici et là, et si ça se confirme j'attends les 30 % mini voir plus. L'inverse serait au contraire très décevant.


Les specs déductibles du schéma de Rys m'incitent à le donner égal voire moins perf que Cypress perso, ou abusivement gourmand et avec un yield vraiment pitoyable (speed binning hyper-exigeant).
 
Donc au choix, on aurait:
 
- 2 GPU sur la même marche, dont un coûte bien plus cher que l'autre
- un GPU qui se démarque, mais avec une conso et un coût sans précédent
 
Chacun de ces 2 cas est économiquement catastrophique pour nVidia, le semi-échec du GT200 n'était rien à côté de ça.
 
Après, il est toujours possible que:
 
- la puce soit bien plus petite que ce qu'on nous a laissé entendre jusqu'ici -> moins de problèmes de yield/binning
- les ingés aient trouvé une architecture très efficace pour les SP (capacité à monter en fréquence) -> fréquence du shader core potentiellement très élevée (j'ai un gros doute là-dessus, d'ailleurs je table même sur l'inverse pour la simple raison que le passage du G71 au G80 puis au G92 avaient amené une hausse très significative de cette fréquence, même si ils ont eu 1 an depuis le GT200 pour corriger le problème... 1 an, c'est court pour tout revoir)

n°7140877
Gigathlon
Quad-neurones natif
Posté le 30-09-2009 à 16:15:29  profilanswer
 

vodnok a écrit :

Si j'ai bien compris CUDA est une interface entre le CG et du code
 
C++ passe par CUDA pour s'executer sur le CG
OpenCL passe par CUDA pour....
etc etc
 
Donc CUDA est là et restera


Le langage C et non C++ est en cours de portage vers CUDA.
OpenCL/DirectCompute remplacent CUDA.
 
CUDA est un langage d'un niveau intermédiaire entre l'assembleur et le C (avec quelques adaptations liées à l'aspect massivement parallèle), quand on programme un pilote on n'utilise pas CUDA pour transcrire les shaders, mais bien un code propre au GPU, et DirectCompute utilise donc ce traducteur direct au même titre qu'OpenCL.

Message cité 1 fois
Message édité par Gigathlon le 30-09-2009 à 16:15:52
n°7140888
MEI
|DarthPingoo(tm)|
Posté le 30-09-2009 à 16:22:15  profilanswer
 

Gigathlon a écrit :


Les specs déductibles du schéma de Rys m'incitent à le donner égal voire moins perf que Cypress perso, ou abusivement gourmand et avec un yield vraiment pitoyable (speed binning hyper-exigeant).
 
Donc au choix, on aurait:
 
- 2 GPU sur la même marche, dont un coûte bien plus cher que l'autre
- un GPU qui se démarque, mais avec une conso et un coût sans précédent
 
Chacun de ces 2 cas est économiquement catastrophique pour nVidia, le semi-échec du GT200 n'était rien à côté de ça.
 
Après, il est toujours possible que:
 
- la puce soit bien plus petite que ce qu'on nous a laissé entendre jusqu'ici -> moins de problèmes de yield/binning
- les ingés aient trouvé une architecture très efficace pour les SP (capacité à monter en fréquence) -> fréquence du shader core potentiellement très élevée (j'ai un gros doute là-dessus, d'ailleurs je table même sur l'inverse pour la simple raison que le passage du G71 au G80 puis au G92 avaient amené une hausse très significative de cette fréquence, même si ils ont eu 1 an depuis le GT200 pour corriger le problème... 1 an, c'est court pour tout revoir)


Si ATI vends du 2Milliards de transistor a 350€, franchemetn NVIDIA aura aucun pb a avoir autant de marge avec du 3 milliard de transitor et leur prix habituel : 600-650€.
 
Car faut pas rever, a 450-500€ ca sera pas du GTX 380 mais du GTX 360, au mieux :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7140891
Gigathlon
Quad-neurones natif
Posté le 30-09-2009 à 16:23:23  profilanswer
 

MEI a écrit :


Si ATI vends du 2Milliards de transistor a 350€, franchemetn NVIDIA aura aucun pb a avoir autant de marge avec du 3 milliard de transitor et leur prix habituel : 600-650€.
 
Car faut pas rever, a 450-500€ ca sera pas du GTX 380 mais du GTX 360, au mieux :D


Pour ça il faut que les perfs suivent, Cf. GT200.

n°7140900
bncjo
Posté le 30-09-2009 à 16:28:00  profilanswer
 

vodnok a écrit :


OpenCL passe par CUDA pour....


 
Non, Opencl est un language gpgpu basé sur CUDA et utlisable sur toutes les CG. CUDA,OPencl,ati stram et les compute shaders sont concurrents.


---------------
"Think of me like Yoda but instead of being little and green I wear suits and I'm awesome. I'm your bro - I'm Broda!"
n°7140909
MEI
|DarthPingoo(tm)|
Posté le 30-09-2009 à 16:30:53  profilanswer
 

Plus précisément et pour être plus clair (sauf si NVIDIA à changé de fusil d'épaule), l'implémentation OpenCL de NVIDIA consiste a renvoyé le tout vers CUDA.
 
En fait le pilote OpenCL NVIDIA n'est qu'un wrapper pour CUDA...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7140929
vodnok
Le meilleur reste à venir
Posté le 30-09-2009 à 16:46:29  profilanswer
 

Gigathlon a écrit :


Le langage C et non C++ est en cours de portage vers CUDA.
OpenCL/DirectCompute remplacent CUDA.
 
CUDA est un langage d'un niveau intermédiaire entre l'assembleur et le C (avec quelques adaptations liées à l'aspect massivement parallèle), quand on programme un pilote on n'utilise pas CUDA pour transcrire les shaders, mais bien un code propre au GPU, et DirectCompute utilise donc ce traducteur direct au même titre qu'OpenCL.


 
 
Je suis pas certain de ça...
 
Je me rappel d'un slide qui mettait bien CUDA entre le CG et les autres languages. Et une interview d'un ingé qui expliqué sur OpenCL tournait sur CUDA mais évidemment si on compare les deux, développer directement en CUDA offrait des fonctionnalités supplémentaire

n°7140936
dragonlore
Posté le 30-09-2009 à 16:49:44  profilanswer
 

Gigathlon a écrit :


Les specs déductibles du schéma de Rys m'incitent à le donner égal voire moins perf que Cypress perso, ou abusivement gourmand et avec un yield vraiment pitoyable (speed binning hyper-exigeant).
 
Donc au choix, on aurait:
 
- 2 GPU sur la même marche, dont un coûte bien plus cher que l'autre
- un GPU qui se démarque, mais avec une conso et un coût sans précédent
 
Chacun de ces 2 cas est économiquement catastrophique pour nVidia, le semi-échec du GT200 n'était rien à côté de ça.
 
Après, il est toujours possible que:
 
- la puce soit bien plus petite que ce qu'on nous a laissé entendre jusqu'ici -> moins de problèmes de yield/binning
- les ingés aient trouvé une architecture très efficace pour les SP (capacité à monter en fréquence) -> fréquence du shader core potentiellement très élevée (j'ai un gros doute là-dessus, d'ailleurs je table même sur l'inverse pour la simple raison que le passage du G71 au G80 puis au G92 avaient amené une hausse très significative de cette fréquence, même si ils ont eu 1 an depuis le GT200 pour corriger le problème... 1 an, c'est court pour tout revoir)


c'est seulement des suppositions comme les miennes.
Moi je vois pas vu les specs en quoi ça couterait une fortune. Les gpus hdg sont déjà vendus la plupart du temps avec des marges énormes (voir interview il y a quelques années du pdg de nvidia quand les premiers gpus à 600 euros sont sortit), donc même si ça coute plus chère que d'habitude, la marge est tellement grande qu'ils peuvent se le permettre.
 
Et de plus les bénefs les plus importants sont fait sur le bas de gamme etbmilieu vu les volumes bien plsu importants donc du hdg avec une marge plus petite ne changerait pas grand chose à la situation si ce n'est des bénéfs légèrement moindre mais toujours des bénefs.
 
Bref si nvidia peut sortir un monstre de puissance sans problème si la technologie lui permet de le faire sans que ça coute plus chère qu'ils peuvent le vendre et là il  y a de la marge.

n°7140941
Rafale06
Vive les Suisses (Neutre..)
Posté le 30-09-2009 à 16:52:36  profilanswer
 

MEI a écrit :


Si ATI vends du 2Milliards de transistor a 350€, franchemetn NVIDIA aura aucun pb a avoir autant de marge avec du 3 milliard de transitor et leur prix habituel : 600-650€.
 
Car faut pas rever, a 450-500€ ca sera pas du GTX 380 mais du GTX 360, au mieux :D


 
 
 
Heuuu stop la fumette ^^ même si l'annonçe des 3milliards est véridique, je vois mal cette carte sortir aux alentours des 600 voir 650euros ^^......sauf évidement si la carte à une puissance monstrueuse et arrive à avoir 80% des perfs d'un crossfire de HD 5870.
 
Pour l'instant tout n'est que spéculation ^^ voir les messages plus haut ^^
 
 
Pour ma part si le monstre de puissance est bien la.........je tablerais sur un prix maxis de 550euros et je suis trés large ;)


Message édité par Rafale06 le 30-09-2009 à 16:54:20

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7140947
_hendrix_
Posté le 30-09-2009 à 16:54:36  profilanswer
 
n°7140961
dr g frag
In Game
Posté le 30-09-2009 à 17:02:08  profilanswer
 

550€ c'etait le prix des nouveau gpu haut de gamme de chez nvidia avant (7800gtx,...) , donc ca m'etonnerais pas qu'il le vende à ce prix.


---------------
Site perso | Mes ventes
n°7140971
MEI
|DarthPingoo(tm)|
Posté le 30-09-2009 à 17:04:39  profilanswer
 

dr g frag a écrit :

550€ c'etait le prix des nouveau gpu haut de gamme de chez nvidia avant (7800gtx,...) , donc ca m'etonnerais pas qu'il le vende à ce prix.


C'était, c'est, ça a toujours été en fait...
 
Que ce soit 6800 Ultra, 7800 GTX, 8800 GTX, ou GTX 280, les prix NVIDIA de leurs haut de gamme ont toujours été très cher.
 
Et c'est pas parce qu'ATI se brade depuis 3 générations que ça va changer je pense. D'autant plus que NVIDIA a bien résisté malgré tout.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7140980
djffff
Time's like ocean in storm.
Posté le 30-09-2009 à 17:07:30  profilanswer
 

Entièrement d'accord personnelement je n'ai jamais regretté d'avoir claqué 500+ dans une carte graphique.. Ca dépend de ton budjet. Mm si le gain de perf est parfois ridicule.
 
De toute façon c'est un peu la mm guguerre coté intel et amd, intel vend ses processeurs relativement cher en comparaison des tarifs amd mais ca ne les empeches pas de les vendres bien au contraire.


Message édité par djffff le 30-09-2009 à 17:08:13
n°7140985
wolfflyter
Posté le 30-09-2009 à 17:11:09  profilanswer
 


Le tarif sera ajusté en fonction de la conjoncture économique actuelle.
(pas brillante)
 
:)


---------------
該反思的是,往往有幫助
n°7140992
Rafale06
Vive les Suisses (Neutre..)
Posté le 30-09-2009 à 17:14:03  profilanswer
 

MEI a écrit :


C'était, c'est, ça a toujours été en fait...
 
Que ce soit 6800 Ultra, 7800 GTX, 8800 GTX, ou GTX 280, les prix NVIDIA de leurs haut de gamme ont toujours été très cher.
 
Et c'est pas parce qu'ATI se brade depuis 3 générations que ça va changer je pense. D'autant plus que NVIDIA a bien résisté malgré tout.


 
 
 
Sauf qu'à la sortie de la GTX 280 .........il n'y avait pas encore la belle surprise des HD 48XX, et la guerre des prix est arrivée ;)..........
 
La 280GTX est passé de 550euros à 450euros en 4semaines et le prix à chuté grave par la suite (370euros..) , au final depuis la guerre à été bénéfique, et on a même eu droit au tout nouveau Trés Haut de Gamme (GTX 295) en bi bpu dans les 450euros.
 
Donc je dirais que s'il est plus cher espéront que cela soit dans les limites du raisonnable par rapport aux perfs supérieurs , donc au final un bon rapport qualité / prix ????
 


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7140999
Rafale06
Vive les Suisses (Neutre..)
Posté le 30-09-2009 à 17:16:59  profilanswer
 

wolfflyter a écrit :


Le tarif sera ajusté en fonction de la conjoncture économique actuelle.
(pas brillante)
 
:)


 
 
 
+ 1 mais aussi avec le rapport prix /perfs ......imaginons que la carte soit 20% plus rapide que la HD 5870 !! je les vois mal proposer la carte aux alentours des 350euros ^^
 
Donc il faut aussi garder une réalité économique basé sur les perfs + la conjoncture actuelle qui est vraiment morose en terme de pouvoir d'achat dans le monde


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7141008
mikestewar​t
Air Roll Spinnin'
Posté le 30-09-2009 à 17:21:48  profilanswer
 

dr g frag a écrit :

550€ c'etait le prix des nouveau gpu haut de gamme de chez nvidia avant (7800gtx,...) , donc ca m'etonnerais pas qu'il le vende à ce prix.

 

Tout à fait. Il suffit d'une avance de 30% (ce qui est très confortable) pour justifier un prix plus élevé de 50+%. Tout à fait classique à ce niveau de gamme, surtout de la part d'Nvidia.

 

D'ailleurs 550€ c'était aussi le prix au lancement de la GTX280, mais vu le faible écart de performances avec la 4870 (à 250€ à son lancement), difficile de justifier les 300€ de différence (malgré les 1Go de GDDR). D'où la baisse de prix rapide de la GTX280.


Message édité par mikestewart le 30-09-2009 à 17:22:33
n°7141012
wolfflyter
Posté le 30-09-2009 à 17:23:54  profilanswer
 

Rafale06 a écrit :


 
 
 
+ 1 mais aussi avec le rapport prix /perfs ......imaginons que la carte soit 20% plus rapide que la HD 5870 !! je les vois mal proposer la carte aux alentours des 350euros ^^
 
Donc il faut aussi garder une réalité économique basé sur les perfs + la conjoncture actuelle qui est vraiment morose en terme de pouvoir d'achat dans le monde


 
Le prix sera basé sur l'objectif du produit qui ne semble pas avoir pour vocation première les " Gamer ".
Bien sur ils ne sont pas oubliés mais objectivement 500 ou 600 euros pour un jeu........
 
Cause plus de la meme chose sur ce site consacré au sujet du calcul / prix perf.
 
http://gpgpu.org/  
 
 :)  
 


---------------
該反思的是,往往有幫助
n°7141024
MEI
|DarthPingoo(tm)|
Posté le 30-09-2009 à 17:27:44  profilanswer
 

Les gammes pro ca existe.
 
Et si vraiment NVIDIA veut prendre le carte du GPGPU, a terme, comme Intel fait, ils vont devoir faire vivre plusieurs archi. en //.
 
D'ailleurs c'est peut etre pour ça que la majeur partie de la gamme sera en DX10.1, peut être l'amorce de deux branche de developpement diffrente.
 
Une fois le GPGPU bien implanté, le coup de R&D supplémentaire ne serait pas un gros risque s'ils savent que ca se vendra.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7141039
wolfflyter
Posté le 30-09-2009 à 17:36:17  profilanswer
 

MEI a écrit :

Les gammes pro ca existe.
 
Et si vraiment NVIDIA veut prendre le carte du GPGPU, a terme, comme Intel fait, ils vont devoir faire vivre plusieurs archi. en //.
 
D'ailleurs c'est peut etre pour ça que la majeur partie de la gamme sera en DX10.1, peut être l'amorce de deux branche de developpement diffrente.
 
Une fois le GPGPU bien implanté, le coup de R&D supplémentaire ne serait pas un gros risque s'ils savent que ca se vendra.


 
tu devrais changer de lecture et ne plus lire que les rubriques jeux vidéo.
 
:)


---------------
該反思的是,往往有幫助
n°7141042
kaiser52
Posté le 30-09-2009 à 17:37:32  profilanswer
 

Moi je prendrais une GTX380 6Go !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7141052
Profil sup​primé
Posté le 30-09-2009 à 17:43:00  answer
 

kaiser52 a écrit :

Moi je prendrais une GTX380 6Go !


 
Han, un pro dans la salle... [:haha klemton]

n°7141063
Rafale06
Vive les Suisses (Neutre..)
Posté le 30-09-2009 à 17:47:04  profilanswer
 


 
 
Chacun fait comme il a envie hein......................


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7141070
Profil sup​primé
Posté le 30-09-2009 à 17:52:27  answer
 

Rafale06 a écrit :


 
 
Chacun fait comme il a envie hein......................


 
Oué, 6Go de RAM pour CG grand public, même THG, c'est très crédible... :D
Ca sera pour une Quadro FX 6800(?) à plus de 3.000 roros surtout.

n°7141078
Profil sup​primé
Posté le 30-09-2009 à 17:58:01  answer
 

kaiser52 a écrit :

Moi je prendrais une GTX380 6Go !

ce qui ne servira à rien, puisque que tu décèderas rapidement sans tes 2 reins que tu auras vendu pour acheter la CG. [:cerveau o]

n°7141085
kaiser52
Posté le 30-09-2009 à 18:01:39  profilanswer
 


 
Le but c'est de se faire plaisir, après les conséquences ... on s'en fout !!
Nan mais les 6go c'est une bonne blague, à vrai dire 2/3go c'est pile ce qu'il faudrait.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7141096
jesaipacki
Posté le 30-09-2009 à 18:04:26  profilanswer
 

Bon y a quoi à 22H là?
 
Une vraie Info (enfin)?  :??:

n°7141101
Profil sup​primé
Posté le 30-09-2009 à 18:05:50  answer
 

jesaipacki a écrit :

Bon y a quoi à 22H là?
 
Une vraie Info (enfin)?  :??:


 
Présentation officielle de l'architecture GT300...

n°7141104
jesaipacki
Posté le 30-09-2009 à 18:07:46  profilanswer
 


Cool, après on pourra polémiquer sur ses performances et son prix.  :sol:

n°7141108
Profil sup​primé
Posté le 30-09-2009 à 18:09:12  answer
 

jesaipacki a écrit :


Cool, après on pourra polémiquer sur ses performances et son prix.  :sol:


 
On t'a pas attendu. [:hahaguy]

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  22  23  24  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)