Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
6480 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  18  19  20  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7137369
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 28-09-2009 à 01:22:54  profilanswer
 

Reprise du message précédent :
Ils ont conçu la lib CPU bien mieux que la lib GPU, c'est évident puisque c'est bien plus facile de coder pour un CPU, mais dans Batman AA ils ont délibérément restreint l'exécution du PhysX sur CPU afin de faire mal paraître les Radeon, même si elles sont accompagnées d'un Core i7 à 4 GHz.

mood
Publicité
Posté le 28-09-2009 à 01:22:54  profilanswer
 

n°7137374
Rafale06
Vive les Suisses (Neutre..)
Posté le 28-09-2009 à 01:41:28  profilanswer
 

eldervador a écrit :


 
Prépare toi a accueillir du rouge dans ton PC ! :)  
De plus tant mieux pour toi, les nouvelles HD5800 vont surement baisser d'ici 3~4 mois comme tu dis.
 


 
 
Si je prends du rouge.........je dirais possible ^^ mais il faudra une carte autrement plus perfs qu'une HD 5870 ......
 
Donc je dirais que j'attendrais une version plus évolués que celle-çi........dans 1ans ou bien je verrais ce que donnera nvidia  dans 1ans ^^
 
Savoir attendre est hyper bénéfique pour le joueur ^^ marre de claquer 600euros dans une carte.....
 
 
Au final comme je disais je prendrais le meilleur rapport prix / perfs.......


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7137375
Rafale06
Vive les Suisses (Neutre..)
Posté le 28-09-2009 à 01:43:00  profilanswer
 

hidetoo a écrit :

:jap:
 
Moi je sais pas quoi faire de ma 280, soit je lui achete une petite soeur, soit je me prend un cf de 5850 mais je risque de perdre pas mal a la sortie du GT300, là ATI me tente vraiment mais je sais que mon coeur chavire pour les Geforce, alors acheter un cf pour attendre le GT300 ... useless :lol:


 
 
Aucun interêt à l'heure actuel de changer ta GTX 280 ^^........mais si tu as un budget limité il vaut mieux prendre un crossfire dans quelques mois (le temps que les prix baissent)


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7137379
Rafale06
Vive les Suisses (Neutre..)
Posté le 28-09-2009 à 01:53:23  profilanswer
 

marllt2 a écrit :


Pour avoir des résultats pareils, c'est bien plus que +100% de specs d'un GT200.

 
 
Nouvelle architecture, DDR5 et si les specs = x2 ........ça va faire trés mal ;)........du moins sur le papier, now on verra bien d'ici quelques jours...
 
 
 


 

marllt2 a écrit :


Si c'est un slide de Batman avec PhysX où nV montre qu'une GTX 295 est 3x plus rapide qu'une 5800, ça compte ? :whistle:

 
A mon avis il y aura bcp plus que ça d'ici quelques jours ^^.......on verra bien si ma boule est plus efficace que wirmish ;)
 
 



Message édité par Rafale06 le 28-09-2009 à 01:54:05

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7137380
MEI
|DarthPingoo(tm)|
Posté le 28-09-2009 à 01:57:03  profilanswer
 

Gigathlon a écrit :


Un core d'i7 920 en FP32 c'est quand même du 21GFlops, là ils arrivent malgré une lib pourrie jusqu'à l'os à faire 16fps là où une 8600gt et ses 75GFlops en sort 49, une 9800gtx et ses 580GFlops en sortant elle 78.
 
En clair, si ils avaient conçu la lib CPU aussi bien que la lib GPU (multi-threading?), on en serait au niveau de la 8600gt, qui pour rappel permet à la 9800gtx de dépasser la GTX275 seule...


Heu, allé on va faire un ratio :
* Core i7 on a ~1,3125 fps/Gflops
* 8600GT on a ~1,5305 fps/Gflops
 
Perso je ne trouve pas le Core i7 si minable que ça sachant que :
- Un Core i7 a moins de bande passante RAM qu'une 8600GT.
- Un Core i7 a autre chose a foutre que le PhysX, le thread peut se balader de core en core, le cache L3 est partagé.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7137384
Rafale06
Vive les Suisses (Neutre..)
Posté le 28-09-2009 à 02:00:50  profilanswer
 

Wirmish a écrit :


Ça ne ressemble en rien à mes posts.  :non:  
 
Je n'ai jamais chiffré les perfs de la GT300.
 
Je parle essentiellement des problèmes que semble rencontrer nVidia.
J'analyse les infos provenant de son premier GPU en 40nm.
 
Je constate aussi qu'on a pas de photo de la GT300, alors qu'on en avait de la HD5870 avant son lancement.
Je vois aussi que les rumeurs ne s'entendent même pas sur la taille du bus, alors que celle du RV870 était connu depuis longtemps.
 
Bref, moi je regarde les faits, et je les appliquent au GT300 quand c'est pertinent.
Je ne cite pas des benchs qui viennent d'on ne sait d'où et qui ne veulent rien dire.
 
 
Si tu veux des rumeurs sur le GT300, en voici :
· 3 x computing power vs GT200
· 384 bit memory bus
· 2.2 TFlop

· Core frequency: 700 MHz
· 512 SP
· Shaders frequency: 1600 MHz
· GDDR5 frequency: 1100 MHz
· Launch date: november 27
· Perfs: P2xxxx in 3DMark Vantage
· Retail price: $499.
 
 
Excuse moi mais franchement je vais faire trés simple .......Nul......sur ce je te laisse divaguer comme d'habitude ;)
Et arrête de prendre les pires rumeurs svp........


 
Ps: Pis au fait on a compris que Nvidia a quelques probs avec le 0,40nm pas la peine de remettre la sauce 500fois sur le topic........

Message cité 1 fois
Message édité par Rafale06 le 28-09-2009 à 02:31:41

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7137395
sharshar
Slava Ukraini
Posté le 28-09-2009 à 02:16:26  profilanswer
 

c'est reparti pour un tour  [:barthaliastoxik]


---------------
PSN : aLka94/Sharshar_Bling
n°7137424
hifibuff
Posté le 28-09-2009 à 07:14:57  profilanswer
 

Faites que non :(

n°7137425
marllt2
Posté le 28-09-2009 à 07:18:16  profilanswer
 

http://golubev.com/about_cpu_and_gpu_2_en.htm
 
http://img34.imageshack.us/img34/4030/empirical.png
http://img34.imageshack.us/img34/6104/estimatesg.png
 
 [:brainbugs]


Message édité par marllt2 le 28-09-2009 à 07:45:16
n°7137432
djffff
Time's like ocean in storm.
Posté le 28-09-2009 à 07:48:04  profilanswer
 

Il a carrément fumé la moquette celui la :p
Il doit plus en rester beaucoup chez lui


Message édité par djffff le 28-09-2009 à 07:49:13
mood
Publicité
Posté le 28-09-2009 à 07:48:04  profilanswer
 

n°7137433
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 28-09-2009 à 07:50:48  profilanswer
 

Mais il a fumé la moquette le gars qui a sorti ce tableau !


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7137454
fifi86
Glandeur pro !
Posté le 28-09-2009 à 08:52:10  profilanswer
 



 
Bin ouai ça date pas de hier pour les GTX285 d'ailleurs.


---------------
...
n°7137456
marllt2
Posté le 28-09-2009 à 08:54:18  profilanswer
 

Site de la conférence nV du 30/09 au 02/10: https://nvidiagtc.wingateweb.com/
 
Et planning: http://www.nvidia.com/object/gpu_t [...] rence.html
 
 

fifi86 a écrit :

Bin ouai ça date pas de hier pour les GTX285 d'ailleurs.


source ?

Message cité 2 fois
Message édité par marllt2 le 28-09-2009 à 09:01:59
n°7137487
MEI
|DarthPingoo(tm)|
Posté le 28-09-2009 à 09:49:31  profilanswer
 

Rafale06 a écrit :


 
Ps: Pis au fait on a compris que Nvidia a quelques probs avec le 0,40nm pas la peine de remettre la sauce 500fois sur le topic........


Pour rappel c'est pas NVIDIA qui fabrique, donc NVIDIA a pas du mal avec le 40nm, euh ils font que des plan einh... :o
 
Si NVIDIA a plus de mal qu'ATI c'est juste qu'ils ont pris des choix diffèrent sur la taille des puces et que donc forcement ça a un impact. Mais c'est pas eux qui ont du mal, c'est TSMC. :spamafote:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7137566
Gigathlon
Quad-neurones natif
Posté le 28-09-2009 à 11:16:28  profilanswer
 

MEI a écrit :

Si NVIDIA a plus de mal qu'ATI c'est juste qu'ils ont pris des choix diffèrent sur la taille des puces et que donc forcement ça a un impact. Mais c'est pas eux qui ont du mal, c'est TSMC. :spamafote:


Y'a pas que la taille de la puce qui joue.
 
Le design de la puce a au moins autant d'influence, chaque process ayant ses paramètres.
 

super_newbie_pro a écrit :

Mais il a fumé la moquette le gars qui a sorti ce tableau !


En dehors des chiffres annoncés pour le GT300, c'est pourtant bien la réalité... :o


Message édité par Gigathlon le 28-09-2009 à 11:18:12
n°7137641
secalex
Stalker forever
Posté le 28-09-2009 à 12:05:27  profilanswer
 

MEI a écrit :


Pour rappel c'est pas NVIDIA qui fabrique, donc NVIDIA a pas du mal avec le 40nm, euh ils font que des plan einh... :o
 
Si NVIDIA a plus de mal qu'ATI c'est juste qu'ils ont pris des choix diffèrent sur la taille des puces et que donc forcement ça a un impact. Mais c'est pas eux qui ont du mal, c'est TSMC. :spamafote:


De plus à la base, il était prévu que Nvidia soit le premier à benéficier du 40 nm.
Vu les pbs de TSMC ce ne fut pas le cas car c'est AMD qui a dépêché des ingés pour aider TSMC.
 
Le retard de Nv vient aussi du fait qu'ils n'ont aucune capacité à influer sur le process au contraire d'AMD.


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7137709
MEI
|DarthPingoo(tm)|
Posté le 28-09-2009 à 13:02:42  profilanswer
 

secalex a écrit :


De plus à la base, il était prévu que Nvidia soit le premier à benéficier du 40 nm.
Vu les pbs de TSMC ce ne fut pas le cas car c'est AMD qui a dépêché des ingés pour aider TSMC.
 
Le retard de Nv vient aussi du fait qu'ils n'ont aucune capacité à influer sur le process au contraire d'AMD.


ATI qui est une division d'AMD n'a juste un peu rien à avoir avec Global Foundries...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7137716
secalex
Stalker forever
Posté le 28-09-2009 à 13:10:09  profilanswer
 

MEI a écrit :


ATI qui est une division d'AMD n'a juste un peu rien à avoir avec Global Foundries...


J'ai pas parlé de global foundries... :??:


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7137717
seu
Posté le 28-09-2009 à 13:11:47  profilanswer
 

Moi j'attend juste un GT300 performant et au juste prix ( :D ) histoire qu'il y est une belle bataille de prix , que mon coeur flashe pour la plus belles des cartes (selons mes critères , mais un retour chez les verts n'est pas à exclure ! ) et que tout le monde soit gagnant niveau porte feuille !


Message édité par seu le 28-09-2009 à 13:14:19
n°7137764
fifi86
Glandeur pro !
Posté le 28-09-2009 à 13:40:41  profilanswer
 



 
Ba Nvidia directement.  
Ils ont arrêtés de livrer c'est un fait, j'y peux rien.  :(


---------------
...
n°7137841
dr g frag
In Game
Posté le 28-09-2009 à 14:42:53  profilanswer
 

Moi j'attend surtout un comparatif 58x0X2 vs GT300 pour voir par quoi je remplacerais ma 4870x2


---------------
Site perso | Mes ventes
n°7137845
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 28-09-2009 à 14:46:04  profilanswer
 

Citation :

To say that Nvidia has been tight-lipped over its next-gen DX11 GT300 would be an understatement - uncharacteristic for a company which hasn't been able to keep a secret since the phenomenal G80.
 
Following some details we revealed, including the 384-bit memory interface and a P2xxxx target, Fudzilla has scored some more information about the elusive GT300. GT300 is also rumoured to contain 480-512 MIMD shader units.
 
The codename is Fermi, after the renowned nuclear physicist, Enrico Fermi, the man behind Chicago Pile-1, the very first artificial nuclear reactor. While AMD have gone for green, Nvidia have gone explosive - perhaps indicative of their respective strategies.
 
It is clear that Nvidia are concentrating as much, if not more, on parallel computing rather than gaming. GT300 is expected to be a revolution, rather than the evolution Cypress was. GT300 will be large and hot, and is rumoured to be faster than the HD 5870. It is unknown as to how the GT300 will compete with Hemlock (5870 X2) - although Fudzilla suggest a dual-GT300 version is being planned. That could mean - a) A significantly cut down version of GT300 x 2; b) GT300 is more efficient than we are expecting; c) World's first widely distributed >300W TDP card. (Asus Mars is the only one thus far, though it is very much a limited edition) or d) Nvidia have to wait till the next half-node die shrink, like they did with GT200.
 
The GT300 sounds like a great product in the making, indeed, but on the other side of rumours, there are still concerns over GT300's yields.
 
GT300 is expected to hit stores in December, and hopefully we will have some official information in the coming month. If we were Nvidia, we would definitely push official information, demonstrations and performance slides as soon as possible. ATI's 5800's demands are largely outstripping supply, and it would help Nvidia if they can convince consumers that something great is around the corner, wait for it.

source : http://vr-zone.com/articles/-rumou [...] l?doc=7760

Message cité 1 fois
Message édité par super_newbie_pro le 28-09-2009 à 15:09:42

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7137873
Yoyo_5
Posté le 28-09-2009 à 15:06:16  profilanswer
 

super_newbie_pro a écrit :

Citation :

To say that Nvidia has been tight-lipped over its next-gen DX11 GT300 would be an understatement - uncharacteristic for a company which hasn't been able to keep a secret since the phenomenal G80.
 
Following some details we revealed, including the 384-bit memory interface and a P2xxxx target, Fudzilla has scored some more information about the elusive GT300. GT300 is also rumoured to contain 480-512 MIMD shader units.
 
The codename is Fermi, after the renowned nuclear physicist, Enrico Fermi, the man behind Chicago Pile-1, the very first artificial nuclear reactor. While AMD have gone for green, Nvidia have gone explosive - perhaps indicative of their respective strategies.
 
It is clear that Nvidia are concentrating as much, if not more, on parallel computing rather than gaming. GT300 is expected to be a revolution, rather than the evolution Cypress was. GT300 will be large and hot, and is rumoured to be faster than the HD 5870. It is unknown as to how the GT300 will compete with Hemlock (5870 X2) - although Fudzilla suggest a dual-GT300 version is being planned. That could mean - a) A significantly cut down version of GT300 x 2; b) GT300 is more efficient than we are expecting; c) World's first widely distributed >300W TDP card. (Asus Mars is the only one thus far, though it is very much a limited edition) or d) Nvidia have to wait till the next half-node die shrink, like they did with GT200.
 
The GT300 sounds like a great product in the making, indeed, but on the other side of rumours, there are still concerns over GT300's yields.
 
GT300 is expected to hit stores in December, and hopefully we will have some official information in the coming month. If we were Nvidia, we would definitely push official information, demonstrations and performance slides as soon as possible. ATI's 5800's demands are largely outstripping supply, and it would help Nvidia if they can convince consumers that something great is around the corner, wait for it.

source : http://forum.hardware.fr/hfr/Hardw [...] m#t7137839


Ta source est foireuse... :D


---------------
¤ Paix et félicité ¤

n°7137876
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 28-09-2009 à 15:08:29  profilanswer
 

+1 [:afrojojo] CTRL+C / CTRL+V loupé :p


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°7137881
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 28-09-2009 à 15:09:54  profilanswer
 

rectifié ^^


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7137919
Mekky76
Posté le 28-09-2009 à 15:37:56  profilanswer
 

ca doit etre une blague les 300watts ?? explosion... de la facture EDF ?  :fou:

n°7137924
TsuM
Posté le 28-09-2009 à 15:42:29  profilanswer
 

Allez nv tu peux le faire balances des vrais infos ^^
 
et pas des leaks de merde :p


---------------
Feed-Back   Président du PiseptO (Paidai i7 Owner)
n°7137928
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 28-09-2009 à 15:46:16  profilanswer
 

Mekky76 a écrit :

ca doit etre une blague les 300watts ?? explosion... de la facture EDF ?  :fou:


Vrai ou pas c'est de toute manière prévisible... :sleep:


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7137934
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 28-09-2009 à 15:48:54  profilanswer
 

super_newbie_pro a écrit :


Vrai ou pas c'est de toute manière prévisible... :sleep:


...en même temps on est pas en Full load tout le temps hein :o !
 
...il y a le mode 2D après ;)


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°7137937
Mekky76
Posté le 28-09-2009 à 15:54:02  profilanswer
 

Mais disons que la HD 5870 c'est 190 watts en full... Je ne sais pas comment Nvidia pourra justifier des prix hauts (si plus haut que ati) si la technologie dedans est pas à la pointe de l'ecoénergie, la révolution verte, c'est aujourd'hui... j'imagine le nombre d'éoliennes qu'il faudrait partout si personne faisait d'effort !  :lol:  mais faut attendre de voir si ca sera vrai ou pas...

n°7137943
mikestewar​t
Air Roll Spinnin'
Posté le 28-09-2009 à 15:59:34  profilanswer
 

Mekky76 a écrit :

ca doit etre une blague les 300watts ?? explosion... de la facture EDF ?  :fou:

 

Ca reste une des 3 hypothèses du rédacteur (qui n'engagent que lui) à partir de la rumeur de bi-GT300 made in Fudzilla. :o Enfin, il est pas le seul à se poser la question du "comment c'est qu'on fait une bi-GT300".  :D


Message édité par mikestewart le 28-09-2009 à 16:01:21
n°7137961
Mekky76
Posté le 28-09-2009 à 16:07:23  profilanswer
 

Ah oui j'avais mal lu, c'est pour la bi-gpu... donc on peut esperer, dans les milieux autorisés à penser qu'on doit pas dire ( :lol: ), que la mono-gpu sera autour de 150 watts (restera à voir en idle)

n°7137991
Rafale06
Vive les Suisses (Neutre..)
Posté le 28-09-2009 à 16:29:23  profilanswer
 

fifi86 a écrit :


 
Ba Nvidia directement.  
Ils ont arrêtés de livrer c'est un fait, j'y peux rien.  :(


 
 
+1 les GTX 285 n'ont plus d'avenirs au tarifs affichés.......surtout si la relève arrive bientôt.  
 
Sauf si Nvidia déçide de baisser le tarif .... ;)
 
 
Par contre il existe encore un avenir commercial pour les GTX 260+ et les GTX 275 ;) du moins pour encore quelques mois.....

Message cité 1 fois
Message édité par Rafale06 le 28-09-2009 à 16:36:55

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7138003
Yoyo_5
Posté le 28-09-2009 à 16:36:17  profilanswer
 

super_newbie_pro a écrit :

Vrai ou pas c'est de toute manière prévisible... :sleep:


Si je joue 2h par jour, c'est vraiment la lune, donc qu'elle consomme 300W, ça n'est pas important pour moi tant que le mode 2D suit bien derrière. ;)
Et quand bien même il ne suivrait pas, on trouverait bien un moyen, comme avec les 4870, pour faire en sorte que ça ne consomme pas grand chose en 2D. :D


---------------
¤ Paix et félicité ¤

n°7138019
Gigathlon
Quad-neurones natif
Posté le 28-09-2009 à 16:55:45  profilanswer
 

Rafale06 a écrit :

+1 les GTX 285 n'ont plus d'avenirs au tarifs affichés.......surtout si la relève arrive bientôt.  
 
Sauf si Nvidia déçide de baisser le tarif .... ;)


T'as aussi oublié l'hypothèse d'une GTX285+ avec des fréquence un pwal à la hausse.
 
Et qui nous dit que le GT212 n'existe plus? Si on suit la logique, le GT214 serait un GPU à 192SP et le GT212 aurait les 240SP du GT200, le support de DX10.1 en prime.
 
L'écart est tel entre le GT215 (<4850) et la 5870 (~4870X2 et ~GTX295) qu'ils sont obligés de sortir un GPU entre GT215 et GT300, à moins que le GT300 ne soit complètement à la rue.

n°7138084
MEI
|DarthPingoo(tm)|
Posté le 28-09-2009 à 17:53:09  profilanswer
 

Gigathlon a écrit :


T'as aussi oublié l'hypothèse d'une GTX285+ avec des fréquence un pwal à la hausse.
 
Et qui nous dit que le GT212 n'existe plus? Si on suit la logique, le GT214 serait un GPU à 192SP et le GT212 aurait les 240SP du GT200, le support de DX10.1 en prime.
 
L'écart est tel entre le GT215 (<4850) et la 5870 (~4870X2 et ~GTX295) qu'ils sont obligés de sortir un GPU entre GT215 et GT300, à moins que le GT300 ne soit complètement à la rue.


A priori le GT212 risque d'arrivé tot ou tard vu que NVIDIA a priori ne va pas faire du DX11 sur toute la gamme (etrange comme rumeur mais bon si tel est le cas c'est leur seul choix possible)...
 
Et donc un GT200 en GDDR5 + DX10.1, sans NVIO et 40nm, ça permettrais je pense de chatouiller les 5850... Bon clairement ca serait que DX10.1 donc embattant, mais niveau perf c'est plausible.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7138139
Rafale06
Vive les Suisses (Neutre..)
Posté le 28-09-2009 à 18:33:39  profilanswer
 

Gigathlon a écrit :


T'as aussi oublié l'hypothèse d'une GTX285+ avec des fréquence un pwal à la hausse.

 

Et qui nous dit que le GT212 n'existe plus? Si on suit la logique, le GT214 serait un GPU à 192SP et le GT212 aurait les 240SP du GT200, le support de DX10.1 en prime.

 

L'écart est tel entre le GT215 (<4850) et la 5870 (~4870X2 et ~GTX295) qu'ils sont obligés de sortir un GPU entre GT215 et GT300, à moins que le GT300 ne soit complètement à la rue.

 


Les cartes DX10.1 qui vont sortirs ou sont sortis sont :

 

Versions mobiles (beuarkkk)
Version desktop uniquement pour les intégrateurs oem (donc aucune chance d'en acheter dans le commerce)

 

Au final quoi ??? ressortir une énieme version (GTX 285+) ...........je pense pas ^^ et sortir encore une carte DX10.1 alors qu'il y a DX11 serait un suicide commercial et marketing.

 

Il y a plus de chance que plusieurs versions seront déclinés du GT300 pour aller taquiner les HD58xx

 

Exemple une version trés haut de gamme avec bus 448bits minimum et 384bits pour la version haut de gamme....fréquence moindre pour la DDR5, et fréquence gpu / shader moindre aussi avec pk pas un castrage des unités de calculs ...

 


Message cité 1 fois
Message édité par Rafale06 le 28-09-2009 à 18:37:18

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7138194
dragonlore
Posté le 28-09-2009 à 18:56:15  profilanswer
 

sapphire adepte xd a écrit :

Pour moi les changements DX11 dans stalker, c'est du minimidétail :/


tu n'as pas du regarder les images car c'est tout sauf du minidétail

n°7138211
dragonlore
Posté le 28-09-2009 à 19:03:25  profilanswer
 

bigbenze a écrit :


 
lis tout les commentaires au lieu de dire des trucs qui n'ont pas de sens surtout que la 5870 je l'ai commandé le lendemain de sa sortie donc les tests étaient déja sortie et je savais à quoi m'attendre.
 


tu as vendu ta carte 2 mois avant, c'est ce que tu as dit donc c'est bizarre.

n°7138247
sasuke87
Posté le 28-09-2009 à 19:16:49  profilanswer
 

Je trouve que le G80 voire même le R600 et leurs dérivés auront eu la vie bien belle depuis leur sortie, contrairement aux radeon 9700pro/geforce fx ou même les radeons x1900/gefroce 7900 qui elles ont subi une réelle évolution des graphismes dans les jeux (et d'ailleurs certaines cg ont fait de la belle résistance à cette évolution).

 

Depuis la sortie de crysis, y a plus rien eu de vraiment époustouflant, je me demande si dans l'histoire du jeu vidéo, la beauté des jeux a autant stagné qu'actuellement  :sweat: (en tout cas depuis l'essor des cartes graphiques et DX).

 

J'espère sincèrement que le GT300 sera orienté au maximum vers DX11, et si les perfs ne sont pas tellement extraordinaires dans le jeux actuels où on a déjà atteind des sommets avec la HD4870X2 (parce que bon la GTX295 n'a pas changé grand chose) pour moi ça ne serait pas grave. D'ailleurs ça serait peut être un moyen de pousser un peu plus rapidement les développeurs à concevoir leurs jeux différemment. Et si le GT300 est tout juste bon en DX9/DX10 tout pourrite à la crysis, ça poussera également nvidia à mettre la pression aux développeurs pour faire du DX11.

 

Bon maintenant faudra voir aussi si à la sortie du GT300, nvidia parle plus de physX, CUDA, 3d vision que de DX11, parce que si c'est le cas, ça risque de ne pas trop sentir bon pendant encore longtemps  :sweat:

 

Message cité 3 fois
Message édité par sasuke87 le 28-09-2009 à 19:18:29
n°7138262
dragonlore
Posté le 28-09-2009 à 19:23:35  profilanswer
 

sasuke87 a écrit :

 

Depuis la sortie de crysis, y a plus rien eu de vraiment époustouflant, je me demande si dans l'histoire du jeu vidéo, la beauté des jeux a autant stagné qu'actuellement  :sweat: (en tout cas depuis l'essor des cartes graphiques et DX).

 



comme c'est la première fois qu'autant de jeux vidéos sont vraiment basés que sur la console au niveau technique, c'est donc la première fois que ça stagne autant. Tant que ça sera le cas ça stagnera.

 

Pour que ça ne stagne plus, soit il faut espérer que le PC reprenne la main niveau lead plateform pour les jeux ou la sortie des nouvelles consoles (mais là il  y aura un saut puis à nouveau stagnation)

 
Citation :

Bon maintenant faudra voir aussi si à la sortie du GT300, nvidia parle plus de physX, CUDA, 3d vision que de DX11, parce que si c'est le cas, ça risque de ne pas trop sentir bon pendant encore longtemps  :sweat:


moi je vois pas de rapport entre les 2. si nvidia parle plus du physx et cuda que de dx11, c'est juste que si nvidia arrive à rendre majoritaire cuda et physx c'est une façon d'enfoncer encore plus ati car ati ne peut supporter cuda ou physx vu que c'est une techno prorpiétaire au lieu de dx11.

 

Bref, nvidia comme toute société préfère mettre en avant leurs propres technos qu'une techno globale. Bref je pense pas que parceque nvidia ne parle pas de dx11 que ça sent le sapin pour dx11 avec le gt300.
si nvidia parlait de dx11 ce serait un désaveu pour cuda et physx.

Message cité 2 fois
Message édité par dragonlore le 28-09-2009 à 19:27:56
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  18  19  20  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)