Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3486 connectés 

 

 

Vous allez vous payer...




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  347  348  349  ..  391  392  393  394  395  396
Auteur Sujet :

[Topic Unique] GeForce 9 : dernière màj le 19/03/08

n°6310982
Agent heav​y
Posté le 01-04-2008 à 20:08:54  profilanswer
 

Reprise du message précédent :

Activation a écrit :


 
 
depuis quand les marketeux AMD savent mentir  :??:  
 
franchement y en a qui y on cru à la hd2900 avec tout le retard et les info officieusement distillé sur les bugs avant meme sa sortie
suffit de se rappeler le nombre de revision du R600 avant ça sortie... y en a pas eu dans les 13 revision de souvenir avant de partir à la vente.... 13 revisions sur 1 produit tout neuf... non non y avait pas du tout de pb de conception  :whistle:  


 
On appel ca le biais de la rétrospective ou phénomène du "je le savais". On ne pouvait pas prévoir objectivement ce qu'allait nous pondre ATi.

mood
Publicité
Posté le 01-04-2008 à 20:08:54  profilanswer
 

n°6310984
marllt2
Posté le 01-04-2008 à 20:09:11  profilanswer
 

Gigathlon a écrit :

Si nVidia leur ouvre le SLI leurs chipsets n'auront plus d'intérêt en même temps [:yamusha]


Mais si il y a l'Hybrid Power. :o

n°6310985
ebola2
ah ah ah
Posté le 01-04-2008 à 20:09:21  profilanswer
 

bon j'ai lu le test hfr, complètement d'accord avec leur conclusion, on nous prend pour des cons clairement. Pour ceux qui n'ont pas de 8800 gtx-ultra, ok, pour ceux qui l'ont déjà ou peuvent trouver une gtx d'occas ou neuve à pas cher NON !
après tout une telle carte graphique est faite pour le jeu pas pour un bench 3dmark06, et là : pouf ! et encore 18 mois après avec dx10 filtres et tout que dalle, un beau foutage de gueuke avec gtx en prime...

n°6310994
overclockp​ro
Posté le 01-04-2008 à 20:12:00  profilanswer
 

ebola2 a écrit :

bon j'ai lu le test hfr, complètement d'accord avec leur conclusion, on nous prend pour des cons clairement. Pour ceux qui n'ont pas de 8800 gtx-ultra, ok, pour ceux qui l'ont déjà ou peuvent trouver une gtx d'occas ou neuve à pas cher NON !
après tout une telle carte graphique est faite pour le jeu pas pour un bench 3dmark06, et là : pouf ! et encore 18 mois après avec dx10 filtres et tout que dalle, un beau foutage de gueuke avec gtx en prime...


 
Même pour ceux qui n'ont pas de 8800 GTX-Ultra, elle n'est pas intéressante : les 8800 GTS 512 et les 8800 GTX (212 €) sont moins chères !

n°6310995
kaiser52
Posté le 01-04-2008 à 20:12:04  profilanswer
 

overclockpro a écrit :


 
Je pense même que Nvidia pourrait être le repreneur d'AMD, une fois que l'action AMD aura davantage chuté. Pour contrer Intel, en particulier, le CPU-GPU. AMD apporterait son expertise CPU. Le seul frein est ATI car ATI racheté par Nvidia serait vu d'un mauvais oeil par les autorités anti-monopole. Mais ils pourraient fermer les yeux, plutôt que de voir plusieurs milliers d'employés AMD à la rue...
 
Donc en 2010, aura t-on seulement Intel et Nvidia en tant que fournisseurs de CPU et de GPU ?


 
J'aimerais bien revoir Matrox sur les devant de la seine !
Pour l'instant ATI n'a pas de raison de se faire racheter.
Que ce soit Intel ou Nvidia qui rachète poserait un problème pour les autorités anti-monopole, Intel > plus de concurent CPU, nVIDIA > plus de concurent direct en GPU...
 
N'empêche que y'à des fan boys qui se véraient bien avec un PC Full Nvidia (CPU, GPU, CM....).


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6310997
marllt2
Posté le 01-04-2008 à 20:13:23  profilanswer
 

overclockpro a écrit :

Je ne vendrais pas la peau de l'ours...
 
On connaît ATI : question marketing, ils sont très forts. Cf R600 qui devait tout écraser...
 
En plus, AMD-ATI ont des difficultés financières et ATI a vendu peu de cartes par rapport à Nvidia. Or la R&D coûte très cher. A mon avis, le RV770 sera comme le R600, décevant par rapport au GeForce 10. A condition qu'AMD-ATI existe encore lors de la sortie du RV770...


Y'a pas de mauvaise suprise à attendre, le RV770 est un RV670 avec +80% de puissance/BP. Un peu comme la 9700 vs X800. Au pire l'AA se fera toujours par les shaders, mais c'est tout. :o


Message édité par marllt2 le 01-04-2008 à 20:14:19
n°6310998
Geniefou
Génie le jour, fou la nuit
Posté le 01-04-2008 à 20:15:26  profilanswer
 

kaiser52 a écrit :


N'empêche que y'à des fan boys qui se véraient bien avec un PC Full Nvidia (CPU, GPU, CM....).


 
Après on aura le PC en Full SLI (processeur, carte graphique, disque durs, mémoire vive) :whistle:  

n°6311002
Activation
21:9 kill Surround Gaming
Posté le 01-04-2008 à 20:17:01  profilanswer
 

Agent heavy a écrit :


 
On appel ca le biais de la rétrospective ou phénomène du "je le savais". On ne pouvait pas prévoir objectivement ce qu'allait nous pondre ATi.


 
ptet pas à 100% pure sur
 
mais en gros à 80ù ça sentais le moisi
 
et le "vous serez surpris... j ai pas le droit d en dire plus" limite boite vocale
c était la confirmation avant vente

n°6311008
Gigathlon
Quad-neurones natif
Posté le 01-04-2008 à 20:19:42  profilanswer
 

ebola2 a écrit :

bon j'ai lu le test hfr, complètement d'accord avec leur conclusion, on nous prend pour des cons clairement. Pour ceux qui n'ont pas de 8800 gtx-ultra, ok, pour ceux qui l'ont déjà ou peuvent trouver une gtx d'occas ou neuve à pas cher NON !
après tout une telle carte graphique est faite pour le jeu pas pour un bench 3dmark06, et là : pouf ! et encore 18 mois après avec dx10 filtres et tout que dalle, un beau foutage de gueuke avec gtx en prime...


Pour Quake Wars, la GTS suffit amplement, limite une 9600GT aussi...
Pour HL2, idem...
Pour Stalker, idem...
Pour R6V, idem, et en plus elle se fait ridiculiser par une HD3870 vendue 160€ mais qui fait jeu égal... Idem pour Oblivion au passage.
 
Je vais pas continuer, c'est pareil de bout en bout.

n°6311012
kaiser52
Posté le 01-04-2008 à 20:20:24  profilanswer
 

Geniefou a écrit :


 
Après on aura le PC en Full SLI (processeur, carte graphique, disque durs, mémoire vive) :whistle:  


 
Et après on aura une nVIDIA GTXBox en console de salon etc...
Déjà si nvidia pouvais arrête de faire de la mouise ce serait bien !
Je veux une vrai CG HDG, et du nforce comme à la belle époque du nforce2...
ATI y est pour quelque chose, mais pas entièrement, faut pas tous lui mettre dans la tronche.
 
J'aurais trouvé plus loyale de sortir une vrai 9800GTX, que de resté au même niveau que du HDG d'il y à 2 ans, c'est une sorte de manque de respect.
 
edit :  
 

Gigathlon a écrit :


Pour Quake Wars, la GTS suffit amplement, limite une 9600GT aussi...
Pour HL2, idem...
Pour Stalker, idem...
Pour R6V, idem, et en plus elle se fait ridiculiser par une HD3870 vendue 160€ mais qui fait jeu égal... Idem pour Oblivion au passage.
 
Je vais pas continuer, c'est pareil de bout en bout.


 
Une GTS640 suffit déja .... peut être pas sur R6V, mais le reste sa passe sans problèmes. au pire un petit OC et sa passe !

Message cité 1 fois
Message édité par kaiser52 le 01-04-2008 à 20:22:07

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
mood
Publicité
Posté le 01-04-2008 à 20:20:24  profilanswer
 

n°6311016
angela-pcs
Posté le 01-04-2008 à 20:22:32  profilanswer
 

Pour conclure de tout ça le tout est que si la personne n'as pas de 8800gt 3870 512 ou 8800gtx/ultra gts g92 une 9900 gtx a bon prix c'est quand meme pas une "bouze sans non "
 
A si peu d'intervalle avec les 8800gts g92 et en sachant depuis lomgtemps que cette carte serait une g92 avec de la samsung a 0.8ns il fallait pas s'attendre a des miracles
 
Apres elle a pour certaines personnes des "bonnes choses" :
 
Bon oc gpu et ram ( 1200 pour la ram c'est pas si mal ) , pcb noir etc.
 
Le tout est de l'avoir a bon prix ( apres a bon prix ça tue les 8800gts g92 ça c'est certain )

n°6311017
overclockp​ro
Posté le 01-04-2008 à 20:22:43  profilanswer
 

kaiser52 a écrit :


 
J'aimerais bien revoir Matrox sur les devant de la seine !
Pour l'instant ATI n'a pas de raison de se faire racheter.
Que ce soit Intel ou Nvidia qui rachète poserait un problème pour les autorités anti-monopole, Intel > plus de concurent CPU, nVIDIA > plus de concurent direct en GPU...
 
N'empêche que y'à des fan boys qui se véraient bien avec un PC Full Nvidia (CPU, GPU, CM....).


 
Il y a aussi un autre scénario : AMD créé une spin-off constituée par ATI et la charge avec ses 5 milliards de dettes. Ainsi, AMD peut repartir tout neuf, avec une santé financière saine et attirer de nouveaux les investisseurs. Et l'ex-ATI déclarerait banqueroute...Pour AMD, ce serait un des scénarios les moins pires car ils pourraient rega^gner la confiance des investisseurs.
 
Dans ce cas, AMD étant de nouveau une boîte de CPUs, ils se feraient racheter par Nvidia. Et pour la spin-off ex-ATI, pas besoin de la racheter : Intel n'aurait plus qu'à embaucher les ingénieurs ex-ATI à la rue, pour son projet Larrabee, sans devoir rembourser les 5 milliards de dettes.

n°6311026
overclockp​ro
Posté le 01-04-2008 à 20:25:44  profilanswer
 

angela-pcs a écrit :

Pour conclure de tout ça le tout est que si la personne n'as pas de 8800gt 3870 512 ou 8800gtx/ultra gts g92 une 9900 gtx a bon prix c'est quand meme pas une "bouze sans non "
 
A si peu d'intervalle avec les 8800gts g92 et en sachant depuis lomgtemps que cette carte serait une g92 avec de la samsung a 0.8ns il fallait pas s'attendre a des miracles
 
Apres elle a pour certaines personnes des "bonnes choses" :
 
Bon oc gpu et ram ( 1200 pour la ram c'est pas si mal ) , pcb noir etc.
 
Le tout est de l'avoir a bon prix ( apres a bon prix ça tue les 8800gts g92 ça c'est certain )


 
A bon prix : lorsque Nvidia aura écoulé ses stocks de 8800 GTS 512, la 9800 GTX et futures 9800 GTS baisseront fortement. Et a mon avis, dans moins de 3 mois.

n°6311027
Gigathlon
Quad-neurones natif
Posté le 01-04-2008 à 20:25:49  profilanswer
 

kaiser52 a écrit :

J'aurais trouvé plus loyale de sortir une vrai 9800GTX, que de resté au même niveau que du HDG d'il y à 2 ans, c'est une sorte de manque de respect.


Non mais faut arrêter hein, si ils font ça c'est forcément qu'ils n'ont pas le choix!
 
Ils ont un souci quelque part et ils nous réchauffent un GPU qu'ils savent déséquilibré et peine à égaler son ancêtre de 18 mois, n'importe quel consultant marketing te dira la même chose que moi: c'est forcément qu'ils sont dans l'impossibilité de proposer mieux, et ça pour une raison simple: la 9800GTX ne leur rapportera quasiment rien comme ça aura déjà été le cas des 8800GT/GTS, c'est une tentative désespérée de faire de la thune avec un GPU moisi très similaire à ce qu'a fait AMD avec son R600.

n°6311035
angela-pcs
Posté le 01-04-2008 à 20:27:49  profilanswer
 

overclockpro a écrit :


 
A bon prix : lorsque Nvidia aura écoulé ses stocks de 8800 GTS 512, la 9800 GTX et futures 9800 GTS baisseront fortement. Et a mon avis, dans moins de 3 mois.


 
La 9900 gts appel la direct 8800gts g92 renommée  :D

n°6311038
angela-pcs
Posté le 01-04-2008 à 20:28:43  profilanswer
 

Gigathlon a écrit :


Non mais faut arrêter hein, si ils font ça c'est forcément qu'ils n'ont pas le choix!
 
Ils ont un souci quelque part et ils nous réchauffent un GPU qu'ils savent déséquilibré et peine à égaler son ancêtre de 18 mois, n'importe quel consultant marketing te dira la même chose que moi: c'est forcément qu'ils sont dans l'impossibilité de proposer mieux, et ça pour une raison simple: la 9800GTX ne leur rapportera quasiment rien comme ça aura déjà été le cas des 8800GT/GTS, c'est une tentative désespérée de faire de la thune avec un GPU moisi très similaire à ce qu'a fait AMD avec son R600.


 
+1  
 
250w a dissiper , ça fait en gros mon q6600@4ghz et meme si les gpu encaisse plus il faut faire ça dans le silence ( enfin surtout en 2d en 3d osef )

n°6311042
Gigathlon
Quad-neurones natif
Posté le 01-04-2008 à 20:30:22  profilanswer
 

Oui enfin il me semble que justement le R600 était donné à 250w la carte... :whistle:

n°6311044
kaiser52
Posté le 01-04-2008 à 20:31:57  profilanswer
 

Gigathlon a écrit :


Non mais faut arrêter hein, si ils font ça c'est forcément qu'ils n'ont pas le choix!
 
Ils ont un souci quelque part et ils nous réchauffent un GPU qu'ils savent déséquilibré et peine à égaler son ancêtre de 18 mois, n'importe quel consultant marketing te dira la même chose que moi: c'est forcément qu'ils sont dans l'impossibilité de proposer mieux, et ça pour une raison simple: la 9800GTX ne leur rapportera quasiment rien comme ça aura déjà été le cas des 8800GT/GTS, c'est une tentative désespérée de faire de la thune avec un GPU moisi très similaire à ce qu'a fait AMD avec son R600.


 
Donc le GT200 serait de la connerie ?
Ou il à de très gros problème etc....


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6311062
overclockp​ro
Posté le 01-04-2008 à 20:36:49  profilanswer
 

Pour le GT200, la finesse de gravure doit encore s'améliorer pour que l'enveloppe thermique ne dépasse pas des sommets.
 
Aujourd'hui, on est à 754 millions de transistors en 65 nm. Si le GT200 arrive à 900 millions - 1 milliard, la finesse de gravure devra être bien inférieure à 65 nm.  
 
Aujourd'hui, pour 700 millions de transistores, la finesse de gravure la plus faible est de 55 nm, bien insuffisant pour 1 milliard de transistors.
 
Pour cette rasion, même en fin d'année, je ne suis pas sûr que le GT200 sorte.

n°6311066
ebola2
ah ah ah
Posté le 01-04-2008 à 20:38:10  profilanswer
 

overclockpro a écrit :


 
Même pour ceux qui n'ont pas de 8800 GTX-Ultra, elle n'est pas intéressante : les 8800 GTS 512 et les 8800 GTX (212 €) sont moins chères !


 
clairement, sans spéculer sur tout (ce que ça apporte à nvidia pourquoi ils font ça etc.) pour le consommateur, que nada, gagner quelques fps à 80 fps de base, intérêts aucuns, si ce n'est dire purevideo 2, consommation moindre, plus de bruit (!), bref : du vent. Intitulé gf 9...gtx, à quand l'ultra foutage de gueule avec la 9800 ultra ? et je le sens mal le 9900 perso... mais bon le coté positif c'est que tout le monde peut se payer une bonne cg pas loin du hdg actuel à pas grand chose. Franchement nous sortir un pseudo HDG, en moins cher, pour attirer les consommateurs HDG, c'est quasi un mensonge (non c'est un mensonge total)

n°6311067
Gigathlon
Quad-neurones natif
Posté le 01-04-2008 à 20:38:12  profilanswer
 

kaiser52 a écrit :

Donc le GT200 serait de la connerie ?
Ou il à de très gros problème etc....


Ou c'est un G92 bis avec de la GDDR5, qui peine à être disponible ou qu'ils n'arrivent pas à gérer...
 
nVidia n'a pas voulu de la GDDR4 à cause de son prefetch, mais rien ne nous dit pourquoi ce prefetch les embête (à part que soi-disant que le gain de fréquence ne suffit pas à compenser la latence supérieure engendrée), or la GDDR5 aura virtuellement le même prefetch (2 mots de 16bits au lieu d'1 de 32).

Message cité 1 fois
Message édité par Gigathlon le 01-04-2008 à 20:38:38
n°6311072
jeanjean15
buy cheap, buy twice
Posté le 01-04-2008 à 20:39:38  profilanswer
 

Quand on voit qu'en passant du 90 nm ( 8800 GTX ) au 65 nm ( 9800 GTX ) , la conso baisse de très peu  pour des perfs similaires dans la plupart des jeux  , c'est qu'effectivement ils ont surement beaucoup de mal à proposer une carte beaucoup plus puissante sans devoir la watercooler  ou mettre un ventilo style réacteur d'avion dessus .


Message édité par jeanjean15 le 01-04-2008 à 20:40:41

---------------
mes_feeds
n°6311073
Profil sup​primé
Posté le 01-04-2008 à 20:40:03  answer
 

overclockpro a écrit :

Pour le GT200, la finesse de gravure doit encore s'améliorer pour que l'enveloppe thermique ne dépasse pas des sommets.
 
Aujourd'hui, on est à 754 millions de transistors en 65 nm. Si le GT200 arrive à 900 millions - 1 milliard, la finesse de gravure devra être bien inférieure à 65 nm.  
 
Aujourd'hui, pour 700 millions de transistores, la finesse de gravure la plus faible est de 55 nm, bien insuffisant pour 1 milliard de transistors.
 
Pour cette rasion, même en fin d'année, je ne suis pas sûr que le GT200 sorte.


 
 
 
pour la finesse de gravure on doit etre au 40/45nm en test, donc ca va se democratiser sous peu...


Message édité par Profil supprimé le 01-04-2008 à 20:40:32
n°6311074
Le Profana​teur
Passéiste désincarné
Posté le 01-04-2008 à 20:40:18  profilanswer
 

Activation a écrit :


 
 
ptet les ati 9700pro ou des carte genre la geforce 6600GT


la 9700 a très vite était remplacé par la 9800.


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°6311075
Sat45
ÉcouTeSA
Posté le 01-04-2008 à 20:40:37  profilanswer
 

Activation a écrit :

 

suffit qu on est plus dans les bench l eternel phrase
"bon sur ce jeu y a pas possibilité d activer l antialiasing chez ati"

 

:whistle:


Pour que ca devienne injouable a moins de 10 FPS sur une ULTRA alors que sans elle fais 60FPS (cf STALKER).... Supaÿr [:tinostar]
Autant s'abstenir serieux...

 

Bon j'ai été mauvaise langue... 13FPS...
http://www.hardware.fr/medias/photos_news/00/22/IMG0022711.gif


Message édité par Sat45 le 01-04-2008 à 20:43:24

---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6311106
kaiser52
Posté le 01-04-2008 à 20:55:17  profilanswer
 

Gigathlon a écrit :


Ou c'est un G92 bis avec de la GDDR5, qui peine à être disponible ou qu'ils n'arrivent pas à gérer...
 
nVidia n'a pas voulu de la GDDR4 à cause de son prefetch, mais rien ne nous dit pourquoi ce prefetch les embête (à part que soi-disant que le gain de fréquence ne suffit pas à compenser la latence supérieure engendrée), or la GDDR5 aura virtuellement le même prefetch (2 mots de 16bits au lieu d'1 de 32).


 
Donc si on demande à Mlle Irma, elle va nous dire que le multi-GPU arrive de plus en plus vite.
Le multi-GPU n'est pas censé être plus simple avec l'architecture unifié ? Enfin moins chiant à mettre en place ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6311108
Profil sup​primé
Posté le 01-04-2008 à 20:55:44  answer
 

Stalker est a part, y a de forte chance que leur AA soit la pour ça, je parle de l'aa du jeu, pas du driver, stalker bouf, bouf un max en ram vidéo semble t il...menfin je suis pas spécialiste non plus ;)
 
Maintenant vi c quand même sympa de foutre de l'aa x4, si si surtout quand le jeu ne le permet pas...si si je vous jure, faut pas jurer ma pauvre lucette.... :D

n°6311117
MEI
|DarthPingoo(tm)|
Posté le 01-04-2008 à 20:57:43  profilanswer
 

Gigathlon a écrit :


Pour commencer, sache que je ne suis pas agressif, mais réaliste.
 
Ensuite...
 
1- La RAM 0.8ns était déjà présente sur les 8800U, plus performantes et consommant plus mais malgré tout équipées d'un étage d'alim moins "imposant", preuve qu'il est inutile.
 
Ca, c'est fait.
 
2- 850MHz au GPU, il me semble que des GTS peuvent le faire aussi...
 
Et hop, ni vu ni connu je démonte tes arguments biaisés par la fanboyïte aigue.


Les 9800 GTX s'oceront plus que les 8800 GTS 512 c'est sur et certains. Rien que 800 sur une 8800 GTS 512 ca tiens du miracle. :o Beaucoup sont bloqué entre 750-775MHz einh...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6311121
Profil sup​primé
Posté le 01-04-2008 à 20:58:46  answer
 

MEI a écrit :


Les 9800 GTX s'oceront plus que les 8800 GTS 512 c'est sur et certains. Rien que 800 sur une 8800 GTS 512 ca tiens du miracle. :o Beaucoup sont bloqué entre 750-775MHz einh...


 
 
a stock, car avec vmod ca monte autant... [:cbrs]

n°6311132
angela-pcs
Posté le 01-04-2008 à 21:01:41  profilanswer
 

MEI a écrit :


Les 9800 GTX s'oceront plus que les 8800 GTS 512 c'est sur et certains. Rien que 800 sur une 8800 GTS 512 ca tiens du miracle. :o Beaucoup sont bloqué entre 750-775MHz einh...


 
a 100% ventilo je l'ai fait sur 99% de celle que j'ai vu passer ( et c'est pas 2 ^^)
 
Bon ça tiens du fait que sur la gts le g92 est a 1.15v et sur la gtx il est a 1.20v
 

n°6311136
Gigathlon
Quad-neurones natif
Posté le 01-04-2008 à 21:03:50  profilanswer
 

kaiser52 a écrit :

Le multi-GPU n'est pas censé être plus simple avec l'architecture unifié ? Enfin moins chiant à mettre en place ?


Le multi-GPU pose toujours les mêmes soucis de dépendance aux données, la GDDR5 devrait pallier partiellement à ce défaut grâce à sa gestion en 2x16bits par puce mais on ne pourra pas aller bien loin comme ça...
 
En fait plus ça va plus on se dirige vers une RAM série, on devrait arriver à une GDDR6 sur 16bits (prefetch de 16) puis une GDDR7 sur 8bits (prefetch de 32) si on suit la logique, arrivés là on pourra avoir 4 clients (GPU) par puce.

n°6311138
MEI
|DarthPingoo(tm)|
Posté le 01-04-2008 à 21:04:36  profilanswer
 

Gigathlon a écrit :


Un simple die shrink du G80 aurait coûté moins cher en R&D:
 
- pas de changement niveau PCB (contre 3 PCB pour les G92/G94 + le duo de la GX2...)
- peu de changement niveau GPU
 
Et le plus con c'est que ça aurait été plus performant...


Boulay... :o
 
Le R&D il a quasi rien couté... :o
Déjà le die shrink était un poil tendu a cause du NVI/O... De plus un G90 était prevu... donc NVIDIA a changé ses plans et voilà.
 
Pour en revenir au R&D il a rien couté car : le 8600 GTS avait deja le meme ratio d'unité de texturing, les optimisations par ci par là vont tres certainements servir dans les G1xx, le nouveau moteur PureVideo aussi.
 
Pour les PCB, eu vu comment c'est proche des GF7 et GF8 precedent, ca a pas du couté tant que ça... Surtout qu'on sens bien que G92/G94 est tres proche pour le PCB.
 
Au final y'a pet un un coup de R&D, mais pas si enorme que ça, et largement rentabilisté par l'economie du au petit die. Sans compter que les G94/G96 etaient quoiqu'il arrivent necessaire.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6311157
MEI
|DarthPingoo(tm)|
Posté le 01-04-2008 à 21:12:24  profilanswer
 

Gigathlon a écrit :


Non mais faut arrêter hein, si ils font ça c'est forcément qu'ils n'ont pas le choix!
 
Ils ont un souci quelque part et ils nous réchauffent un GPU qu'ils savent déséquilibré et peine à égaler son ancêtre de 18 mois, n'importe quel consultant marketing te dira la même chose que moi: c'est forcément qu'ils sont dans l'impossibilité de proposer mieux, et ça pour une raison simple: la 9800GTX ne leur rapportera quasiment rien comme ça aura déjà été le cas des 8800GT/GTS, c'est une tentative désespérée de faire de la thune avec un GPU moisi très similaire à ce qu'a fait AMD avec son R600.


Un G92 avec un R&D deja remboursé par les G8x, en 65nm avec un yield de folie (on l'a du 8800GS/GT/GTS 512, 9800 GTX/GX2), a des prix pas si bas que ça, NVIDIA ne fait que ce qu'il sait faire. Engrangé la thune a gogo le plus possible. Faut pas cherché plus loin. Une 3870 X2 se fait mangé par une 8800 GTS 512, ils ont largement pas de quoi avoir peur, alors c'est comme toujours en infos, on attends le plus possible avant de degainé pour rien.
 
Surtout que AMD est sur la meme base strategique, donc c'est que non seulement chacun se regarde (enfin surtout NVIDIA regarde AMD), mais en plus les process ne sont pas encore assez mure pour double les transistors (car c'est bien là l'enjeu pour booster les perfs, vu que le BP augmentera pas forcement a foison...)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6311160
kaiser52
Posté le 01-04-2008 à 21:14:02  profilanswer
 

Gigathlon a écrit :


Le multi-GPU pose toujours les mêmes soucis de dépendance aux données, la GDDR5 devrait pallier partiellement à ce défaut grâce à sa gestion en 2x16bits par puce mais on ne pourra pas aller bien loin comme ça...
 
En fait plus ça va plus on se dirige vers une RAM série, on devrait arriver à une GDDR6 sur 16bits (prefetch de 16) puis une GDDR7 sur 8bits (prefetch de 32) si on suit la logique, arrivés là on pourra avoir 4 clients (GPU) par puce.


 
Pour masquer la dépendace, tous les 4 GPU supplémentaires il faudrait passé au bits de la puissance 2 inférieur?
Y'à le temps c'est sur.
Mais quand est il de la finesse de gravure ? Une autre élément que le silicium ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6311169
MEI
|DarthPingoo(tm)|
Posté le 01-04-2008 à 21:18:55  profilanswer
 

overclockpro a écrit :

Pour le GT200, la finesse de gravure doit encore s'améliorer pour que l'enveloppe thermique ne dépasse pas des sommets.
 
Aujourd'hui, on est à 754 millions de transistors en 65 nm. Si le GT200 arrive à 900 millions - 1 milliard, la finesse de gravure devra être bien inférieure à 65 nm.  
 
Aujourd'hui, pour 700 millions de transistores, la finesse de gravure la plus faible est de 55 nm, bien insuffisant pour 1 milliard de transistors.
 
Pour cette rasion, même en fin d'année, je ne suis pas sûr que le GT200 sorte.


Oula...
 
Tu prends un G92 tu dit qu'il fait 675MHz a 1,20V.
Tu prends un GT200, tu met 2x plus de transistor, mais tu les fais tourner qu'a 600MHz et du coup ca tourne a 1,05V. Au final au tu consomme 23,43% moins grace a la tension, 11,11% grace à la frequence et 100% a cause des transitors ce qui fait que tu consommes 30% de plus pour 78% de perf en plus.
 
Bon c'est pas exactement ça, mais tu vois le genre. Il est tres probable qu'en 55nm NVIDIA nous sortes un GT200 avec 256SP/32ROP un bus 256bit en GDDR5 @ 4GHz tout ça a "seulement" 500/1500. Car NVIDIA pourrais en plus augmenté le coeff de la frequence ce qui accentuerais le phenomene (surtout si 32 ROP)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6311175
Profil sup​primé
Posté le 01-04-2008 à 21:20:12  answer
 

kaiser52 a écrit :


 
Pour masquer la dépendace, tous les 4 GPU supplémentaires il faudrait passé au bits de la puissance 2 inférieur?
Y'à le temps c'est sur.
Mais quand est il de la finesse de gravure ? Une autre élément que le silicium ?


 
 
les autres sont biens plus chers...
 
 
puis la finesse de gravure ne depend pas trop des materiaux, plus de l outil de gravure...
 
 
 

Message cité 1 fois
Message édité par Profil supprimé le 01-04-2008 à 21:23:01
n°6311185
Sat45
ÉcouTeSA
Posté le 01-04-2008 à 21:24:41  profilanswer
 

MEI a écrit :


Boulay... :o
 
Le R&D il a quasi rien couté... :o
Déjà le die shrink était un poil tendu a cause du NVI/O... De plus un G90 était prevu... donc NVIDIA a changé ses plans et voilà.
 
Pour en revenir au R&D il a rien couté car : le 8600 GTS avait deja le meme ratio d'unité de texturing, les optimisations par ci par là vont tres certainements servir dans les G1xx, le nouveau moteur PureVideo aussi.
 
Pour les PCB, eu vu comment c'est proche des GF7 et GF8 precedent, ca a pas du couté tant que ça... Surtout qu'on sens bien que G92/G94 est tres proche pour le PCB.
 
Au final y'a pet un un coup de R&D, mais pas si enorme que ça, et largement rentabilisté par l'economie du au petit die. Sans compter que les G94/G96 etaient quoiqu'il arrivent necessaire.


 
Au sujet des PCB, je pense honnetement que ca coute pas des masses, meme pour une refonte complete, suffit de voir les PCB contructeurs :spamafote: je pense pas que les constructeurs investissent des somme faramineuse pour refaire un PCB :jap:


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6311186
MEI
|DarthPingoo(tm)|
Posté le 01-04-2008 à 21:24:57  profilanswer
 

Le finesse dependra tot ou tard du materie. La taille d'une structure de silicium est une limite.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6311187
Activation
21:9 kill Surround Gaming
Posté le 01-04-2008 à 21:25:04  profilanswer
 

MEI a écrit :


Oula...
 
Tu prends un G92 tu dit qu'il fait 675MHz a 1,20V.
Tu prends un GT200, tu met 2x plus de transistor, mais tu les fais tourner qu'a 600MHz et du coup ca tourne a 1,05V. Au final au tu consomme 23,43% moins grace a la tension, 11,11% grace à la frequence et 100% a cause des transitors ce qui fait que tu consommes 30% de plus pour 78% de perf en plus.
 
Bon c'est pas exactement ça, mais tu vois le genre. Il est tres probable qu'en 55nm NVIDIA nous sortes un GT200 avec 256SP/32ROP un bus 256bit en GDDR5 @ 4GHz tout ça a "seulement" 500/1500. Car NVIDIA pourrais en plus augmenté le coeff de la frequence ce qui accentuerais le phenomene (surtout si 32 ROP)


 
 
vu comment les rops sont lié à la memoire comment tu fait 32rops avec seulement un bus de 256nits
si on change pas completement la partie rops des G92/G80  :whistle:

n°6311192
MEI
|DarthPingoo(tm)|
Posté le 01-04-2008 à 21:27:05  profilanswer
 

Sat45 a écrit :


 
Au sujet des PCB, je pense honnetement que ca coute pas des masses, meme pour une refonte complete, suffit de voir les PCB contructeurs :spamafote: je pense pas que les constructeurs investissent des somme faramineuse pour refaire un PCB :jap:


Ouai enfin Gigabyte (qui est celui qui s'amuse le plus à le faire recement) c'est un peu son boulot, je pense qu'il a meme moins de coup que NVIDIA à le faire car il doit avoir plus d'equipe qualifié pour ça.
 
Ceci dit il y a longtemps tout le monde developpait son PCB... a l'epoque où NVIDIA/ATI laissait faire un peu tout et n'importe quoi.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6311198
MEI
|DarthPingoo(tm)|
Posté le 01-04-2008 à 21:28:55  profilanswer
 

Activation a écrit :


 
 
vu comment les rops sont lié à la memoire comment tu fait 32rops avec seulement un bus de 256nits
si on change pas completement la partie rops des G92/G80  :whistle:


Je pense qu'au moins sur ce point, meme Gigathlon me rejoindrait, plus on a de ROPs, plus la granularité des echanges RAM sont fins, et là c'est je pense de plus en plus critiques pour faire du GPGPU ou des scenes de plus en plus gourmande car on aura des latences moyennes plus faibles.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  347  348  349  ..  391  392  393  394  395  396

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Préhistoire] Problème avec ma GeForce 4200 tibfg Geforce 8800gts 640Mo pci-e oc1 ou oc2 ?
Check-up de dernière minutey a t-il une sonde dans la asus geforce 8600 GT
Quelle quantite de memoire pour GeForce 8800GTS ?[Topic Unique] Thermaltake SwordM : le top du boitier!
[Topic Unique] Nvidua Geforce 9800GTS/9800GTXdifférence entre GeForce 2Mx et radeon 9200 ?
Plus de sujets relatifs à : [Topic Unique] GeForce 9 : dernière màj le 19/03/08


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)