Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2942 connectés 

 

 

Vous allez vous payer...




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  129  130  131  ..  391  392  393  394  395  396
Auteur Sujet :

[Topic Unique] GeForce 9 : dernière màj le 19/03/08

n°6055380
ebola2
ah ah ah
Posté le 02-12-2007 à 10:33:52  profilanswer
 

Reprise du message précédent :
espérons, on verra. Là c'est vrai qu'on tire des plans sur la comète. Mais avoue quand même que parfois ça rame grave, en very high c'est injouable. Mais comme tu dis et je le dis aussi il n'y a pas que crysis loin de là. Je m'éclate bien avec sam et max saison 1 ;)


Message édité par ebola2 le 02-12-2007 à 10:37:08
mood
Publicité
Posté le 02-12-2007 à 10:33:52  profilanswer
 

n°6055410
kaiser52
Posté le 02-12-2007 à 10:58:04  profilanswer
 

Je pense que une 8800++ avec des registres en plus, et un bus de 512, c'est déjas bien. si on y rajoute 32sp déjas, ce sera pas mal.
Je sais pas, le manque de registre etait un probleme pour les 8800 nan ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6055426
H3L0
Posté le 02-12-2007 à 11:06:59  profilanswer
 

Je dis peut etre des betises, mais il me semble justement que ce défaut était attribué aux GF6 et 7 et a été résolu sur les GF8.

n°6055433
kaiser52
Posté le 02-12-2007 à 11:09:59  profilanswer
 

H3L0 a écrit :

Je dis peut etre des betises, mais il me semble justement que ce défaut était attribué aux GF6 et 7 et a été résolu sur les GF8.


 
Je me souviens que les G-FX manquaient de registre pour DX9.
Résolue par l'archi Geforce 6/7.
Et rebelote, manque de registre (pour les GS c'est ca ?) pour DX10.
Enfin je crois.
 
 :hello:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6055559
ANViL
yep...definitely ♫
Posté le 02-12-2007 à 12:10:27  profilanswer
 

ebola2 a écrit :

une grosse amélioration tout de même, peut être de l'ordre du 6800 gtx à 7800/7900 gtx quand même


 
Y a jamais eu de 6800 gtx....... :sarcastic:

n°6055693
Neomor666
Cockpit member
Posté le 02-12-2007 à 13:15:06  profilanswer
 

Ultra :o


---------------
Cockpit Made-Home ///RacingFR.com
n°6055758
MacIntoc
tu lis une phrase formidable.
Posté le 02-12-2007 à 13:48:03  profilanswer
 

Kaiser52>En effet, les registre sont le gros point faible du G80. Tant que nVidia n'intègrera pas un équivalent au Stream Out Buffer du R6x0, l'architecture de nVidia ne suivra pas sur les GS.
Il y a un fait, si nVidia veut rester dans la course, elle doit revoir en profondeur son archi actuelle ou repartir de 0.

n°6055764
ebola2
ah ah ah
Posté le 02-12-2007 à 13:52:02  profilanswer
 

m'en rapelle pas 6800 gtx ou autre...

n°6055784
H3L0
Posté le 02-12-2007 à 13:58:55  profilanswer
 

ebola2 a écrit :

m'en rapelle pas 6800 gtx ou autre...


Et pour cause, elle ont pas existé ^^ C'était 6800GT et ultra :)
 
MacIntoc, j'ai du mal à comprendre comment tu peux dire que l'archi de chez nv est si mauvaise... Y'a qu'à voire ce que ca a donné en l'ameliorant à peine (88gt)

n°6055810
Gigathlon
Quad-neurones natif
Posté le 02-12-2007 à 14:13:11  profilanswer
 

H3L0 a écrit :

MacIntoc, j'ai du mal à comprendre comment tu peux dire que l'archi de chez nv est si mauvaise... Y'a qu'à voire ce que ca a donné en l'ameliorant à peine (88gt)


Améliorée?
 
La GTS512 est moins performante globalement que la GTX tout en consommant autant, je vois pas où elle est l'amélioration [:gratgrat]

mood
Publicité
Posté le 02-12-2007 à 14:13:11  profilanswer
 

n°6055824
Profil sup​primé
Posté le 02-12-2007 à 14:17:16  answer
 

Gigathlon a écrit :


Améliorée?
 
La GTS512 est moins performante globalement que la GTX tout en consommant autant, je vois pas où elle est l'amélioration [:gratgrat]


 
T'as vu où que la GTS 512 consommait autant qu'une GTX ?
 
http://img162.imageshack.us/img162/9352/powerconsumptionfz0.png

n°6055846
olioops
Si jeune et déjà mabuse.
Posté le 02-12-2007 à 14:24:36  profilanswer
 

bizarre ce graph , j'avais lu aussi que la GTS 512mo consommait plus qu'une GTX !!!


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°6055847
dami1stm
Eco-coco φ
Posté le 02-12-2007 à 14:25:43  profilanswer
 

olioops a écrit :

bizarre ce graph , j'avais lu aussi que la GTS 512mo consommait plus qu'une GTX !!!


 
Ouais mais le test de Tweaktown est "bizarre"  :sweat:


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°6055855
olioops
Si jeune et déjà mabuse.
Posté le 02-12-2007 à 14:28:10  profilanswer
 

dami1stm a écrit :


 
Ouais mais le test de Tweaktown est "bizarre"  :sweat:


exact ! c'était ça ...


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°6055860
Cid156
Posté le 02-12-2007 à 14:30:07  profilanswer
 

olioops a écrit :

bizarre ce graph , j'avais lu aussi que la GTS 512mo consommait plus qu'une GTX !!!


 
http://images.tweaktown.com/imagebank/88gtsg92_g_11.gif%20
 
Qui croire ???


Message édité par Cid156 le 02-12-2007 à 14:36:55
n°6055867
Gigathlon
Quad-neurones natif
Posté le 02-12-2007 à 14:32:41  profilanswer
 

dami1stm a écrit :

Ouais mais le test de Tweaktown est "bizarre"  :sweat:


Celuis d'Expreview ne l'est pas moins (conso ridiculement faible pour quasiment toutes les cartes, écart GTS640/GTX énorme...)
 
Si on met en parallèle le tableau de Tridam, ça tend plutôt à confirmer TweakTown que Expreview:
http://www.hardware.fr/medias/photos_news/00/21/IMG0021432.gif

Message cité 1 fois
Message édité par Gigathlon le 02-12-2007 à 14:36:08
n°6055873
H3L0
Posté le 02-12-2007 à 14:33:23  profilanswer
 

Je parlais de la GT, non de la GTS qui je te l'accorde est assez decevante ;)

n°6055910
arito667
Posté le 02-12-2007 à 14:45:27  profilanswer
 

dami1stm a écrit :


 
Ouais mais le test de Tweaktown est "bizarre"  :sweat:


 
Ca laisse un peu de l'espoir...

n°6055928
Profil sup​primé
Posté le 02-12-2007 à 14:52:54  answer
 

Gigathlon a écrit :


Celuis d'Expreview ne l'est pas moins (conso ridiculement faible pour quasiment toutes les cartes, écart GTS640/GTX énorme...)
 
Si on met en parallèle le tableau de Tridam, ça tend plutôt à confirmer TweakTown que Expreview:
http://www.hardware.fr/medias/phot [...] 021432.gif


 
Le problème du test de Tweaktown, c'est qu'entre la GT et la GTS320 il n'y a aucun écart de conso que ce soit en idle comme en full alors que ce n'est pas du tout le cas en vrai, la GT est bien en dessous de la GTS320.
Je pense plutot que le test d'Expreview montre la conso de la carte seule (comment ils ont fait, je ne sais pas) que de la machine toute entière. Il suffit de voir la puissance de la GT dans le test proche de celle annoncée de 105W par nVidia.

n°6055945
MacIntoc
tu lis une phrase formidable.
Posté le 02-12-2007 à 14:58:15  profilanswer
 

H3l0>Expliqué ici et confirmer . A se demander à quoi ça sert de disposer de tests sérieux.


Message édité par MacIntoc le 02-12-2007 à 14:59:17
n°6056006
Gigathlon
Quad-neurones natif
Posté le 02-12-2007 à 15:30:33  profilanswer
 


En même temps c'est bien précisé: config complète...
 
Et oui, on peut mesurer la conso d'une carte graphique seule, mais ça demande d'avoir une mobo traffiquée pour:
 
- 1 couple voltmètre/ampèremètre sur la connexion +12v du slot PCI-E
- 1 couple voltmètre/ampèremètre sur la connexion +12v du connecteur d'alim
 
De là on additionne les 2 puissances lues et on a une conso exacte aux courants circulant dans les broches de communication près.

n°6056126
kaiser52
Posté le 02-12-2007 à 16:22:58  profilanswer
 

à votre avis, dans les transistors non utilisé du G92, y'aurait pas eu un teste d'unitée de tesselation, ou d'augmentation de registre ^^ ?
En ce qui conscerne l'archi du futur G100 / G9E, peut être qu'elle à été commencé quelques mois / une année apres le commencement de celle du G80 !
Ou peut être que celle du G80 à été vue pour être facilement upgradable (beau de rever ...).
Enfin ce serait cool d'avoir un vai haut de gamme en fevrier, et un concurent (nomé ATI) qui rivalise comme à la bonne vieille époque.
 
edit : Ce serait possible une CG, avec une puce qui contient les shader, et la tesselation, et une autre avec les rops etc.... ?


Message édité par kaiser52 le 02-12-2007 à 16:29:04

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6056168
dragonlore
Posté le 02-12-2007 à 16:43:29  profilanswer
 

MacIntoc a écrit :

Kaiser52>En effet, les registre sont le gros point faible du G80. Tant que nVidia n'intègrera pas un équivalent au Stream Out Buffer du R6x0, l'architecture de nVidia ne suivra pas sur les GS.
Il y a un fait, si nVidia veut rester dans la course, elle doit revoir en profondeur son archi actuelle ou repartir de 0.


 
nvidia rester dans la course?
pour l'instant c'est plutot ati qui est hors course et pas nvidia. ça changera peut etre mais faudra attendre le r700 pour cela.

Message cité 1 fois
Message édité par dragonlore le 02-12-2007 à 16:43:40
n°6056179
$crounz
Désolé, c'est de la merde.
Posté le 02-12-2007 à 16:47:56  profilanswer
 

+1, et avec ATI c'est souvent "faut attendre" qui ressort de la discution...
 
On attend un an pour se rendre compte qu'Nvidia a un an d'avance :/ Il est loin le temps de la 9800Pro ^^


---------------
>>Feedback<< Topic ACH/VTE
n°6056302
LeiR3@G
Toupie or not toupie ?
Posté le 02-12-2007 à 17:27:47  profilanswer
 

Bonjour tout le monde :hello:
Juste comme ça, on a une idée de la puissance du D9E ?


---------------
Mon Feed . Et n'oubliez pas que le QI n'est pas proportionnel au nombre de messages postés...
n°6056398
MacIntoc
tu lis une phrase formidable.
Posté le 02-12-2007 à 18:03:36  profilanswer
 

kaiser52>Augmenter le nombre de registre ne règlera pas le problème (au contraire, la puce serait d'autant plus chère a produire).
 
dragonlore>Bien avant que le R600 ne sorte, les développeurs de Flight Simulator X ont annoncé que le G80 était à la rue fasse au R600 au niveau des GS. Lorsque les HD2900XT sont sortie, HFR a clairement expliqué quel était le point faible du G80. Anandtech l'a également pointé du doigt mais a préféré se concentré sur le fameux "bug" des ROPs du R600 (qui n'en serait finalement pas un, selon eux). HFR a définitivement confirmé la faiblesse du G80 lors du test des HD2600 et HD2400.
Le G80 est un GPU excellent en PS et VS mais est une bouse pire que le NV30 en GS (figure de style, hein, prenez pas ça pour du troll :o ).
Actuellement, il n'y a que 2 types de programmes qui utilisent les GS. D'une part les démos d'ATI et nVidia et d'autre part les démos techniques du SDK de Dx10. Donc forcément, ces défaut sont parfaitement invisible dans les jeux.
Donc oui, le G80 explose le R600 en PS et VS. Mais l'avenir, ce sont les GS. Et ATI a clairement un train d'avance sur nVidia dans ce domaine.

n°6056402
Gigathlon
Quad-neurones natif
Posté le 02-12-2007 à 18:04:37  profilanswer
 

dragonlore a écrit :

nvidia rester dans la course? pour l'instant c'est plutot ati qui est hors course et pas nvidia. ça changera peut etre mais faudra attendre le r700 pour cela.


Tout dépend du point de vue car bon, le G92 est au final pas excessivement au dessus du RV670 tout en coûtant beaucoup plus cher...
 
Si on regarde dans le bas de la gamme on remarque même un RV630 qui se permet le luxe de largement dépasser le G84 le plus performant dans Crysis malgré la moitié de ROPs, ce qui prouve bien que l'archi d'en face n'est pas franchement à plaindre.
 
Certes, la 3870 a une puissance de calcul brute quasiment égale à la 8800GTS512 et c'est donc la moindre des choses qu'elle approche la 8800GT, mais qu'est-ce que ça donnerait si les SP n'étaient pas à une fréquence largement supérieure dans les G80/G92? Mieux, qu'est-ce que ça donnerait si l'équilibre choisi était le même? (rappel: le G92 complet a pas loin de 4x la puissance brute de texturing de la 3850, plus de 3x celle de la 3870...)

Message cité 1 fois
Message édité par Gigathlon le 02-12-2007 à 18:07:34
n°6056468
olioops
Si jeune et déjà mabuse.
Posté le 02-12-2007 à 18:32:27  profilanswer
 

MacIntoc a écrit :

kaiser52>Augmenter le nombre de registre ne règlera pas le problème (au contraire, la puce serait d'autant plus chère a produire).
 
dragonlore>Bien avant que le R600 ne sorte, les développeurs de Flight Simulator X ont annoncé que le G80 était à la rue fasse au R600 au niveau des GS. Lorsque les HD2900XT sont sortie, HFR a clairement expliqué quel était le point faible du G80. Anandtech l'a également pointé du doigt mais a préféré se concentré sur le fameux "bug" des ROPs du R600 (qui n'en serait finalement pas un, selon eux). HFR a définitivement confirmé la faiblesse du G80 lors du test des HD2600 et HD2400.
Le G80 est un GPU excellent en PS et VS mais est une bouse pire que le NV30 en GS (figure de style, hein, prenez pas ça pour du troll :o ).
Actuellement, il n'y a que 2 types de programmes qui utilisent les GS. D'une part les démos d'ATI et nVidia et d'autre part les démos techniques du SDK de Dx10. Donc forcément, ces défaut sont parfaitement invisible dans les jeux.
Donc oui, le G80 explose le R600 en PS et VS. Mais l'avenir, ce sont les GS. Et ATI a clairement un train d'avance sur nVidia dans ce domaine.


un train d'avance ! reste plus qu'à construire la ligne ...  
 
ce qu'il faut c'est sortir le bon produit au bon moment ! j'ai rien contre ATI mais si je dois prendre une de leur CG il faudra qu'ils se mettent un peu plus en phase avec la demande : Puissance pour l'année qui vient , silence ...etc ... [:airforceone]


Message édité par olioops le 02-12-2007 à 18:38:15

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°6056500
alexreunio​n
Posté le 02-12-2007 à 18:41:37  profilanswer
 

MacIntoc a écrit :

kaiser52>Augmenter le nombre de registre ne règlera pas le problème (au contraire, la puce serait d'autant plus chère a produire).
 
dragonlore>Bien avant que le R600 ne sorte, les développeurs de Flight Simulator X ont annoncé que le G80 était à la rue fasse au R600 au niveau des GS. Lorsque les HD2900XT sont sortie, HFR a clairement expliqué quel était le point faible du G80. Anandtech l'a également pointé du doigt mais a préféré se concentré sur le fameux "bug" des ROPs du R600 (qui n'en serait finalement pas un, selon eux). HFR a définitivement confirmé la faiblesse du G80 lors du test des HD2600 et HD2400.
Le G80 est un GPU excellent en PS et VS mais est une bouse pire que le NV30 en GS (figure de style, hein, prenez pas ça pour du troll :o ).
Actuellement, il n'y a que 2 types de programmes qui utilisent les GS. D'une part les démos d'ATI et nVidia et d'autre part les démos techniques du SDK de Dx10. Donc forcément, ces défaut sont parfaitement invisible dans les jeux.
Donc oui, le G80 explose le R600 en PS et VS. Mais l'avenir, ce sont les GS. Et ATI a clairement un train d'avance sur nVidia dans ce domaine.


 
On avait deja dit ça quand on disait que ATI avait une longueur d'avance avec l'architecture des X1900 pour réaliser une architecture unifiée.
 
On a vu ce que ça a donné. G80 devant le R600.
 
Le but c'est de faire une génération de CG efficace sur les jeux du moment, le reste n'a pas grande importance. A ce petit jeux Nvidia est plus malin. Surement que leur programme TWIMTPP leur confere un avantage, ils ont compris ce qu'il fallait faire avant les autres.


---------------
Mon feedback
n°6056575
Activation
21:9 kill Surround Gaming
Posté le 02-12-2007 à 19:12:56  profilanswer
 

MacIntoc a écrit :

kaiser52>Augmenter le nombre de registre ne règlera pas le problème (au contraire, la puce serait d'autant plus chère a produire).
 
dragonlore>Bien avant que le R600 ne sorte, les développeurs de Flight Simulator X ont annoncé que le G80 était à la rue fasse au R600 au niveau des GS. Lorsque les HD2900XT sont sortie, HFR a clairement expliqué quel était le point faible du G80. Anandtech l'a également pointé du doigt mais a préféré se concentré sur le fameux "bug" des ROPs du R600 (qui n'en serait finalement pas un, selon eux). HFR a définitivement confirmé la faiblesse du G80 lors du test des HD2600 et HD2400.
Le G80 est un GPU excellent en PS et VS mais est une bouse pire que le NV30 en GS (figure de style, hein, prenez pas ça pour du troll :o ).
Actuellement, il n'y a que 2 types de programmes qui utilisent les GS. D'une part les démos d'ATI et nVidia et d'autre part les démos techniques du SDK de Dx10. Donc forcément, ces défaut sont parfaitement invisible dans les jeux.
Donc oui, le G80 explose le R600 en PS et VS. Mais l'avenir, ce sont les GS. Et ATI a clairement un train d'avance sur nVidia dans ce domaine.


 
euuuh déjà on parle bien de shader unifié là ?
 
ensuite le problème est pas là
 
vous semblez pensez que dx10= plus rapide que dx9
 
déjà faut arreté il a jamais été question de ça
il est question que des instructions on été simplifié voir supprimé quand completement desuet avec l arrivé des shader unifié notamment  
avec à la clé des instructions moins lourde à digéré pour le cpu pour le transmettre au gpu
et c est bien le cas un jeu dx10 ne necessite pas en soit un cpu de tueur
et notamment les geometry shader sont à la decharge du gpu là ou l equivalent avant c est le cpu qui se tapait le boulot
 
qui dit une tache dechargé au gpu en plus dit qu il faut un gpu plus puissant
et qui dit dechargé au gpu dit, on va avoir plus de marge pour ce lacher en tant que developpeur car la puissance des gpu augmente plus rapidement que celle des cpus
 
après que les r600/rv670 soit ptet (ou pas) mieux en comportement "usage" geometry shader" .. on s en tape de toute facon lorsque dx10 sera mit en avant chez les editeurs plus que dx9.. les r600/rv670 et geforce 8 seront histoire ancienne
 
SI t as pas encore capté ceux qui ont acheté une geforce 8800 il y a 1 an c est "je veux les meilleurs perf en dx9 du moment + y a dx10... genial au moins je serais compatible dx10"
on s en tapait d etre au top ou pas avec les jeux dx10 en nov2006 c était juste l histoire de on est compatible ... c est un plus
 
maintenant dire que lles ati/amd sont mieux que les nvidia sont meilleurs
 
en facile 10 ans de temps on a bien vu que les dit concurrent se sont plus ou moins retrouvé dans un mouchoir niveau perf  
par mouchoir j entend 20% de diff dans un sens ou l autre
y a rien de transcendant pour dire que l un "eclate" l autre
 
c 'est pas non plus comme si la geforce 8800 etait 300% plus puissante que la HD3870/HD2900
ou que la X1950 aurait été 300% plus perf qu une geforce 7900
 
on tourne toujours plutot dans les 15-20% de diff en faveur de l un et de l autres et souvent tres variable en fonction des jeux
 
cette année complète ce qui a le plus marqué c est que la 8800 (version gtx) était devant autant dire dans TOUT les jeux sans exception (bien entendu aussi quand la hd2900 etait pas là car en face juste de la x1950xt)
c'est à mon avis ce qui a le plus marqué... maintenant ce qui a le fait le plus de mal à la HD2900 à mon avis c est pas ses perf en soit mais plutot la goutte d eau "sa conso de taré et ça chauffe completement demente" + "arrivé 6 mois apres le concurrent" et en catastrophe (car faut pas se leurré le R600 est un vilain canard buggé
 
nvidia a eu son geforce FX
ati aura sont HD2900 (quoi que sa X1800 plutot paperlaunch etait pas mal non plus ... dispo quasi que quand la X1900 c est pointé)
 
dans tout ça le marketing boiteux de amd suite au rachat à pas aidé l image de ati
 
maintenant LA question  
connaissant l incompétence total d AMD en terme de marketing (dans le genre je veux me faire mal aimé je suis champion)
amd ne devrait t il pas "lacher la bride" à la "divison ati" pour les laisser bosser tranquillement
plutot qu essayer de la noyer avec son phenom qui a la tete dans l eau en ce moment (surtout par son plombage toujours avec une com de merde notamment au niveau des faux tarifs... faux tarifs aussi plus ou moins pratiqué sur les HD3850/HD3870 car ils n arrete pas d en changer le prix)

Message cité 1 fois
Message édité par Activation le 02-12-2007 à 19:20:38
n°6056577
LeiR3@G
Toupie or not toupie ?
Posté le 02-12-2007 à 19:13:57  profilanswer
 

Gigathlon a écrit :


Tout dépend du point de vue car bon, le G92 est au final pas excessivement au dessus du RV670 tout en coûtant beaucoup plus cher...

 

Si on regarde dans le bas de la gamme on remarque même un RV630 qui se permet le luxe de largement dépasser le G84 le plus performant dans Crysis malgré la moitié de ROPs, ce qui prouve bien que l'archi d'en face n'est pas franchement à plaindre.

 

Certes, la 3870 a une puissance de calcul brute quasiment égale à la 8800GTS512 et c'est donc la moindre des choses qu'elle approche la 8800GT, mais qu'est-ce que ça donnerait si les SP n'étaient pas à une fréquence largement supérieure dans les G80/G92? Mieux, qu'est-ce que ça donnerait si l'équilibre choisi était le même? (rappel: le G92 complet a pas loin de 4x la puissance brute de texturing de la 3850, plus de 3x celle de la 3870...)


Oui enfin on peut pas reprocher à nVidia de pouvoir monter les fréquences, à ce moment là on peut aussi reprocher à AMD d'être à la bourre de ce côté-là. C'est une question de choix, nVidia à privilégié une archi simple pour ses SP, avec une haute fréquence. AMD a choisi une archi plus complexe, peut être plus efficace, mais avec une montée en fréquence limitée. Clairement, pour les jeux actuels et à sortir début 2008, le choix de nVidia est plus judicieux.

 

Ensuite quand tu dis que le RV670 coûte beaucoup plus cher à produire que le G92, d'abords comme le sais-tu ? Source ? Et permet moi d'en douter, car même si AMD a l'expérience du R600 et grave ses dernières puces en 55nm, il leur manque clairement l'expérience de cette taille de gravure. Et quand on voit les difficultés qu'ils ont eu avec le R600 (chauffe, consommation, montée en fréquence... ), alors qu'nV gravait ses puces en 80nm, on peut être certain qu'il y a beaucoup plus de déchets sur les waffers de RV670 qu'il n'y en a sur ceux de G92... Là encore, la stratégie d'nVidia de ne graver son haut gamme que dans des tailles qu'il maitrise bien, quand AMD préfère "expérimenter", est plus intelligente.

  

A part ça, j'en revient à ma question: est-ce qu'on a une idée des parfs du D9E ?


Message édité par LeiR3@G le 02-12-2007 à 19:22:10

---------------
Mon Feed . Et n'oubliez pas que le QI n'est pas proportionnel au nombre de messages postés...
n°6056584
thehacker2​5
Posté le 02-12-2007 à 19:15:42  profilanswer
 

Activation a écrit :

(quoi que sa X1800 plutot paperlaunch etait pas mal non plus dispo quasi que quand la X1900 c est pointé)


:??:
 
Edit : Ah je viens de comprendre, purée tu pourrais faire un effort d'orthographe et de ponctuation. :sweat:

Message cité 1 fois
Message édité par thehacker25 le 02-12-2007 à 19:17:05
n°6056589
Activation
21:9 kill Surround Gaming
Posté le 02-12-2007 à 19:18:06  profilanswer
 

euuh "g92" "rv670"... tout ça c est tsmc qui les fabrique en majorité
 
au passage le rv670 est plus du 65nm super optimisé que du 55nm  
 
nvidia et ati fabrique rien... en soit c est plus des concepteurs

Message cité 1 fois
Message édité par Activation le 02-12-2007 à 19:24:27
n°6056606
Activation
21:9 kill Surround Gaming
Posté le 02-12-2007 à 19:23:47  profilanswer
 

thehacker25 a écrit :


:??:
 
Edit : Ah je viens de comprendre, purée tu pourrais faire un effort d'orthographe et de ponctuation. :sweat:


 
oui bah je suis pas sur mon 24" là je suis sur ma tv (1280*768)
 
c est pas toujours evident de se relire quand post avec les emoticons qui prennent je sais pas combien de place sur la gauche
les options (gras, couleur, etc...) au dessus et tout le tralala
 
on ne se rend parfois compte de ce que ça donne qu une fois posté.

n°6056646
LeiR3@G
Toupie or not toupie ?
Posté le 02-12-2007 à 19:37:45  profilanswer
 

Activation a écrit :

euuh "g92" "rv670"... tout ça c est tsmc qui les fabrique en majorité

 

au passage le rv670 est plus du 65nm super optimisé que du 55nm

 

nvidia et ati fabrique rien... en soit c est plus des concepteurs


Oui enfin le 80nm du R600 était aussi du 90nm optimisé, et on sait ce que ça donnait niveau rendement...
Sinon quand je dis "nV grave" ou "AMD grave", je pense "nVidia/AMD donne à graver"  :)


Message édité par LeiR3@G le 02-12-2007 à 19:42:12

---------------
Mon Feed . Et n'oubliez pas que le QI n'est pas proportionnel au nombre de messages postés...
n°6057542
Wilfried28​_2
Posté le 03-12-2007 à 10:17:16  profilanswer
 

Voila qu'es ce que j'avait dit que la Geforce 9 haut de gamme DX 10.1 va arriver en Février-Mars et donc la 8800GTS 512mo ne servira a rien !!!
Surtout pendant noel ont n'est occuper a manger plutot qu'a jouer sur le pc, sauf les geeks...


---------------
Ex HFR : Wilfried2828 -->>  Wilfried28_2  le retour...
n°6057551
Wilfried28​_2
Posté le 03-12-2007 à 10:22:23  profilanswer
 

Par contre il va falloir vraiment un processeur de fou pour l'alimenter correctement en données  :pt1cable:


---------------
Ex HFR : Wilfried2828 -->>  Wilfried28_2  le retour...
n°6057647
Kremtak
Posté le 03-12-2007 à 11:18:25  profilanswer
 

J'ai pas lu les 132 pages, mais y'a des infos sur le prochain milieu de gamme nvidia? Genre un truc pour remplacer les 6800 GTS, en préservant + ou - une conso légère et un format réduit (par exemple pour rentrer dans un barebone :) )  
 
J'avais de l'espoir avec les G92 mais si j'ai bien suivi il n'est décliné que sur des cartes de type 8800, avec ce que ça implique niveau dimensions...

n°6057663
Wilfried28​_2
Posté le 03-12-2007 à 11:22:54  profilanswer
 

Kremtak a écrit :

J'ai pas lu les 132 pages, mais y'a des infos sur le prochain milieu de gamme nvidia? Genre un truc pour remplacer les 6800 GTS, en préservant + ou - une conso légère et un format réduit (par exemple pour rentrer dans un barebone :) )  
 
J'avais de l'espoir avec les G92 mais si j'ai bien suivi il n'est décliné que sur des cartes de type 8800, avec ce que ça implique niveau dimensions...


Juin 2008 donc pas prés d'avoir des infos  :lol:


---------------
Ex HFR : Wilfried2828 -->>  Wilfried28_2  le retour...
n°6057683
Kremtak
Posté le 03-12-2007 à 11:28:50  profilanswer
 

Wilfried28_2 a écrit :


Juin 2008 donc pas prés d'avoir des infos  :lol:


Mouais ça me fait rire jaune, la politique actuelle de nvidia sur son milieu de gamme... déjà qu'actuellement c'est du bas-milieu de gamme, dans trois mois il n'y aura en fait plus du tout de milieu de gamme  :(

n°6057686
zato
Posté le 03-12-2007 à 11:29:24  profilanswer
 

Pensez que le nouveau D9E sera du G90 ?
 
si oui est-ce que les nouvelles CG de février seront GDR5 complient ?
 

Citation :

Les premiers exemplaires de GDDR5 ont été livrés le mois dernier. La production de masse est attendue pour le premier semestre 2007. Samsung pense que la GDDR5 devrait s'attribuer plus de 50% du marché « performance » sur le marché des puces mémoires pour cartes graphiques d'ici 2010.


source clubic 03/12/07.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  129  130  131  ..  391  392  393  394  395  396

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Préhistoire] Problème avec ma GeForce 4200 tibfg Geforce 8800gts 640Mo pci-e oc1 ou oc2 ?
Check-up de dernière minutey a t-il une sonde dans la asus geforce 8600 GT
Quelle quantite de memoire pour GeForce 8800GTS ?[Topic Unique] Thermaltake SwordM : le top du boitier!
[Topic Unique] Nvidua Geforce 9800GTS/9800GTXdifférence entre GeForce 2Mx et radeon 9200 ?
Plus de sujets relatifs à : [Topic Unique] GeForce 9 : dernière màj le 19/03/08


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)