Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3218 connectés 

 

 

Vous allez vous payer...




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  161  162  163  ..  391  392  393  394  395  396
Auteur Sujet :

[Topic Unique] GeForce 9 : dernière màj le 19/03/08

n°6134130
Hyrius
Posté le 05-01-2008 à 22:59:32  profilanswer
 

Reprise du message précédent :
Edite ta sign' marllt2. :o
 
"Q3 2008: Sortie de la 9800 GTX"

Message cité 2 fois
Message édité par Hyrius le 05-01-2008 à 23:00:09
mood
Publicité
Posté le 05-01-2008 à 22:59:32  profilanswer
 

n°6134132
god is dea​d
Demain, j'arrête de poster.
Posté le 05-01-2008 à 22:59:40  profilanswer
 

MEI a écrit :

Moi je vois 9600 GT a l'heure, 9800 GX2 à l'heure, et au pire vers la rentrée 2008 un G100, quand il sera necessaire et pres.
 
Je veut dire soit la GX2 est de 1,3x à 1,Xx plus rapide que la 8800 Ultra et non pas seulement 30%. Soit une GTX n'a aucun sens.
 
Le seul sens que pourrai avoir la 9800 GTX en mars ça serait :
- NVIDIA veut arreté la prod du G80 et maximiser celle du G92 = economie d'echelle = pepete pour lui + prix en baisse facilement quand il le faudra
- Apporter le triple SLI au G92
- Apporter plus que 512Mo au G92
- Eventuellement + de freq sur le GPU et + de bande passante RAM
 
Mais idem, quid de l'interet du Triple SLI si la 9800GX2 est là ? (si 2x GX2 coute moins moins que que 3x GTX...)


Bah c'est simple.
 
En 1600-1920 aa/af, si la 8800gt a un indice de perfs à 100, la 8800 Ultra a un indice d'environ 140. Le sli apportant environ 60-70% de gain, tu place un bi-gpu de 8800gt à un indice compris entre 160 et 170. On est donc bien dans le scénar des 30% en + vs 8800 U (en partant du principe que 30% est un chiffre volontairement optimiste, comme tjrs).
 
Je pense que tant qu'AMD n'aura rien à proposer, Nv n'a aucune raison de sortir une "nouvelle" archi seulement deux mois après sa Gx2. Amha, ces deux solutions Bi gpu, sauce AMD et Nv, vont occuper le haut de gamme pendant bien plus que deux mois.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6134134
marllt2
Posté le 05-01-2008 à 23:00:06  profilanswer
 

Hyrius a écrit :

Edite ta sign'. :o
 
"Q3 2008: Sortie de la 9800 GTX"


La 8950 GX2 était censé concurrencer le R680, et faire patienter jusqu'au G100 fin Q3. [:spamafote]
 
Comme nVidia a décidé pour raisons marketing de faire 8950 GX2 -> 9800 GX2 ( :o ), ma signature est toujours valable sur le fond, mais pas sur le forme. ;) J'aurais dû mettre Q1: bi-G92 et Q3: G100.


Message édité par marllt2 le 05-01-2008 à 23:07:09
n°6134151
jesaipacki
Posté le 05-01-2008 à 23:09:58  profilanswer
 

Ça devient un gros bordel avec les nominations des GPU et avec leurs noms commercials, jusqu'à maintenant j'arrivais à suivre mais là je commence à me perdre. :sweat:  
 
Bientôt on aura une 9900GTX qui sera un bas de gamme alors que son nom prédit un HDG! :sarcastic:

n°6134154
Hyrius
Posté le 05-01-2008 à 23:11:30  profilanswer
 

C'est vrai que c'est un peu l'embrouille.
 
En attendant je vais commander la GTS². :o

n°6134168
H3L0
Posté le 05-01-2008 à 23:19:33  profilanswer
 

Une petition qu'on envoie à nvidia afin qu'ils arrentent de faire n'importe quoi sous pretexte qu'ati fait n'importe quoi? :(
:D

n°6134183
booba92i
Posté le 05-01-2008 à 23:24:27  profilanswer
 

MEI a écrit :


Je veut dire soit la GX2 est de 1,3x à 1,Xx plus rapide que la 8800 Ultra et non pas seulement 30%. Soit une GTX n'a aucun sens.


 
je prefere 30% car 1.XX% ca fait pas lourd, aucun interet de l'acheter si telle est le cas  :heink: .
 
j'espere qu'elle vas pas etre trop cher sinon ma petite 7950gx2 qui depasse les 11k au 2006 vas encore passer du temps dans ma tour.

n°6134204
god is dea​d
Demain, j'arrête de poster.
Posté le 05-01-2008 à 23:32:44  profilanswer
 

Oué enfin, ta tite 7950gx2 a beau faire un super score sous 3dk, dans les jeux elle ne vaut plus grand chose, comme toute carte à base de g71 :/ Une simple HD 3850 256@140 euros est souvent plus perf actuellement. Comparer une Gx2 à base de g71 et une Gx2 à base de g92, ça en revient à comparer un P4 avec un C2d, donc pas comparable en fait :d


Message édité par god is dead le 05-01-2008 à 23:34:53

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6134245
immikimaru
Ding dong song
Posté le 05-01-2008 à 23:46:41  profilanswer
 

oui mais si la 9800GX2 fait le meme flop que le 7950GX2 :/ le problème des g71 c t plutot l'optimisation et les drivers nan , pas une erreur d'architecture nan?
 
j'espère que Nvidia ne fera pas la même erreurs et actualisera ses drivers :)


---------------
Mon Feed-Back  
n°6134271
booba92i
Posté le 05-01-2008 à 23:54:22  profilanswer
 

ti vas un peut fort pour dire qu'elle vaut plus rien dans les jeux (pas la peine de citer crisis, j'aime pas les jeux d'arcade!!!). j'ai aucun souci a jouer en haute qualiter en x8x16 sur mes jeux, surtout depuis que j'ai installer nvtray  :love:  
 
et pis bon je compare pas, ou alors on a editer mon message a mon insu.

Message cité 1 fois
Message édité par booba92i le 05-01-2008 à 23:55:15
mood
Publicité
Posté le 05-01-2008 à 23:54:22  profilanswer
 

n°6134278
poiuytr
\o/
Posté le 05-01-2008 à 23:54:45  profilanswer
 

Et qu'est ce qui se révèlerait le plus performant entre un SLI de 8800GT (puisque c'est le G92 le plus proche de ceux qui devraient équiper la 9800Gx2) et une 9800Gx2 justement ? :??:
Avec le recul que l'on a sur la 7950Gx2 et le SLI de 7950GT.

n°6134296
Profil sup​primé
Posté le 05-01-2008 à 23:59:03  answer
 

immikimaru a écrit :

oui mais si la 9800GX2 fait le meme flop que le 7950GX2 :/ le problème des g71 c t plutot l'optimisation et les drivers nan , pas une erreur d'architecture nan?
 
j'espère que Nvidia ne fera pas la même erreurs et actualisera ses drivers :)

Si, énorme.

n°6134316
god is dea​d
Demain, j'arrête de poster.
Posté le 06-01-2008 à 00:04:13  profilanswer
 

booba92i a écrit :

ti vas un peut fort pour dire qu'elle vaut plus rien dans les jeux (pas la peine de citer crisis, j'aime pas les jeux d'arcade!!!). j'ai aucun souci a jouer en haute qualiter en x8x16 sur mes jeux, surtout depuis que j'ai installer nvtray  :love:  
 
et pis bon je compare pas, ou alors on a editer mon message a mon insu.


Pourquoi seulement Crysis? Bcp de jeux du moment on du mal avec la Gx2. Après c'est sur que si tu joues uniquement à hl 2 ou FEAR...
Et tu me diras comment tu peux utiliser l'aa 8x sur un g71 limité au 4x  [:cobraphil8]

Message cité 1 fois
Message édité par god is dead le 06-01-2008 à 00:05:29

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6134318
marllt2
Posté le 06-01-2008 à 00:05:29  profilanswer
 

poiuytr a écrit :

Et qu'est ce qui se révèlerait le plus performant entre un SLI de 8800GT (puisque c'est le G92 le plus proche de ceux qui devraient équiper la 9800Gx2) et une 9800Gx2 justement ? :??:


Si les fréquences sont les mêmes, ça donnera les mêmes perfs. [:spamafote]

n°6134345
poiuytr
\o/
Posté le 06-01-2008 à 00:16:09  profilanswer
 

C'est un peu inutile alors...
Parce que quitte à faire du multi gpu autant se faire un SLI, car 2 cartes séparées sont surement plus facilement overclockables et il y a de la place pour changer les ventirads d'origine, chose impossible à faire avec une Gx2. Sans parler d'une éventuelle panne...

n°6134346
dami1stm
Eco-coco φ
Posté le 06-01-2008 à 00:17:16  profilanswer
 

poiuytr a écrit :

C'est un peu inutile alors...
Parce que quitte à faire du multi gpu autant se faire un SLI, car 2 cartes séparées sont surement plus facilement overclockables et il y a de la place pour changer les ventirads d'origine, chose impossible à faire avec une Gx2. Sans parler d'une éventuelle panne...


 
Va faire du SLI sur un chipset Intel aussi  ;)


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°6134350
MEI
|DarthPingoo(tm)|
Posté le 06-01-2008 à 00:18:58  profilanswer
 


Merde le G7x etait une boulette ?  :ouch:  
 
Non le pbs de la 7950GX2 c'est qu'elle est arrivé quand DX10 est arrivé et quand le G80 est arrivé et comme le G80 c'est la rupture, NVIDIA a bossé les pilotes G80/DX10 plutot que d'opti a mort pour le G7x qui de toutes facon architecturalement allait commencé a souffrir comme tout ce qui est pas unifié puisque les dev pourrons enfin sortir du Vertex Shaders a gogo. :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6134352
MEI
|DarthPingoo(tm)|
Posté le 06-01-2008 à 00:19:34  profilanswer
 

god is dead a écrit :


Pourquoi seulement Crysis? Bcp de jeux du moment on du mal avec la Gx2. Après c'est sur que si tu joues uniquement à hl 2 ou FEAR...
Et tu me diras comment tu peux utiliser l'aa 8x sur un g71 limité au 4x  [:cobraphil8]


Sur 7900GTX : MSAA4X et SSAA8X, et en 7950GX2 doit y avoir les mode SLI AA de toutes facons. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6134354
marllt2
Posté le 06-01-2008 à 00:21:28  profilanswer
 

MEI a écrit :

Non le pbs de la 7950GX2 c'est qu'elle est arrivé quand DX10 est arrivé


DX10 est arrivé en juin 2006 ? [:manneke]

n°6134356
MEI
|DarthPingoo(tm)|
Posté le 06-01-2008 à 00:22:55  profilanswer
 

Y'avais deja Vista depuis longtemps en pretest. :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6134396
distor
Posté le 06-01-2008 à 00:43:18  profilanswer
 

MEI a écrit :

Y'avais deja Vista depuis longtemps en pretest. :o


 
mais honnetement directx10 pour l'instant c'est plus une blague qu'autre chose,  
ya quelques effets à gagner, et pas mal de perf à perdre;
(la palme revient à crysis sur lequel on peut activer toutes les options dx10 sur xp en tripotant un .ini)

Message cité 1 fois
Message édité par distor le 06-01-2008 à 00:43:49

---------------
C2D E6750@3.6 (1.375v bios) | 4Go Crucial Ballistix@450 5.5.5.15 | p35-Ds3p | hd4850 | Acer 22" wide
n°6134467
booba92i
Posté le 06-01-2008 à 01:35:14  profilanswer
 

vi j'ai le slix8, slix8 gamma, slix16 et slix32 et bien sur activable meme avec une seule carte mais bon la en x32 ça rame severe. et comme j'ai dit plus haut heureusement qu'il existe nvtray sinon ces la cata avec les filtrages, ces quand meme un carte space mais une fois dompter ca depote pas mal dans les jeux. un exemple chelou le x4 est mois perf que le x8 en AA.
 bien sur j'ai pas directx10 mais j'en ai pas l'utiliter pour l'instant.
 
je doit bien etre un des seul a etre pleinement satisfait de ma gx2.
 
je sais pas si ça deja ete poser comme question mais la nouvelle gx2 va t'elle avoir un port pci-e castrer en x8 comme sur l'ancienne ?.
 
vivement les tests de la nouvelle gx2, va savoir je vais peut etre craquer ?.

n°6134496
MacIntoc
tu lis une phrase formidable.
Posté le 06-01-2008 à 02:05:36  profilanswer
 

ANViL a écrit :


- Nvidia dispose d'une archi pérenne et qui a fait ses preuves


Je comprends mieux pourquoi nVidia a du mal a faire géré les SM 4.1 a ses puces, bien qu'il s'agisse de modifications mineures :D
De plus, on a toujours pas vu ce dont le G80/G92 est capable en GS (de même que le R600, d'ailleurs). Ca m'étonne toujours qu'aucun site n'inclue les démos du SDK de Dx10 dans leur tests. Ca représente peut-être pas les performances d'un jeu (quoique ces démos ont quand même été développé dans l'objectif d'être facilement intégrable dans un jeux), mais c'est toujours mieux que d'effectuer des tests sur des jeux qui ne représente absolument pas les possibilités de Dx10 et qui inclues tellement d'optimisations pour une carte données, quand il ne s'agit pas de pourrir les perfs des cartes concurrentes, que 3D Mark passe pour une référence.

 
distor a écrit :


(la palme revient à crysis sur lequel on peut activer toutes les options dx10 sur xp en tripotant un .ini)


Pas tout à fait, y a toujours les Softs Particules et le Geometry Instancing qui restent exclusif à la version Dx10. Le premier apporte un léger gain visuel lorsque, par exemple, de la fumée entre en contact avec le sol et le second permet de libérer la RAM graphique d'une partie des objets 3D affichés.

Message cité 1 fois
Message édité par MacIntoc le 06-01-2008 à 02:18:28
n°6134521
poiuytr
\o/
Posté le 06-01-2008 à 02:20:47  profilanswer
 

dami1stm a écrit :

Va faire du SLI sur un chipset Intel aussi  ;)


C'est vrai mais c'est le même cas de figure c'est Ati (avec leur 3870 X2), on n'est donc pas plus avancé. [:spamafote]
Et Foxconn doit sortir une cm X38 (la X38A) permettant de faire du SLI (en plus du XFire) par l'intermédiaire de drivers maison je crois, ça pourrait être intéressant. :)

n°6134527
Profil sup​primé
Posté le 06-01-2008 à 02:23:45  answer
 
n°6134529
marllt2
Posté le 06-01-2008 à 02:25:21  profilanswer
 

poiuytr a écrit :

Et Foxconn doit sortir une cm X38 (la X38A) permettant de faire du SLI (en plus du XFire) par l'intermédiaire de drivers maison je crois, ça pourrait être intéressant. :)


Foxconn a fait une annonce marketing volontairement floue, mais le SLI n'est pas supporté. ;)
 
http://www.jmax-hardware.com/index [...] &Itemid=37
 

Citation :

elle peut accepter deux cartes graphiques Nvidia grâce à une alternative au SLi appelée Foxconn Multi-Graphics. Aucun test n'est disponible à ce jour pour évaluer les performances de cette technologie


Jamais il n'est mentionné que le SLI marche. [:cosmoschtroumpf] On peut mettre deux cartes nVidia sur n'importe quelle mobo pour les faire marcher en quadri-écran. Mais pas en SLI. ;)
 
 
Et les 9400 ca va être quoi comme code ?  :whistle:


Message édité par marllt2 le 06-01-2008 à 02:30:36
n°6134532
poiuytr
\o/
Posté le 06-01-2008 à 02:29:59  profilanswer
 
n°6134535
marllt2
Posté le 06-01-2008 à 02:33:02  profilanswer
 


http://www.ocworkbench.com/2007/computex/day2ch/pic016.jpg
 
Perso je ne voit pas de mention du SLI. [:cosmoschtroumpf]

Message cité 1 fois
Message édité par marllt2 le 06-01-2008 à 02:35:09
n°6134719
flav106
Vive la tartiflette !!!
Posté le 06-01-2008 à 10:41:58  profilanswer
 

MacIntoc a écrit :


Pas tout à fait, y a toujours les Softs Particules et le Geometry Instancing qui restent exclusif à la version Dx10. Le premier apporte un léger gain visuel lorsque, par exemple, de la fumée entre en contact avec le sol et le second permet de libérer la RAM graphique d'une partie des objets 3D affichés.


 
Ben c'est pas ça qui rend la version DX10 plus performante ...  [:spamafote]


---------------
PSN Flav106
n°6134728
MEI
|DarthPingoo(tm)|
Posté le 06-01-2008 à 10:47:50  profilanswer
 

La précision des Shaders doit être simplement différente c'est tout.
 
Puis y'a écrit mode Very High, pas mode DX10. :o Faut arrêté de troller un peu...  


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6134757
ANViL
yep...definitely ♫
Posté le 06-01-2008 à 11:05:08  profilanswer
 

Ça spécule sec ici  :wahoo:  
 
Relax all.....................................................le CES démarre demain, on aura très certainement des infos intéressantes sur les D9x.

n°6134765
Profil sup​primé
Posté le 06-01-2008 à 11:08:12  answer
 


 
Le X38 ne prend pas le en charge le SLI

n°6134887
Activation
21:9 kill Surround Gaming
Posté le 06-01-2008 à 11:59:28  profilanswer
 

Hyrius a écrit :

Edite ta sign' marllt2. :o
 
"Q3 2008: Sortie de la 9800 GTX"


 
mais non Q4... rachat d amd par lenovo  :whistle:

n°6134892
Activation
21:9 kill Surround Gaming
Posté le 06-01-2008 à 12:00:44  profilanswer
 

dami1stm a écrit :


 
Va faire du SLI sur un chipset Intel aussi  ;)


 
qui sait ... ptet que dans qqmois
 
à force de sortir du 680 pourri et du 780 pourri y a interet que le 790 soit une bonne cuvé chez nvidia en terme chipset

n°6135010
H3L0
Posté le 06-01-2008 à 12:52:48  profilanswer
 

Meme que ca serait un bon chip, si le prix reste similaire à celui du 680... Ca reduira nettement le nombre de personnes suceptibles de faire du sli :/

n°6135165
MacIntoc
tu lis une phrase formidable.
Posté le 06-01-2008 à 13:46:39  profilanswer
 

flav106 a écrit :


Ben c'est pas ça qui rend la version DX10 plus performante ...  [:spamafote]


En effet. Mais faut bien que les devs se fassent la main dessus. C'est juste dommage qu'ils soient obligés de communiqué autant.
 
 

MEI a écrit :

La précision des Shaders doit être simplement différente c'est tout.
Puis y'a écrit mode Very High, pas mode DX10. :o Faut arrêté de troller un peu...  


Les shader sont visuellement identique. C'est même pas sur que les versions XP soient différemment programmés des versions Vista, vu qu'il est parfaitement possible de faire tourner un programme Dx9 sous Dx10, s'il est correctement conçus (dixit Microsoft)..
Pour le troll, faut se plaindre à Crytek. Ce sont eux qui font croire que Very High == Dx10 [:spamafote]

n°6135179
Spazmatazz
Posté le 06-01-2008 à 13:51:45  profilanswer
 

On parle de 1000 € pour la 9800GX2...?  :lol:  
 
http://www.generation-nt.com/gefor [...] 65974.html

n°6135223
H3L0
Posté le 06-01-2008 à 14:06:36  profilanswer
 

Spazmatazz a écrit :

On parle de 1000 € pour la 9800GX2...?  :lol:  
 
http://www.generation-nt.com/gefor [...] 65974.html


Pas possible....
Un sli de 88gt (équivalent donc) ne coute "que" 500€....

n°6135278
Hyrius
Posté le 06-01-2008 à 14:23:42  profilanswer
 

Spazmatazz a écrit :

On parle de 1000 € pour la 9800GX2...?  :lol:  
 
http://www.generation-nt.com/gefor [...] 65974.html


 
Elle sera dans les 600 je pense.

n°6135365
MEI
|DarthPingoo(tm)|
Posté le 06-01-2008 à 14:55:36  profilanswer
 

C'est quoi cette news de merde qui sort un chiffre de nul part ? :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°6135370
MEI
|DarthPingoo(tm)|
Posté le 06-01-2008 à 14:56:39  profilanswer
 

MacIntoc a écrit :


En effet. Mais faut bien que les devs se fassent la main dessus. C'est juste dommage qu'ils soient obligés de communiqué autant.
 
 


MacIntoc a écrit :


Les shader sont visuellement identique. C'est même pas sur que les versions XP soient différemment programmés des versions Vista, vu qu'il est parfaitement possible de faire tourner un programme Dx9 sous Dx10, s'il est correctement conçus (dixit Microsoft)..
Pour le troll, faut se plaindre à Crytek. Ce sont eux qui font croire que Very High == Dx10 [:spamafote]


Non CryTek dit que Very High est activable que sous DX10, pas que c'est techniquement impossible. Ca sous entends que soit l'implentation DX10 est plus perfs et celle DX9 desastreuse, soit les cartes DX9 (ie GF7) ne peuvent pas les faires tourner autrement qu'en slideshow.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  161  162  163  ..  391  392  393  394  395  396

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Préhistoire] Problème avec ma GeForce 4200 tibfg Geforce 8800gts 640Mo pci-e oc1 ou oc2 ?
Check-up de dernière minutey a t-il une sonde dans la asus geforce 8600 GT
Quelle quantite de memoire pour GeForce 8800GTS ?[Topic Unique] Thermaltake SwordM : le top du boitier!
[Topic Unique] Nvidua Geforce 9800GTS/9800GTXdifférence entre GeForce 2Mx et radeon 9200 ?
Plus de sujets relatifs à : [Topic Unique] GeForce 9 : dernière màj le 19/03/08


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)