Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2050 connectés 

 

 

Aprés un GT200 consommant et chauffant énormément, pariez-vous sur la révision GT200B en :


 
62.3 %
 415 votes
1.  55nm (nouveau standard)
 
 
22.7 %
 151 votes
2.  45nm (Aucun GPU de produit à cette finesse - coût plus élevé (nouveauté))
 
 
15.0 %
 100 votes
3.  40nm (Aucun GPU de produit à cette finesse - coût bien plus élevé (nouveauté ultime) Dispo pour eux depuis le 2T. 2008)
 

Total : 942 votes (276 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  203  204  205  ..  833  834  835  836  837  838
Auteur Sujet :

[Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250

n°6446122
Amraam
Si vis pacem...
Posté le 20-06-2008 à 16:27:52  profilanswer
 

Reprise du message précédent :

Ill Nino a écrit :


Faut une mobo compatible SLi. :D Donc nForce...


 
Sauf que le Quad SLi de 9800GX2 marche très bien sur cette carte, pareil pour un dual SLi de 8800GTX...

mood
Publicité
Posté le 20-06-2008 à 16:27:52  profilanswer
 

n°6446123
Profil sup​primé
Posté le 20-06-2008 à 16:28:02  answer
 

Ill Nino a écrit :

Faut une mobo compatible SLi. :D Donc nForce...


cadeau => http://www.tgdaily.com/content/view/36165/135
Partie intéressante, de 2.17 à 2.23 ;)...


Message édité par Profil supprimé le 20-06-2008 à 16:32:09
n°6446126
alexreunio​n
Posté le 20-06-2008 à 16:28:42  profilanswer
 

Amraam a écrit :

:hello:  
Pour l'instant, ls SLi n'est pas activable sur Skulltrail avec 2 GTX280 (drivers essayés: 177.26,177.35,177.39) :sweat:  
Est-ce un bug ou une intention de nVidia??


 
Il y a donc des gens qui ont acheté un skulltrail  :ouch:


---------------
Mon feedback
n°6446127
Amraam
Si vis pacem...
Posté le 20-06-2008 à 16:28:58  profilanswer
 

darckcrystal a écrit :


 
ça va venir t'inquiète je suit le sujet de prés  ;)


 
Tu as des infos?? Point of View a fait remonter le pb chez nVidia, qui leur a dit qu'il s'agissait d'un bug de drivers (faut-il le croire?)

n°6446129
Amraam
Si vis pacem...
Posté le 20-06-2008 à 16:29:57  profilanswer
 

alexreunion a écrit :


 
Il y a donc des gens qui ont acheté un skulltrail  :ouch:


 
Ben oui... et je ne suis pas le seul loin de là

n°6446132
darckcryst​al
Anima Sana In Corpore Sano
Posté le 20-06-2008 à 16:30:21  profilanswer
 

c'est les drivers ça y'a pas de soucis, nvidia bosse dessus mais parle d'une limitation de bande passante avec 2 GTX280 (rien entendu a propose des 260)


---------------
[Mon Topic ACH/VDS/ECH]
n°6446135
Amraam
Si vis pacem...
Posté le 20-06-2008 à 16:31:24  profilanswer
 

darckcrystal a écrit :

c'est les drivers ça y'a pas de soucis, nvidia bosse dessus mais parle d'une limitation de bande passante avec 2 GTX280 (rien entendu a propose des 260)


Bizarre quand on sait que le PCIE 1.1/1.0 ne limite pas les cartes graphiques. Tu as une source??

n°6446137
darckcryst​al
Anima Sana In Corpore Sano
Posté le 20-06-2008 à 16:31:45  profilanswer
 

je suis en train de cherche le post sur XS

 

edit: en fait c'est sur vr-zone mais le gars a édité son post, probablement une conneries :/ quoi qu'il soit ça va s'arranger :D


Message édité par darckcrystal le 20-06-2008 à 16:49:38

---------------
[Mon Topic ACH/VDS/ECH]
n°6446162
Leto 42
Globalement inoffensif
Posté le 20-06-2008 à 16:44:12  profilanswer
 

Gremlin a écrit :


 
Non ce n'est pas pareil.
Le GT200 n'est pas un double G92, il y a suffisamment de différences pour devoir recommencer un design complet, et c'est ça qui coûte cher.
Mettre plusieurs coeurs sur un même die, c'est peut-etre moins optimal, mais tu gagnes énormément en coût de R&D pour un gain significatif.


C'est bien pour ça que je parle d'équivalence de 2 G92 sur un même die. Maintenant le challenge c'est de faire que 2 die soit sur une même carte soit sur 2 cartes séparées en SLI ou CF puissent se comporter comme un seul et même die. Grâce à ça les fabricants pourront faire des économies et pourquoi pas mettre 3 ou 4 core sur une même carte, décliner la gamme en jouant sur le nombre de core, etc... Pour l'instant ce n'est pas au point, ni le logiciel ni le matériel.


---------------
Le jeu du screenshot, le retour
n°6446163
noobzed
Where is Brian ? DTC !
Posté le 20-06-2008 à 16:44:35  profilanswer
 

le mieux pour savoir si un oc de cg est artefact free
ati tool
ou autre ?


---------------
FEEDBACK HFR  
mood
Publicité
Posté le 20-06-2008 à 16:44:35  profilanswer
 

n°6446177
rem_rem
Posté le 20-06-2008 à 16:48:52  profilanswer
 

Leto 42 a écrit :


C'est bien pour ça que je parle d'équivalence de 2 G92 sur un même die. Maintenant le challenge c'est de faire que 2 die soit sur une même carte soit sur 2 cartes séparées en SLI ou CF puissent se comporter comme un seul et même die. Grâce à ça les fabricants pourront faire des économies et pourquoi pas mettre 3 ou 4 core sur une même carte, décliner la gamme en jouant sur le nombre de core, etc... Pour l'instant ce n'est pas au point, ni le logiciel ni le matériel.


Et également que les 2 dies puissent se partager la mémoire vidéo.

n°6446209
jeanjean15
buy cheap, buy twice
Posté le 20-06-2008 à 17:01:37  profilanswer
 

noobzed a écrit :

le mieux pour savoir si un oc de cg est artefact free
ati tool
ou autre ?


 
Faire aussi tourner 3dmark2003 en boucle , une horreur pour les cartes !


---------------
mes_feeds
n°6446221
whitefang1
Posté le 20-06-2008 à 17:05:09  profilanswer
 

Bonjour,
 
Juste une info ...
 
Est-ce nécessaire de mettre 50€ de plus pour une gtx 280 OC ? On peut l'OC soit même si besoin est non ?

Message cité 1 fois
Message édité par whitefang1 le 20-06-2008 à 17:05:26
n°6446225
angela-pcs
Posté le 20-06-2008 à 17:06:42  profilanswer
 

tout a fait , apres l'oc est garantie et il y a des "rumeurs" ( fudzilla) comme quoi 680 c'est le grand max
Pourtant Zotac pose 700 sur l'amp allez chercher a comprendre ....

n°6446227
jeanjean15
buy cheap, buy twice
Posté le 20-06-2008 à 17:06:59  profilanswer
 

whitefang1 a écrit :

Bonjour,
 
Juste une info ...
 
Est-ce nécessaire de mettre 50€ de plus pour une gtx 280 OC ? On peut l'OC soit même si besoin est non ?


 
Oui , on peut .  Il y a plein de topic à ce sujet .  


---------------
mes_feeds
n°6446230
Profil sup​primé
Posté le 20-06-2008 à 17:07:54  answer
 

WhiteFang1 > si tu as besoin de l'o/c, ça ne peut être que pour du bench :spamafote:...
Et en l'occurence tu n'en auras jamais assez pour ce 'sport'
Prends un modèle non o/c, moins cher qui aura un potentiel maximum pas nécessairement moins élevé qu'un déjà o/c d'origine ;)


Message édité par Profil supprimé le 20-06-2008 à 17:08:21
n°6446236
rem_rem
Posté le 20-06-2008 à 17:10:12  profilanswer
 

angela-pcs a écrit :

tout a fait , apres l'oc est garantie et il y a des "rumeurs" ( fudzilla) comme quoi 680 c'est le grand max
Pourtant Zotac pose 700 sur l'amp allez chercher a comprendre ....


 
A 700 j'ai des artefacts ou plantages... Pour le moment je suis a 660 (sur deux cartes).

n°6446250
angela-pcs
Posté le 20-06-2008 à 17:15:22  profilanswer
 

peut etre puce trié pour la zotac d'ou le prix
Sur le site il annonce meme une modif sur le systeme de refroidissement en plus il me semble ( peut etre niveau du blower )

n°6446263
alexreunio​n
Posté le 20-06-2008 à 17:18:54  profilanswer
 

angela-pcs a écrit :

peut etre puce trié pour la zotac d'ou le prix
Sur le site il annonce meme une modif sur le systeme de refroidissement en plus il me semble ( peut etre niveau du blower )


 
Ou alors c'est comme chez XFX, du retour SAV en pagaille  :o


---------------
Mon feedback
n°6446287
la_taupe
myope-la-boum
Posté le 20-06-2008 à 17:28:48  profilanswer
 

noobzed a écrit :

donc du coup je vais me retrouver ac deux gtx 280 :D
sli or not sli :D ???

Quelle question, fais péter les scores en SLI (jusqu'à ce que la pov défectueuse fonde) :sol:

noobzed a écrit :

tu sais pas comment avoir de l'argent ?
mon conseil: bouges toi le cul ..

Serge Dassault, si tu nous regardes... :hello:
 
--------------------------------------------------------------------------------------------------
 
J'arrête pas d'avoir des pensées impures à propos d'un SLI de GTX280 :o
 
http://www.atxpowersupplies.com/images/300-watt-psu-booster-x3-fsp300-1e01-350w.gif%20
 
Serait-il possible de se servir d'une alim d'appoint genre Fortron Booster X3 (prévue pour alimenter un petit SLI, 2x 6pin quoi) pour alimenter
- soit les 2x 6-pins (1 de chaque carte)
- soit un 8-pin d'une des cartes (avec adaptateur) ?
 
C'est faisable d'alimenter des cartes de façon un peu bâtarde comme ça (un cordon vient de l'alim principale, un cordon vient du Booster) ou je joue avec le feu ?
Tant qu'il y a les Watts ça roule non ? :??:
 
 
 
 
 

n°6446291
angela-pcs
Posté le 20-06-2008 à 17:29:44  profilanswer
 

oui ca peut le faire , ça débite combien de watt ce modele ?

n°6446353
la_taupe
myope-la-boum
Posté le 20-06-2008 à 17:53:11  profilanswer
 

300W et ça envoie que du 12v.

n°6446428
Pinto
Posté le 20-06-2008 à 18:21:06  profilanswer
 

angela-pcs a écrit :

peut etre puce trié pour la zotac d'ou le prix
Sur le site il annonce meme une modif sur le systeme de refroidissement en plus il me semble ( peut etre niveau du blower )


 
Mes cartes sont rockstable à 700mhz  :D  La clé c'est de baisse un peu les shaders comme sur la zotac, chez moi ils sont à 1450mhz au lieu de 1571mhz si je les avaient laissé en synchro  :jap:  
La je tourne à 700/14501250 en 24/24 et à 730/1600/1350 en benchs, vive twintech  :lol:

n°6446431
hildegarde
I'll be back
Posté le 20-06-2008 à 18:22:08  profilanswer
 

ouais :mouais: autant changer d'alim


---------------
Feed-Back
n°6446450
vivelechri​stroi
Posté le 20-06-2008 à 18:26:47  profilanswer
 

Pinto a écrit :


 
Mes cartes sont rockstable à 700mhz  :D  La clé c'est de baisse un peu les shaders comme sur la zotac, chez moi ils sont à 1450mhz au lieu de 1571mhz si je les avaient laissé en synchro  :jap:  
La je tourne à 700/14501250 en 24/24 et à 730/1600/1350 en benchs, vive twintech  :lol:


 
 
Dépêchez vous d'installer, si ce n'est pas déjà fait, le PhysX Nvidia ! On a hâte de connaître le score!
 
Sous 3DMark Vantage, avec mes 9800, c'est déjà énorme, alors avec vos deux GTX280  :pt1cable:

n°6446478
cyberfred
Posté le 20-06-2008 à 18:33:50  profilanswer
 

heu question bete , on l'installe comment le physX nvidia ???
C'est dans les derniers drivers ?
 
edit : ok j'ai rien dit c'est ici :
http://downloads.guru3d.com/Ageia- [...] -1958.html

Message cité 1 fois
Message édité par cyberfred le 20-06-2008 à 18:34:29
n°6446490
Pinto
Posté le 20-06-2008 à 18:37:28  profilanswer
 

vivelechristroi a écrit :


 
 
Dépêchez vous d'installer, si ce n'est pas déjà fait, le PhysX Nvidia ! On a hâte de connaître le score!
 
Sous 3DMark Vantage, avec mes 9800, c'est déjà énorme, alors avec vos deux GTX280  :pt1cable:


 
Déjà mis mais je suis sous XP donc pas de Vantage  ;)

n°6446504
teniak
Before we can talk to the boss
Posté le 20-06-2008 à 18:40:30  profilanswer
 

cyberfred a écrit :

heu question bete , on l'installe comment le physX nvidia ???
C'est dans les derniers drivers ?

 

edit : ok j'ai rien dit c'est ici :
http://downloads.guru3d.com/Ageia- [...] -1958.html

 


Ca ne fonctionne pas avec les g80 et en dessous.
Meme en modifiant le *.inf.

 

YAPLUKA Attendre :)

 

edit :ps le liens que tu donne c'est si t'a une carte ageia
> quote : This driver Supports all AGEIA PhysX Processors, this is not the GeForce PhysX version.

Message cité 1 fois
Message édité par teniak le 20-06-2008 à 18:47:07

---------------
Vivement hier -  Mes vidéo BF3
n°6446507
vivelechri​stroi
Posté le 20-06-2008 à 18:41:12  profilanswer
 

Pinto a écrit :


 
Déjà mis mais je suis sous XP donc pas de Vantage  ;)


 
 
Sous 3DMark06, ça devrait améliorer aussi ? non ?
 
Chez moi ça ne donne rien. Cela vous paraît normal ?

n°6446525
tom7587
Posté le 20-06-2008 à 18:46:22  profilanswer
 

Salut les gars bon bientot les hd 4870 x2 vont sortir !!!
vous verrez quoi du coter de chez nvidia pour contrer ça !!! ????

n°6446530
ldre@mer
réveillez moi !
Posté le 20-06-2008 à 18:48:32  profilanswer
 

vivelechristroi a écrit :


 
 
Sous 3DMark06, ça devrait améliorer aussi ? non ?
 
Chez moi ça ne donne rien. Cela vous paraît normal ?


 
 
je crois que les drivers physx ne sont géré qu'à partir des 177.39 (donc beta).. à confirmer


Message édité par ldre@mer le 20-06-2008 à 18:49:15

---------------
++Il vaut mieux ne penser à rien que ne pas penser du tout++
n°6446534
teniak
Before we can talk to the boss
Posté le 20-06-2008 à 18:49:41  profilanswer
 

HS : non fonctionne également avec les precedent


---------------
Vivement hier -  Mes vidéo BF3
n°6446548
angela-pcs
Posté le 20-06-2008 à 18:53:14  profilanswer
 

For all the 9800GTX/GTX+/GTX260/280 Owners.
 
Vista 32Bit
http://www.filefactory.com/file/d9e47f/
 
Vista 64Bit
http://www.overclocking.de/downloads...tional_NEW.exe
 
XP 32Bit
http://www.filefactory.com/file/04cd5a/
 
XP 64Bit
http://www.filefactory.com/file/fb3062/
 
avec ça comme nv_disp.inf pour les g92
 
http://rapidshare.com/files/123837311/nv_disp.inf.html

Message cité 1 fois
Message édité par angela-pcs le 20-06-2008 à 18:57:05
n°6446553
romrommm
sauver ou perir
Posté le 20-06-2008 à 18:54:35  profilanswer
 

bonjour tout le monde  
a l'aide!!!!!
j'ai recu ma GTX280 de leadtek
comme par hasard la notice est bidon
voila mon pb....
j'ai dans la boite un adaptateur en V  6pin/8pin et un autre molex/6pin
je voulais savoir si il falait que je branche tout c'est a dire mes deux 6pin sur l'adaptateur 6pin/8pin pour le brancher sur la CG en 8pin et aussi le molex/6pin sur le 6pin de la CG
 
j'espere avoir été clair car j'ai du mal
merci d'avance pour votre aide

n°6446556
Ill Nino
Love
Posté le 20-06-2008 à 18:55:33  profilanswer
 

Ayé, j'ai la mienne! Une XFX donc. Tres sympa le bundle XFX, un adaptateur 6 pins mais pas de 8 pins. Ca doit en effet courrir les rues les alims qui ont des adaptateurs 8 pins mais pas de 6 pins! :D
Par contre j'avais pas vu qu'ils poussent le vice jusqu'a mettre un autocollant sur l'arriere aussi chez XFX! :lol:
 
Photos:
http://www.izipik.com/images/20080620/tbnh3n2qtje2vpojsbbg6-20062008136.jpghttp://www.izipik.com/images/20080620/tbni1yz3jhs2eypgyb8q3-20062008137.jpghttp://www.izipik.com/images/20080620/tbnjdk5wamihr4miay5tl-20062008138.jpghttp://www.izipik.com/images/20080620/tbnkho2jwgxo4ssgn6gak-20062008139.jpghttp://www.izipik.com/images/20080620/tbnh88zezkqnf5ygterwp-20062008140.jpghttp://www.izipik.com/images/20080620/tbnh76qvck3sa6oguj0v2-20062008141.jpg


Message édité par Ill Nino le 20-06-2008 à 18:56:36

---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6446567
overclockp​ro
Posté le 20-06-2008 à 18:59:13  profilanswer
 

Ta XFX a un autocollant sympa.

n°6446571
Jack_Power
Posté le 20-06-2008 à 19:00:36  profilanswer
 

romrommm a écrit :

bonjour tout le monde  
a l'aide!!!!!
j'ai recu ma GTX280 de leadtek
comme par hasard la notice est bidon
voila mon pb....
j'ai dans la boite un adaptateur en V  6pin/8pin et un autre molex/6pin
je voulais savoir si il falait que je branche tout c'est a dire mes deux 6pin sur l'adaptateur 6pin/8pin pour le brancher sur la CG en 8pin et aussi le molex/6pin sur le 6pin de la CG
 
j'espere avoir été clair car j'ai du mal
merci d'avance pour votre aide


 
J'ai pas tout bien compris , en tout cas faut que tout soit alimenter , que ça soit le 6 pins ou le 8 sur la Cg et pas de 6 + 6 en laissant 2 pin's libre sur le 8 . A toi de faire correspondre ensuite via ton alim  ;)

Message cité 1 fois
Message édité par Jack_Power le 20-06-2008 à 19:01:19
n°6446574
marllt2
Posté le 20-06-2008 à 19:02:50  profilanswer
 

tom7587 a écrit :

Salut les gars bon bientot les hd 4870 x2 vont sortir !!!
vous verrez quoi du coter de chez nvidia pour contrer ça !!! ????


Un certain G100...

n°6446580
Rayaki
Posté le 20-06-2008 à 19:04:53  profilanswer
 

Jack_Power a écrit :


 
Ca s'est déja vue pourtant ....
 
Tien au faite , vous allez pouvoir vous astiquez ceux l'ayant acheter  :D  ;)  
Nouvelle démo technologique chez NVIDIA
Afin de mettre en avant les capacités de ses dernières puces 3D très haut de gamme, les GeForce GTX 260 et GTX 280, NVIDIA a publié ce jour sa dernière démo technologique en date. Baptisée « Medusa », elle pèse 239 Mo et fonctionne aussi sur les GeForce 8 et GeForce 9.
 
http://www.clubic.com/actualite-14 [...] vidia.html


 
quand je vois le framerate sur un sli de 8800gt, je me demande ce que ca doit donner avec des GT 260/280 :D

n°6446586
cyberfred
Posté le 20-06-2008 à 19:06:20  profilanswer
 

teniak a écrit :


 
 
Ca ne fonctionne pas avec les g80 et en dessous.
Meme en modifiant le *.inf.
 
YAPLUKA Attendre :)
 
edit :ps le liens que tu donne c'est si t'a une carte ageia
> quote : This driver Supports all AGEIA PhysX Processors, this is not the GeForce PhysX version.


 
mince , désolé pour le lien j'ai pas tout lu !

n°6446587
god is dea​d
Demain, j'arrête de poster.
Posté le 20-06-2008 à 19:06:51  profilanswer
 

marllt2 a écrit :


Un certain G100...


On veut des infos :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  203  204  205  ..  833  834  835  836  837  838

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Intel Core 2 Duo E4700[Topic Unique] Silverstone FT01
[Topic Unique] Bluetooth / Bluesoleil / test de dongle des membres[Topic unique] Nvidia 9600 GT
Plus de sujets relatifs à : [Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)