Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4419 connectés 

 

 

Aprés un GT200 consommant et chauffant énormément, pariez-vous sur la révision GT200B en :


 
62.3 %
 415 votes
1.  55nm (nouveau standard)
 
 
22.7 %
 151 votes
2.  45nm (Aucun GPU de produit à cette finesse - coût plus élevé (nouveauté))
 
 
15.0 %
 100 votes
3.  40nm (Aucun GPU de produit à cette finesse - coût bien plus élevé (nouveauté ultime) Dispo pour eux depuis le 2T. 2008)
 

Total : 942 votes (276 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  204  205  206  ..  833  834  835  836  837  838
Auteur Sujet :

[Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250

n°6446587
god is dea​d
Demain, j'arrête de poster.
Posté le 20-06-2008 à 19:06:51  profilanswer
 

Reprise du message précédent :

marllt2 a écrit :


Un certain G100...


On veut des infos :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 20-06-2008 à 19:06:51  profilanswer
 

n°6446589
romrommm
sauver ou perir
Posté le 20-06-2008 à 19:08:15  profilanswer
 

Jack_Power a écrit :


 
J'ai pas tout bien compris , en tout cas faut que tout soit alimenter , que ça soit le 6 pins ou le 8 sur la Cg et pas de 6 + 6 en laissant 2 pin's libre sur le 8 . A toi de faire correspondre ensuite via ton alim  ;)


 
vais essayé d'etre plus clair  :sweat:  
 
alors avec la CG j'ai deux adaptateur
1) molex
            -- 6 pin
    molex
 
2)6pin
         -- 8pin
   6pin
 
sur mon alim j'ai juste deux 6pin et tout le reste molex
 
donc est ce que je doit faire??
 
alim molex -> adaptateur molex
                                           -- 6pin CG
alim molex -> adaptateur molex
 
alim 6pin -> adapteteur 6pin
                                        -- 8pin CG
alim 6pin -> adapteteur 6pin
 
 
 

n°6446590
Jack_Power
Posté le 20-06-2008 à 19:08:28  profilanswer
 

AGEIA PhysX Processors , je pense très sincerement aux personnes ayant acheter ses cartes a l'heure qu'il est , gachis d'euros direct  :sweat: . M'enfin bon on les avait un peu avertie ici déja hehe .... :p


Message édité par Jack_Power le 20-06-2008 à 19:10:53
n°6446593
ismqel
upgrade your life !
Posté le 20-06-2008 à 19:09:38  profilanswer
 

:)


Message édité par ismqel le 20-06-2008 à 19:10:24
n°6446595
Jack_Power
Posté le 20-06-2008 à 19:10:23  profilanswer
 

romrommm a écrit :


 
vais essayé d'etre plus clair  :sweat:  
 


 
Tu t'es repondue tout seul  [:atari]  
 
alim molex -> adaptateur molex
                                           -- 6pin CG
alim molex -> adaptateur molex
 
alim 6pin -> adapteteur 6pin
                                        -- 8pin CG
alim 6pin -> adapteteur 6pin
 

Message cité 1 fois
Message édité par Jack_Power le 20-06-2008 à 19:11:38
n°6446598
Ill Nino
Love
Posté le 20-06-2008 à 19:11:14  profilanswer
 

overclockpro a écrit :

Ta XFX a un autocollant sympa.


C'est le moins pire disons quoi. :D


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6446602
marllt2
Posté le 20-06-2008 à 19:11:33  profilanswer
 

god is dead a écrit :

On veut des infos :o


Le truc que je peux dire c'est qu'on en parlait déjà il y a 5 mois. Et ce chip mystère (dont le nom G100 est réapparu à la surface récemment) est censé se placer au dessus du GT200.
 
A l'époque c'est un peu passé inaperçu, le GT200 s'annonçant comme un monstre et AMD étant +/- largué...


Message édité par marllt2 le 20-06-2008 à 19:13:51
n°6446607
romrommm
sauver ou perir
Posté le 20-06-2008 à 19:12:50  profilanswer
 

Jack_Power a écrit :


 
Tu t'es repondue tout seul  [:atari]  
 
alim molex -> adaptateur molex
                                           -- 6pin CG
alim molex -> adaptateur molex
 
alim 6pin -> adapteteur 6pin
                                        -- 8pin CG
alim 6pin -> adapteteur 6pin
 


 
 
a ouais faut tout brancher???
j'ai pas l'air dun con là :sweat:  

n°6446630
Ill Nino
Love
Posté le 20-06-2008 à 19:21:02  profilanswer
 


SUper! :) J'vais tester. :) 3DM06 tire partie du Phsyx?


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6446639
vivelechri​stroi
Posté le 20-06-2008 à 19:23:47  profilanswer
 

Ill Nino a écrit :


SUper! :) J'vais tester. :) 3DM06 tire partie du Phsyx?


 
 
Pour moi, cela a amélioré 3DMark Vantage mais pas 3DMark06...

mood
Publicité
Posté le 20-06-2008 à 19:23:47  profilanswer
 

n°6446641
Ill Nino
Love
Posté le 20-06-2008 à 19:24:21  profilanswer
 

Bon, niveau temps tout a l'air ok sur la mienne, 52-55°C en idle, 70°C en charge. Par contre j'ai aussi le truc du PCB a 190°C dans GPU-Z, mais franchement, ca doit etre un bug de GPU-Z, ca varie pas d'un poils.
 
Niveau bruit en idle la carte est audible mais silencieuse quand meme. Disons qu'elle irait pas pour un HTPC, mais pour un PC de jeux ca passe sans probleme! En charge, on l'entend plus, mais elle est pas bruyante. Juste audible. Mais si on est plongé dans le jeu, je suis sur qu'on y fait meme pas gaffe. :)
 
Du tout bon donc! :)


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6446643
Ill Nino
Love
Posté le 20-06-2008 à 19:24:37  profilanswer
 

vivelechristroi a écrit :


 
 
Pour moi, cela a amélioré 3DMark Vantage mais pas 3DMark06...


De bcp?


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6446645
angela-pcs
Posté le 20-06-2008 à 19:25:35  profilanswer
 

2006 pas trop par contre vantage un max ( et les jeux aussi comme ut3 , ghost reacon 2 ... )

 

1000 a 2500 point environ pour vintage en mode Performance en +

 

http://www.guru3d.com/news/nvidia-physx-quick-test/

 

pour les personnes en sli ça marche pas pour le moment

Message cité 1 fois
Message édité par angela-pcs le 20-06-2008 à 19:28:39
n°6446647
Profil sup​primé
Posté le 20-06-2008 à 19:26:18  answer
 

romrommm a écrit :


 
 
a ouais faut tout brancher???
j'ai pas l'air dun con là :sweat:  


Oui, il faut lire les posts sur les connections PCie postés sur ce topic, notamment par moi-même ( en personne  :o )
 
Mais c'est plus rigolo de poster mille fois les mêmes charts à la con et de troller sur les cartes ATI.  :jap:  
 

Citation :

Mais pourquoi ne pas avoir laissé le connecteur 8 pins sur la GeForce GTX 260 malgré tout, de manière à ce que lui seul puisse être utilisé ???


 
http://www.hardware.fr/articles/72 [...] 0-260.html
 
Ce que je dit à plusieurs reprises dans ce topic : un 6 pins c'est 2 lignes 12V+ et le 8 pins c'est 3 lignes. Donc tu branches le 8 pins tout seul ou deux 6 pins sur la carte, un connecteur mâle 6 pins rentrant dans le 8 pins femelle.  
 
Et si ça se trouve la carte fonctionne avec juste un 6 pins de connecté, mais là j'en sais rien, il faut essayer.

n°6446681
vivelechri​stroi
Posté le 20-06-2008 à 19:39:15  profilanswer
 

angela-pcs a écrit :

2006 pas trop par contre vantage un max ( et les jeux aussi comme ut3 , ghost reacon 2 ... )

 

1000 a 2500 point environ pour vintage en mode Performance en +

 

http://www.guru3d.com/news/nvidia-physx-quick-test/

 

pour les personnes en sli ça marche pas pour le moment

 

A priori, le SLI de 9800GTX a fonctionné chez moi avec le PhysX quand j'ai benché sous 3DMark Vantage.

 
Citation :

De bcp?

 

J'ai triplé le score CPU (voir le topic 3DMark Vantage si vous ne me croyez pas) donc c'est pas mal !  :D

 

Amélioration de ~ 2000 points sous Vantage...

Message cité 3 fois
Message édité par vivelechristroi le 20-06-2008 à 19:40:32
n°6446684
foksa37
Posté le 20-06-2008 à 19:42:15  profilanswer
 

Aux possesseurs de la GTX280:
 
A part 3dMark en jeu tout est fluide? Crysis en 1920 et Vh c'est comment?

n°6446693
alexreunio​n
Posté le 20-06-2008 à 19:44:25  profilanswer
 

vivelechristroi a écrit :


 
A priori, le SLI de 9800GTX a fonctionné chez moi avec le PhysX quand j'ai benché sous 3DMark Vantage.
 

Citation :

De bcp?


 
J'ai triplé le score CPU (voir le topic 3DMark Vantage si vous ne me croyez pas) donc c'est pas mal !  :D  
 
Amélioration de ~ 2000 points sous Vantage...


 
et sinon dans la vraie vie, avec de vrais applications ça change rien je presume  :o


---------------
Mon feedback
n°6446696
angela-pcs
Posté le 20-06-2008 à 19:45:07  profilanswer
 
n°6446698
ldre@mer
réveillez moi !
Posté le 20-06-2008 à 19:45:47  profilanswer
 

foksa37 a écrit :

Aux possesseurs de la GTX280:

 

A part 3dMark en jeu tout est fluide? Crysis en 1920 et Vh c'est comment?

 

pour ma part je joue en 1920x1200 en AA 16xHD et aniso 16 graphisme en "haut" sous Aoc.... y a qu'un soucis que je relève pour le moment c'est le passage sur les "fumées" dans une instance... ce qui fait chuter la cg de 90fps à 8fps... un soucis de drivers je pense et/ou du jeu

 

Je n'avais pas du tout cette chute de fps avec le CF de 3870 ;)


Message édité par ldre@mer le 20-06-2008 à 19:46:36

---------------
++Il vaut mieux ne penser à rien que ne pas penser du tout++
n°6446705
vivelechri​stroi
Posté le 20-06-2008 à 19:48:28  profilanswer
 

foksa37 a écrit :

Aux possesseurs de la GTX280:
 
A part 3dMark en jeu tout est fluide? Crysis en 1920 et Vh c'est comment?


 
Pour être passé d'un SLI de 9800GTX à une GTX280 (~même score 3DMark Vantage), Crysys semble plus fluide en 1920x1200 avec la carte seule.  
 
Sur Team United Forever, j'ai de meilleures performances avec une GTX280 avec antialiasing x16 et filtrage x16 qu'avec le SLI 9800 x4 x4...
 
Dès que les filtres sont activés, la GTX280 semble (avec réserves, que les autres le confirment) sur-classer tout le reste, et c'est impressionnant.

n°6446707
tridarius
Posté le 20-06-2008 à 19:49:59  profilanswer
 

Hello
 
je suis super gaté je me suis prit une gtx280 leatek j'ai installer windows et la poum plein d'artefact, quand je laisse reponser le pc 1h le temp que la carte se refroidisse de ses 2000dégres le pc affiche directement des artefact.
 
A votre avis j'ai pas chance ? oubien je suis tombé sur une mauvaise serie ?  
 
la carte j'ai meme pas pu la testé. j'éspére que ldlc va pouvoir régler ca vite.  
 
Quelqu'un a deja eu le probleme ?

n°6446712
ldre@mer
réveillez moi !
Posté le 20-06-2008 à 19:52:02  profilanswer
 

tridarius a écrit :

Hello
 
je suis super gaté je me suis prit une gtx280 leatek j'ai installer windows et la poum plein d'artefact, quand je laisse reponser le pc 1h le temp que la carte se refroidisse de ses 2000dégres le pc affiche directement des artefact.
 
A votre avis j'ai pas chance ? oubien je suis tombé sur une mauvaise serie ?  
 
la carte j'ai meme pas pu la testé. j'éspére que ldlc va pouvoir régler ca vite.  
 
Quelqu'un a deja eu le probleme ?


 
apparement tu n'es pas le seul à tomber sur une série "artefacts sortis d'usine".... moi je ne me casserai pas la tête -> retour revendeur
 
Après je ne sais pas si un manque de "courant" sur le 12v peut générer ce genre de soucis sur le gpu


---------------
++Il vaut mieux ne penser à rien que ne pas penser du tout++
n°6446714
romrommm
sauver ou perir
Posté le 20-06-2008 à 19:52:20  profilanswer
 


 
ben la j'ai tout branché et ca marche nikel
merci pour tes reflexion ciao

n°6446715
-neon-
Illuminé
Posté le 20-06-2008 à 19:52:42  profilanswer
 

Ptain elles partent en fumée les cartes... :/


---------------
L'atelier sous l'éclipse - "One side of me says, I'd like to talk to her, date her. The other side of me says, I wonder what her head would look like on a stick?"
n°6446716
rem_rem
Posté le 20-06-2008 à 19:53:44  profilanswer
 

vivelechristroi a écrit :


 
A priori, le SLI de 9800GTX a fonctionné chez moi avec le PhysX quand j'ai benché sous 3DMark Vantage.
 

Citation :

De bcp?


 
J'ai triplé le score CPU (voir le topic 3DMark Vantage si vous ne me croyez pas) donc c'est pas mal !  :D  
 
Amélioration de ~ 2000 points sous Vantage...


 
En fait c'est le deuxieme test CPU qui augmente énormement (12fps -> 150fps chez moi). Mais bon du coup ce n'est plus trop un test CPU...

n°6446720
cyberfred
Posté le 20-06-2008 à 19:54:57  profilanswer
 

romrommm a écrit :


 
vais essayé d'etre plus clair  :sweat:  
 
alors avec la CG j'ai deux adaptateur
1) molex
            -- 6 pin
    molex
 
2)6pin
         -- 8pin
   6pin
 
sur mon alim j'ai juste deux 6pin et tout le reste molex
 
donc est ce que je doit faire??
 
alim molex -> adaptateur molex
                                           -- 6pin CG
alim molex -> adaptateur molex
 
alim 6pin -> adapteteur 6pin
                                        -- 8pin CG
alim 6pin -> adapteteur 6pin
 
 
 


 
exact , finalement grace à ces adaptateurs j'aurai peut etre pas besoin de changer d'alim  :love:

n°6446723
foksa37
Posté le 20-06-2008 à 19:56:03  profilanswer
 

@LDre@mer : vantage =>vista et tu décris bien en very high DX10?  Le but d'une carte graphique c'est faire tourner les jeux, celui la c'est compliqué mais s'il est fluide c'est de bon augure pour far cry 2 etc...
 
Tas la sensation de fluidité? c'est quoi le reste de ta config?
 

n°6446725
tridarius
Posté le 20-06-2008 à 19:56:26  profilanswer
 

arf comme je suis degoute juste avant le week end je ne pourrais meme pas utilise le pc. snif

n°6446726
meiso
Posté le 20-06-2008 à 19:57:01  profilanswer
 

Retour en SAV de ma POVGTX280 : 50°C IDLE, 110°C FULL => plante sous les jeux en une minute : le pc se coupe.
 
Quelles sont les températures "normales" que vous avez avec cette carte?

Message cité 1 fois
Message édité par meiso le 20-06-2008 à 19:59:43
n°6446727
cyberfred
Posté le 20-06-2008 à 19:57:35  profilanswer
 

romrommm a écrit :


 
ben la j'ai tout branché et ca marche nikel
merci pour tes reflexion ciao


 
tu as quoi comme alim ?
Et pour tout ceux qui semble avoir des soucis avec leur 280 , vous êtes sur que l'alim est suffisante ou pas ?
avec toute ces histoires d'un max d'ampérage sur le 12v , adaptateur ou pas , etc... , on ne sait pas trop à quoi s'en tenir

Message cité 1 fois
Message édité par cyberfred le 20-06-2008 à 19:59:16
n°6446728
vivelechri​stroi
Posté le 20-06-2008 à 19:57:52  profilanswer
 

Citation :


 
J'ai triplé le score CPU (voir le topic 3DMark Vantage si vous ne me croyez pas) donc c'est pas mal !  :D  
 
Amélioration de ~ 2000 points sous Vantage...


 

Citation :


En fait c'est le deuxieme test CPU qui augmente énormement (12fps -> 150fps chez moi). Mais bon du coup ce n'est plus trop un test CPU...


 
 
C'est pas faux !

n°6446730
romrommm
sauver ou perir
Posté le 20-06-2008 à 19:58:22  profilanswer
 

cyberfred a écrit :


 
tu as quoi comme alim ?


 
seasonic m12 500w

n°6446737
cyberfred
Posté le 20-06-2008 à 19:59:37  profilanswer
 

romrommm a écrit :


 
seasonic m12 500w


 
ok merci ,  ca me rassure donc  :jap:

n°6446753
Ill Nino
Love
Posté le 20-06-2008 à 20:04:42  profilanswer
 

meiso a écrit :

Retour en SAV de ma POVGTX280 : 50°C IDLE, 110°C FULL => plante sous les jeux en une minute : le pc se coupe.
 
Quelles sont les températures "normales" que vous avez avec cette carte?


Tain c'est la serie noire pour le POV. :/
 
52°->70° chez moi.


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6446755
romrommm
sauver ou perir
Posté le 20-06-2008 à 20:05:12  profilanswer
 

cyberfred a écrit :


 
ok merci ,  ca me rassure donc  :jap:


 
 
pkoi?

n°6446758
angela-pcs
Posté le 20-06-2008 à 20:05:49  profilanswer
 

ça me rappelle les 6600gt , pov les 1st a la sortir en bon en bonne  dispo mais erreur dans le montage :/

n°6446767
cyberfred
Posté le 20-06-2008 à 20:07:19  profilanswer
 


 
parce que j'avais peur que ca passe pas trop avec ma s12 600W mais apparement avec les adaptateurs c'est nickel ;)

n°6446770
Profil sup​primé
Posté le 20-06-2008 à 20:07:52  answer
 

romrommm a écrit :


 
ben la j'ai tout branché et ca marche nikel
merci pour tes reflexion ciao


Evidemment, tu peux tout brancher aussi et je vais dire un truc, tu peux même ajouter une ligne 12V+ DTC ça ne perturbera pas le fonctionnement de la carte  :jap:

n°6446776
tridarius
Posté le 20-06-2008 à 20:12:44  profilanswer
 

ben c'est les fournisseur qui vont etre content, pour une panne au deballagte, c'est un echange oubien un sav + delais constructeur ?

n°6446779
Profil sup​primé
Posté le 20-06-2008 à 20:13:37  answer
 

tridarius a écrit :

ben c'est les fournisseur qui vont etre content, pour une panne au deballagte, c'est un echange oubien un sav + delais constructeur ?


La panne ou le moyen de gagner du temps :whistle:

n°6446788
griph
Posté le 20-06-2008 à 20:15:32  profilanswer
 

vivelechristroi a écrit :


 
A priori, le SLI de 9800GTX a fonctionné chez moi avec le PhysX quand j'ai benché sous 3DMark Vantage.
 

Citation :

De bcp?


 
J'ai triplé le score CPU (voir le topic 3DMark Vantage si vous ne me croyez pas) donc c'est pas mal !  :D  
 
Amélioration de ~ 2000 points sous Vantage...


 
 
attention a ne pas se voilé la face !  
la physique dans 99% des jeux, ne prends quasiement rien en CPU. parceque jusqu'a lors, personne n'avait de physix. si dans vantage , ca tripple ton score CPU , dans supreme commander , flight sim X , ou stalker  ,ca ne changera rien...
ATI a DX10.1 , nvidia a physX. pourtant , aucune de ces 2 techno n'a de chance d'aboutir reelement (sous entendu support obligatoire) tant que ces 2 société ne les possedent pas toute les deux.  
 
l'augmentation de perfs n'a lieu pour le moment que dans vantage. pourtant dans les jeux, vous n'aurez jamais cela. parceque le support physX est la pour "ajouter" des choses qui se deplace a l'ecran , pas pour en enlever...  
je m'adresse donc au newbie , pour qu'ils sachent qu'ils ne doivent PAS basé leur decision d'achat su un truc aussi useless que le support physX .
 
 
ps: en revanche le taux de defaillance hardware des cartes , ca c'est important. la consomation electrique , aussi... et pour finir le rapport performance prix je pense  :whistle:

Message cité 1 fois
Message édité par griph le 20-06-2008 à 20:17:30
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  204  205  206  ..  833  834  835  836  837  838

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Intel Core 2 Duo E4700[Topic Unique] Silverstone FT01
[Topic Unique] Bluetooth / Bluesoleil / test de dongle des membres[Topic unique] Nvidia 9600 GT
Plus de sujets relatifs à : [Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)