Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2450 connectés 

 

 

Aprés un GT200 consommant et chauffant énormément, pariez-vous sur la révision GT200B en :


 
62.3 %
 415 votes
1.  55nm (nouveau standard)
 
 
22.7 %
 151 votes
2.  45nm (Aucun GPU de produit à cette finesse - coût plus élevé (nouveauté))
 
 
15.0 %
 100 votes
3.  40nm (Aucun GPU de produit à cette finesse - coût bien plus élevé (nouveauté ultime) Dispo pour eux depuis le 2T. 2008)
 

Total : 942 votes (276 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  526  527  528  ..  833  834  835  836  837  838
Auteur Sujet :

[Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250

n°6753257
Yoyo_5
Posté le 22-12-2008 à 14:19:23  profilanswer
 

Reprise du message précédent :

god is dead a écrit :

Sur la carte oui, j'espère qu'elle le sera aussi sur la boite :o


Pareil, mais là ça n'a pas l'air d'être le cas... :/
EDIT: En tout cas sur la face avant de la boîte.


Message édité par Yoyo_5 le 22-12-2008 à 14:20:35

---------------
¤ Paix et félicité ¤

mood
Publicité
Posté le 22-12-2008 à 14:19:23  profilanswer
 

n°6753261
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 22-12-2008 à 14:20:17  profilanswer
 

Depuis quand on indique sur la boite la finesse de gravure du GPU ??


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6753272
Yoyo_5
Posté le 22-12-2008 à 14:23:01  profilanswer
 

super_newbie_pro a écrit :

Depuis quand on indique sur la boite la finesse de gravure du GPU ??


Depuis qu'on est tous devenus des geeks insatiables d'informations... :D


---------------
¤ Paix et félicité ¤

n°6753278
mlg33
There can be only one...
Posté le 22-12-2008 à 14:27:52  profilanswer
 

Yoyo_5 a écrit :


Depuis qu'on est tous devenus des geeks insatiables d'informations... :D


 :lol:  
Amen !


---------------
When you're good at something, never do it for free !
n°6753330
god is dea​d
Demain, j'arrête de poster.
Posté le 22-12-2008 à 15:07:40  profilanswer
 

super_newbie_pro a écrit :

Depuis quand on indique sur la boite la finesse de gravure du GPU ??


Depuis que Nvidia garde la même dénomination pour deux gpu à la finesse de gravure différente. Si encore on avait gtx 270, ce serait facile, mais on fait comment qd on garde gtx 260 ? Sauf si toi tu trouves normal de ne pas différencier les deux versions.  
 
Je sais pas toi, mais moi j'aime savoir ce que je prend, donc si y avait écrit "55nm" sur la boite, ce serait normal et souhaitable.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6753338
rxone
Au milieu c'est merveilleux !™
Posté le 22-12-2008 à 15:12:01  profilanswer
 

god is dead a écrit :


Depuis que Nvidia garde la même dénomination pour deux gpu à la finesse de gravure différente. Si encore on avait gtx 270, ce serait facile, mais on fait comment qd on garde gtx 260 ? Sauf si toi tu trouves normal de ne pas différencier les deux versions.  
 
Je sais pas toi, mais moi j'aime savoir ce que je prend, donc si y avait écrit "55nm" sur la boite, ce serait normal et souhaitable.


 
C'est deja ce qu il font avec les 9800GT non ?  
 
J attends sincerement de voir la difference 65nm VS 55nm ... Pour moi il n y en aura quasiment pas, une poignee de watts au mieux ... [:spamafote]

Message cité 2 fois
Message édité par rxone le 22-12-2008 à 15:12:20

---------------
Mozinor president !!! http://valid.x86-secret.com/show_oc.php?id=434879 | http://valid.canardpc.com/show_oc.php?id=514114 CoolerMaster powered
n°6753352
Fantryt
Posté le 22-12-2008 à 15:17:09  profilanswer
 

Yoyo_5 a écrit :


La mention 55nm est quand même bien présente...! :o


 
C'est comme pour les alim' de 1200W capables d'en fournir 950 ...  :jap:  
 
Je sais que c'est pas un comparatif valable, mais c'est pour le principe ...

n°6753356
Yoyo_5
Posté le 22-12-2008 à 15:18:51  profilanswer
 

Fantryt a écrit :

C'est comme pour les alim' de 1200W capables d'en fournir 950 ...  :jap:

 

Je sais que c'est pas un comparatif valable, mais c'est pour le principe ...


Comme tu le dis, pas comparable. Là c'est clairement précisé que c'est du 55nm, si tu t'aperçois que c'est du 65nm tu peux porter plainte... :/
Pour les alims, ils se cachent derrières les mots "peak" et "max"... [:hotcat]

Message cité 1 fois
Message édité par Yoyo_5 le 22-12-2008 à 15:19:01

---------------
¤ Paix et félicité ¤

n°6753360
god is dea​d
Demain, j'arrête de poster.
Posté le 22-12-2008 à 15:19:52  profilanswer
 

rxone a écrit :


 
C'est deja ce qu il font avec les 9800GT non ?  
 
J attends sincerement de voir la difference 65nm VS 55nm ... Pour moi il n y en aura quasiment pas, une poignee de watts au mieux ... [:spamafote]


La 9800gt c'est théoriquement une 8800gt version 55nm, même si au début Nvidia a merdé, la dénomination était pourtant claire. Là on ne sait même pas ce qu'on achète dés le début, vu que c'est gtx 260, d'où l'intérêt de marquer sur la boite la finesse de gravure, ce qui n'aurait rien d'incroyable.
 
Au début je croyais, au vue des premiers test de la 9800gtx +, que le 55nm n'apportait rien, mais maintenant que j'ai vu ça :
 
http://www.xbitlabs.com/articles/v [...] html#sect0
 
Passer de 115w en full à 76w et de 45 à 25 en idle, c'est très intéressant. Ce qui laisse à penser que les premières version des 9800gtx + étaient en fait 65nm, et on voit bien que c'est le cas, puisque X bit labs a une version 55 et 65nm de la gtx +.


Message édité par god is dead le 22-12-2008 à 15:23:25

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6753365
djffff
Time's like ocean in storm.
Posté le 22-12-2008 à 15:21:23  profilanswer
 

rxone a écrit :


 
C'est deja ce qu il font avec les 9800GT non ?  
 
J attends sincerement de voir la difference 65nm VS 55nm ... Pour moi il n y en aura quasiment pas, une poignee de watts au mieux ... [:spamafote]


 
On passe d'environ 240, 250 w à 180 190 w sur une GTX280 c'est plus qu'une simple poigné de watts.
 
Sur une GTX 260 je n'ai pas idée de ce que cela va donner mais j'espère que la réduction sera aussi conséquente.
 
On peut espèrer voir des GTX260 216 Core qui consomme moins de 150Watts.

mood
Publicité
Posté le 22-12-2008 à 15:21:23  profilanswer
 

n°6753368
Fantryt
Posté le 22-12-2008 à 15:23:41  profilanswer
 

Yoyo_5 a écrit :


Comme tu le dis, pas comparable. Là c'est clairement précisé que c'est du 55nm, si tu t'aperçois que c'est du 65nm tu peux porter plainte... :/
Pour les alims, ils se cachent derrières les mots "peak" et "max"... [:hotcat]


 

Spoiler :

Je file au commissariat le plus proche ! A moi le pognon !  :D


 
Après, reste à voir la consommation de la bête ...
Ensuite, la GeForce 9800 GTX+ est gravée avec une finesse de 55nm, c'est une certitude . A moins qu'on se fasse bluffer depuis le début . nVidia a commencé par l'ancienne génération pour vérifier que son procédé de gravure était au point .

n°6753379
god is dea​d
Demain, j'arrête de poster.
Posté le 22-12-2008 à 15:29:27  profilanswer
 

Fantryt a écrit :


 

Spoiler :

Je file au commissariat le plus proche ! A moi le pognon !  :D


 
Après, reste à voir la consommation de la bête ...
Ensuite, la GeForce 9800 GTX+ est gravée avec une finesse de 55nm, c'est une certitude . A moins qu'on se fasse bluffer depuis le début . nVidia a commencé par l'ancienne génération pour vérifier que son procédé de gravure était au point .


Y a deux versions en fait, une 65 et une 55, je pense que c'est ça qui explique qu'au début, sur les tous premiers tests, la 9800gtx+ consommait un poil + que la 9800gtx, alors que le 55nm aurait du être bénéfique.
 
http://img257.imageshack.us/img257/3445/palitpowerwt7.gif
 
C'est très probant là.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6753412
Fantryt
Posté le 22-12-2008 à 15:58:44  profilanswer
 

Ils font toujours comme ça chez nVidia :
Diminution de la finesse de gravure = Augmentation des fréquences = Consommation > ou < égale .
Quoique, leur politique sur le sujet peut varier d'un GPU à l'autre . La consommation d'une GTX 280 étant un problème majeur, il semble normal que la GTX 285 soit moins gourmande en énergie et sensiblement plus performante .

n°6753414
rxone
Au milieu c'est merveilleux !™
Posté le 22-12-2008 à 16:00:37  profilanswer
 

Fantryt a écrit :

Ils font toujours comme ça chez nVidia :
Diminution de la finesse de gravure = Augmentation des fréquences = Consommation > ou < égale .
Quoique, leur politique sur le sujet peut varier d'un GPU à l'autre . La consommation d'une GTX 280 étant un problème majeur, il semble normal que la GTX 285 soit moins gourmande en énergie et sensiblement plus performante .


 
Ah bon  :??:  Pour qui  :??:  
 
Son probleme majeur, c'est surtout son prix :whistle:

Message cité 1 fois
Message édité par rxone le 22-12-2008 à 16:02:34

---------------
Mozinor president !!! http://valid.x86-secret.com/show_oc.php?id=434879 | http://valid.canardpc.com/show_oc.php?id=514114 CoolerMaster powered
n°6753423
god is dea​d
Demain, j'arrête de poster.
Posté le 22-12-2008 à 16:05:33  profilanswer
 

Fantryt a écrit :

Ils font toujours comme ça chez nVidia :
Diminution de la finesse de gravure = Augmentation des fréquences = Consommation > ou < égale .
Quoique, leur politique sur le sujet peut varier d'un GPU à l'autre . La consommation d'une GTX 280 étant un problème majeur, il semble normal que la GTX 285 soit moins gourmande en énergie et sensiblement plus performante .


Regarde bien le graph.  
 
9800gtx + ref. 65nm = 46w/114w
9800gtx + ref. 55nm = 29w/80w
 
C'est pas ce que j'appelle une conso "plus ou moins égale", c'est pas du tout égal. Le problème de Nvidia c'est le manque de clarté, avec des 9800gt/9800gtx + en 65nm et en 55nm en circulation. Et là en gras tu te contredis, au début tu dis que Nvidia fait tjrs comme ça (+ de fréquences pour une conso similaire) et à la fin tu dis que la gtx 285 sera moins gourmande pour des fréquences supérieures (= perf en hausse, mais pas sensiblement, juste 10%)  :D  
 
Sinon, lorsque le 55nm est effectivement employé, y a une différence sensible en terme de conso. Voilà pourquoi je pense que le gt200b sera, finalement, très intéressant... à condition qu'il y ait une différenciation avec les gtx 260/280 65nm.


Message édité par god is dead le 22-12-2008 à 16:09:15

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6753547
Fantryt
Posté le 22-12-2008 à 17:11:53  profilanswer
 

rxone a écrit :


 
Ah bon  :??:  Pour qui  :??:  
 
Son probleme majeur, c'est surtout son prix :whistle:


 
Essaye de caser un 3-Way SLi de GTX 280 sur une alim' de 1000W et on va voir  :D  s'il s'éteind au bout de 20min de Crysis !
Bref, ce que je voulais dire, c'est que la consommation individuelle n'est pas catastrophique, mais un SLi ou 3-Way SLi est difficile à gérer pour l'alimentation ...

Message cité 3 fois
Message édité par Fantryt le 22-12-2008 à 17:13:19
n°6753559
Yoyo_5
Posté le 22-12-2008 à 17:15:22  profilanswer
 

Fantryt a écrit :

Essaye de caser un 3-Way SLi de GTX 280 sur une alim' de 1000W et on va voir  :D  s'il s'éteind au bout de 20min de Crysis !
Bref, ce que je voulais dire, c'est que la consommation individuelle n'est pas catastrophique, mais un SLi ou 3-Way SLi est difficile à gérer pour l'alimentation ...


Euh...j'en doute fortement, surtout qu'une 850W Corsair le tient très bien (même si ça ventile beaucoup)... :whistle:


---------------
¤ Paix et félicité ¤

n°6753577
Fantryt
Posté le 22-12-2008 à 17:25:19  profilanswer
 

Yoyo_5 a écrit :


Euh...j'en doute fortement, surtout qu'une 850W Corsair le tient très bien (même si ça ventile beaucoup)... :whistle:


 
Source ?  :heink:

n°6753578
Derdak
oldskool mapper !!
Posté le 22-12-2008 à 17:25:21  profilanswer
 

Fantryt a écrit :


 
Essaye de caser un 3-Way SLi de GTX 280 sur une alim' de 1000W et on va voir  :D  s'il s'éteind au bout de 20min de Crysis !
Bref, ce que je voulais dire, c'est que la consommation individuelle n'est pas catastrophique, mais un SLi ou 3-Way SLi est difficile à gérer pour l'alimentation ...


 
normal , mettre un tri sli sur des alims moyennes gammes 1000w avec 8 rails de 18 amperes  :sarcastic:


---------------
UT99 singleplayer : Project Zephon
n°6753592
Fantryt
Posté le 22-12-2008 à 17:29:52  profilanswer
 

Même s'il s'agit de la BE QUIET DARK POWER PRO 1200W, certifiée 80+ ?  :D

n°6753598
Derdak
oldskool mapper !!
Posté le 22-12-2008 à 17:35:07  profilanswer
 

oui , c'est du moyen de gamme .. rien a voir avec une silverstone 1200w ou une enermax revolution ;)


---------------
UT99 singleplayer : Project Zephon
n°6753602
Yoyo_5
Posté le 22-12-2008 à 17:36:55  profilanswer
 

Fantryt a écrit :

 

Source ?  :heink:


http://www.hardware.fr/medias/photos_news/00/24/IMG0024416.gif

 

Si je calcule, 1024W à la prise à 80% de rendement ça doit faire dans les 820W demandés à l'alim. Donc la Corsair TX850 peut tout à fait gérer ça avec son unique gros rail 12V de 70A. :o

 
Fantryt a écrit :

Même s'il s'agit de la BE QUIET DARK POWER PRO 1200W, certifiée 80+ ?  :D


Dans ce cas elle est défectueuse...ou elle pue... [:spamafoote]

Message cité 1 fois
Message édité par Yoyo_5 le 22-12-2008 à 17:37:41

---------------
¤ Paix et félicité ¤

n°6753610
mobilette8​3
Posté le 22-12-2008 à 17:39:52  profilanswer
 

GTX260 55nm vendu chez ldlc (mais pas encore dispo :o)
 
http://www.ldlc.com/fiche/PB00081847.html
 

Citation :

Basé sur une nouvelle puce graphique baptisée G200, le nouveau monstre signé NVIDIA embarque la bagatelle de 216 processeurs de flux et bénéficie d'une finesse de gravure de 0.055 µ.


 
 :hello:


Message édité par mobilette83 le 22-12-2008 à 17:41:05
n°6753614
Derdak
oldskool mapper !!
Posté le 22-12-2008 à 17:41:24  profilanswer
 

Yoyo_5 a écrit :

Si je calcule, 1024W à la prise à 80% de rendement ça doit faire dans les 820W demandés à l'alim. Donc la Corsair TX850 peut tout à fait gérer ça avec son unique gros rail 12V de 70A. :o


 
oui , mais non , elle sera constamment en full load , bonjour le bruit et la temperature interieure du bloc..  :p


---------------
UT99 singleplayer : Project Zephon
n°6753616
Fantryt
Posté le 22-12-2008 à 17:41:31  profilanswer
 

Et si l'on compte le Core 2 Quad, les périphériques HHD, la carte son, etc, etc ... ?

n°6753621
rxone
Au milieu c'est merveilleux !™
Posté le 22-12-2008 à 17:44:15  profilanswer
 

Fantryt a écrit :

Et si l'on compte le Core 2 Quad, les périphériques HHD, la carte son, etc, etc ... ?


 
1000W c est pas juste la conso du tri SLI hein :lol:  
 
C'est la config complete :jap: ( ils utilisent un QX7700 ... cf test HFR )
 
288 euros la evga ( meme pas une version OC en plus ) :love: .... re :lol:


Message édité par rxone le 22-12-2008 à 17:55:26

---------------
Mozinor president !!! http://valid.x86-secret.com/show_oc.php?id=434879 | http://valid.canardpc.com/show_oc.php?id=514114 CoolerMaster powered
n°6753623
Yoyo_5
Posté le 22-12-2008 à 17:45:00  profilanswer
 

Derdak a écrit :

oui , mais non , elle sera constamment en full load , bonjour le bruit et la temperature interieure du bloc..  :p


Sur les reviews, tiré au max, elle chauffe à 45°C avec une forte ventilation, donc ce n'est pas non plus rédhibitoire. :D

 
Fantryt a écrit :

Et si l'on compte le Core 2 Quad, les périphériques HHD, la carte son, etc, etc ... ?


Pour le test c'est justement un QX9770 qui est utilisé... :o
Après, c'est sûr, tu n'as droit qu'à un SSD et le chipset sonore de la CM, pas plus... :lol:
PS: de toute manière on ne peut plus mettre de carte son une fois le Tri-SLI dans la machine... :D

 
rxone a écrit :

1000W c est pas juste la conso du tri SLI hein :lol:

 

C'est la config complete :jap:

 

288 euros la evga ( meme pas une version OC en plus ) :love: .... re :lol:


;)


Message édité par Yoyo_5 le 22-12-2008 à 17:46:38

---------------
¤ Paix et félicité ¤

n°6753777
marllt2
Posté le 22-12-2008 à 18:47:31  profilanswer
 

Fantryt a écrit :

Ensuite, la GeForce 9800 GTX+ est gravée avec une finesse de 55nm, c'est une certitude


Stp, arrêtes de dire sur tous les topics "crois-moi" ou "c'est une certitude" pour des choses dont tu n'a pas de source.
 
Je ne savais pas que le 1ères 9800 GTX+ étaient en fait en 65nm, d'où les résultats légers en terme de conso. Mais God is dead a argumenté et maintenant tout s'explique du coup.

n°6753964
god is dea​d
Demain, j'arrête de poster.
Posté le 22-12-2008 à 20:21:34  profilanswer
 

J'étais d'ailleurs le premier à penser qu'un passage 65 --> 55 nm n'apporterait pas grand chose justement au vue des résultats de la 9800gtx +, or il parait évident que les versions testées initialement (sur hfr, mat be and co) étaient en fait en 65nm...  
 
Là avec le test de X bit labs, on voit clairement l'apport concret et sensible du 55nm. Je pense de ce fait que la gtx 260 55nm consommera dans les 100w (au lieu des 135-140 actuels) et la gtx 280 55 dans les 140 (au lieu des 180 actuels), soit comme une 8800gts 640 et une 8800gtx, respectivement. On peut imaginer une conso idle dans les 25-30w aussi.


Message édité par god is dead le 22-12-2008 à 20:22:53

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6753968
djffff
Time's like ocean in storm.
Posté le 22-12-2008 à 20:23:20  profilanswer
 

Si LDLC se met à faire de l'EVGA ca va sacrément faire chuter les tarifs de ces cartes, quand je vois les tarifs pratiqué par des sites comme pc-look parfois :\ Trop peu de site distribue leur produit qui sont pourtant d'excellente qualité.
 
En tt cas les tarifs proposé sont super agressif pour du 55nm de chez EVGA, c'est vraiment une bonne affaire, reste a voir la date de dispo.
Wait and See

n°6753988
manut2500
Posté le 22-12-2008 à 20:34:21  profilanswer
 

Tarifs super agressif pour du EVGA ou alors la GTX260 55nm  de marque standard va peut etre passer largement sous les 250 € coup de fabrication plus faible aidant.

n°6754002
n0naud
Posté le 22-12-2008 à 20:41:14  profilanswer
 

manut2500 a écrit :

Tarifs super agressif pour du EVGA ou alors la GTX260 55nm  de marque standard va peut etre passer largement sous les 250 € coup de fabrication plus faible aidant.


 
Annoncé aussi chez LDLC.BE (TVA de 21% chez nous...) donc c'est entre 293€ pour le modèle EVGA normal en 55nm, et jusqu'à 323€ pour le modèle Super Super Clocked.

Message cité 1 fois
Message édité par n0naud le 22-12-2008 à 20:46:54
n°6754014
rxone
Au milieu c'est merveilleux !™
Posté le 22-12-2008 à 20:47:27  profilanswer
 

n0naud a écrit :


 
Annoncé aussi chez LDLC.BE (TVA de 21% chez nous...) donc c'est entre 293€ pour le modèle EVGA normal en 55nm, et jusqu'à 323€ pour le modèle Super Super Clocked.


 
Tu mets 40 euros de plus et tu as une gtx280 gigabyte ou Twintech  :sleep:


Message édité par rxone le 22-12-2008 à 20:48:40

---------------
Mozinor president !!! http://valid.x86-secret.com/show_oc.php?id=434879 | http://valid.canardpc.com/show_oc.php?id=514114 CoolerMaster powered
n°6754071
n0naud
Posté le 22-12-2008 à 21:17:17  profilanswer
 

Par contre, je sais bien que les puces Nvidia sortent de la même usine, puis les marques les utilises comme bon leur semble...
 
 
 
Mais pourquoi tant de différence de prix? Jeu + meilleur bundle? Meilleure mémoire? Prestige de la marque?
(( je parle pour une même gamme de carte, non overclockée d'usine... Car là aussi le prix augmente. ))
 
 
 
Si on prend la moins chère des GTX 260 ou la moins chère des GTX 280 au design et aux fréquences de référence, elle sera tout aussi bonne que des marques bien connues mais plus chère? Pas de risque qu'elle ne meurt plus vite?

Message cité 1 fois
Message édité par n0naud le 22-12-2008 à 21:18:06
n°6754112
ismqel
upgrade your life !
Posté le 22-12-2008 à 21:32:17  profilanswer
 

sont toutes les mêmes, asus plus chère que les autres. Ne me demande pas pourquoi c'est asus lol. L'étiquette les diffères c'est tout.

n°6754132
n0naud
Posté le 22-12-2008 à 21:40:50  profilanswer
 

Je sais bien que pour les puces c'est exactement identiques...
 
Maintenant, les marques peuvent choisir une meilleure qualité de RAM pour faire l'assemblage, par exemple, non?
 
Car sinon, on prend la première marque chinoise venue à 50€ moins cher et c'est bon??
 
(l'étiquette on s'en fiche, on ne la voit pas...  :p )


Message édité par n0naud le 22-12-2008 à 21:41:31
n°6754142
Fantryt
Posté le 22-12-2008 à 21:44:27  profilanswer
 

n0naud a écrit :

Par contre, je sais bien que les puces Nvidia sortent de la même usine, puis les marques les utilises comme bon
leur semble...
 
 
 
Mais pourquoi tant de différence de prix? Jeu + meilleur bundle? Meilleure mémoire? Prestige de la marque?
(( je parle pour une même gamme de carte, non overclockée d'usine... Car là aussi le prix augmente. ))
 
 
 
Si on prend la moins chère des GTX 260 ou la moins chère des GTX 280 au design et aux fréquences de référence, elle sera tout aussi bonne que des marques bien connues mais plus chère? Pas de risque qu'elle ne meurt plus vite?


 
Les prix diffèrent selon le bundle et les caractéristiques techniques .
Les différents partenaires d'nVidia peuvent se permettre de modifier le dispositif de refroidissement, d'overclocker, d'ajouter telle ou telle décoration, etc, etc ...
Et pis aussi, et Asus particulièrement, des partenaires s'amusent à faire des "éditions spéciales" (genre RoG) qui coûte 50 - 80€ de plus, tout ça parce qu'elles font partie d'une gamme spécifique et parce qu'elles ont tel ou tel truc de plus par rapport aux autres . Par exemple, la 4870, elle peut se vendre à 200€, tandis que le modèle RoG coûtera 329€ . Là, ils ont exagéré ! Surtout qu'Asus maîtrise les technologies qu'il ajoute dans les CG de cette gamme depuis longtemps, et qu'il n'y a donc aucun frais de développement à rembourser !


Message édité par Fantryt le 22-12-2008 à 21:45:08
n°6754151
n0naud
Posté le 22-12-2008 à 21:48:04  profilanswer
 

Mais si on prend la carte de base avec le bundle au strict minimum sans fréquences overclockées??

n°6754157
Fantryt
Posté le 22-12-2008 à 21:52:22  profilanswer
 

n0naud a écrit :

Mais si on prend la carte de base avec le bundle au strict minimum sans fréquences overclockées??


 
Eh bah quoi ?
Je vois pas ton pb ^^
Si tu veux l'oc toi-même tu peux (à tes risques & périls)

n°6754166
god is dea​d
Demain, j'arrête de poster.
Posté le 22-12-2008 à 21:58:33  profilanswer
 

Tu peux me dire ce qu'on risque à trop o/c ? Au pire ça freeze l'écran, tu vois des artéfacts, suffit donc de rebooter et de descendre les fréquences.
 
Sinon une carte avec zéro bundle et aux fréquence stock sera la même qu'une carte avec super bundle et des fréquences o/c... pas moins fiable.
 


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6754169
n0naud
Posté le 22-12-2008 à 21:59:58  profilanswer
 

god is dead a écrit :

Tu peux me dire ce qu'on risque à trop o/c ? Au pire ça freeze l'écran, tu vois des artéfacts, suffit donc de rebooter et de descendre les fréquences.
 
Sinon une carte avec zéro bundle et aux fréquence stock sera la même qu'une carte avec super bundle et des fréquences o/c... pas moins fiable.
 


 
C''est ce que je voulais savoir...  :jap:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  526  527  528  ..  833  834  835  836  837  838

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Intel Core 2 Duo E4700[Topic Unique] Silverstone FT01
[Topic Unique] Bluetooth / Bluesoleil / test de dongle des membres[Topic unique] Nvidia 9600 GT
Plus de sujets relatifs à : [Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)