Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3517 connectés 

 

 

Aprés un GT200 consommant et chauffant énormément, pariez-vous sur la révision GT200B en :


 
62.3 %
 415 votes
1.  55nm (nouveau standard)
 
 
22.7 %
 151 votes
2.  45nm (Aucun GPU de produit à cette finesse - coût plus élevé (nouveauté))
 
 
15.0 %
 100 votes
3.  40nm (Aucun GPU de produit à cette finesse - coût bien plus élevé (nouveauté ultime) Dispo pour eux depuis le 2T. 2008)
 

Total : 942 votes (276 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  513  514  515  ..  833  834  835  836  837  838
Auteur Sujet :

[Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250

n°6738411
manut2500
Posté le 12-12-2008 à 11:21:19  profilanswer
 

Reprise du message précédent :
perso je viens de passer a une gtx260 216sp j espere que je n aurai pas  de regret a avoir mais il fallait quelque chose sous le sapin :-) ca va me changer de ma 7800 gtx

mood
Publicité
Posté le 12-12-2008 à 11:21:19  profilanswer
 

n°6738432
ismqel
upgrade your life !
Posté le 12-12-2008 à 11:29:38  profilanswer
 

toute façon sortir 3 version de GTX 260 en si peu de temps et une deuxième révision de GTX 280 c'est bof ... Pourquoi ne pas le faire avant le lancement des GT200 ? Moi j'appelle ça du chipotage
 
@super newbie pro: Tu dis "Nvidia fait preuve de strategie"
 
T'appelle sa une strategie, rajouté 10 % en plus et faire croire que la carte consommera 50 watt en moins ? Pourtant ATI à la même strategie mais ne sort pas de révisions et de libellé pour leur rv770 tous les mois ...  
 

n°6738445
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 12-12-2008 à 11:33:19  profilanswer
 

ismqel a écrit :

toute façon sortir 3 version de GTX 260 en si peu de temps et une deuxième révision de GTX 280 c'est bof ... Pourquoi ne pas le faire avant le lancement des GT200 ? Moi j'appelle ça du chipotage
 
@super newbie pro: Tu dis "Nvidia fait preuve de strategie"
 
T'appelle sa une strategie, rajouté 10 % en plus et faire croire que la carte consommera 50 watt en moins ? Pourtant ATI à la même strategie mais ne sort pas de révisions et de libellé pour leur rv770 tous les mois ...  
 

Oui ; financièrement ils sont gagnants. Tu veux peut être qu'ils restent en 65nm ? EDIT ; et pour les nouveaux clients intéressés par des produits haut de gamme nvidia, ces G200B sont une opportunité, que ça te plaise ou non. En fait je ne saisi pas d'où provient ton mécontentement... :sweat: Tu peux toujours postuler pour être ingénieur développeur tu sais... je t'en donne même le lien : http://www.recruit.net/company-Nvidia-jobs et http://www.nvidia.com/page/job_descriptions.html

Message cité 2 fois
Message édité par super_newbie_pro le 12-12-2008 à 11:37:05

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6738451
ismqel
upgrade your life !
Posté le 12-12-2008 à 11:37:38  profilanswer
 

la je suis d'accord avec toi sa va leur faire gagner de l'argent :)

n°6738452
couillesho​t
Les bouboules et la boubouche
Posté le 12-12-2008 à 11:39:19  profilanswer
 

Je pense que les gpu nvidia commencent à trainer une image d'usines à gaz


---------------
:o :o :o
n°6738457
olfizbak
~ la loutre qui poutre ~
Posté le 12-12-2008 à 11:42:25  profilanswer
 


 
un lol pourri du matin, vivement le week end >_<

n°6738477
vboost
Posté le 12-12-2008 à 11:52:21  profilanswer
 

couilleshot a écrit :

Je pense que les gpu nvidia commencent à trainer une image d'usines à gaz


 
C'est toujours mieux que l'image de poil a bois de ATI !! :D ........

n°6738529
couillesho​t
Les bouboules et la boubouche
Posté le 12-12-2008 à 12:34:08  profilanswer
 

vboost a écrit :


 
C'est toujours mieux que l'image de poil a bois de ATI !! :D ........


 
ce que je voulais dire c'est que depuis les premiers g92 (8800 GT et GTS 512) Nvidia s'est contenté de gonfler sa puce (et le pcb) comme un coureur cycliste tout ça pour pas grand chose au final.
Donc moi j'attends le retour de l'optimisation avec engouement et rêve d'une architecture plus intelligente pour la prochaine génération  :sarcastic: .
 
PS: c'est pas le topic ATI ici


Message édité par couilleshot le 12-12-2008 à 12:34:28

---------------
:o :o :o
n°6738536
ismqel
upgrade your life !
Posté le 12-12-2008 à 12:38:22  profilanswer
 

super_newbie_pro a écrit :

Tu peux toujours postuler pour être ingénieur développeur tu sais... je t'en donne même le lien : http://www.recruit.net/company-Nvidia-jobs et http://www.nvidia.com/page/job_descriptions.html


oui pourquoi pas, je changerai leur développement stratégique vers quelque chose de plus convainquant ou l'on voit une nette différence en comparant les deux produits ! :) faut pas être ingénieur en développement pour penser à sortir une révision d'une GT200 de base existante moins coûteuse niveau PCB, moins consommante et plus perf de 10 % :lol:  
 
Même phénomène avec les 9800 GTX 65 nm et 9800 GTX + 55nm. Si on peut appeller cela "Un boost "de la fréquence gpu avec une hausse de 63 mhz pour le GPU et shader 163 mhz en plus. La fréquence mémoire est resté telle quel. Chouette l'évolution :)

Message cité 1 fois
Message édité par ismqel le 12-12-2008 à 12:47:13
n°6738643
ssx99harlo​ck
Posté le 12-12-2008 à 14:05:04  profilanswer
 

ismqel a écrit :


oui pourquoi pas, je changerai leur développement stratégique vers quelque chose de plus convainquant ou l'on voit une nette différence en comparant les deux produits ! :) faut pas être ingénieur en développement pour penser à sortir une révision d'une GT200 de base existante moins coûteuse niveau PCB, moins consommante et plus perf de 10 % :lol:  
 
Même phénomène avec les 9800 GTX 65 nm et 9800 GTX + 55nm. Si on peut appeller cela "Un boost "de la fréquence gpu avec une hausse de 63 mhz pour le GPU et shader 163 mhz en plus. La fréquence mémoire est resté telle quel. Chouette l'évolution :)


 
Bah si c'est le même prix ou moins cher c'est toujours bon a prendre....J'ai une 9800 GTX 65 nm et je l'ai OC pour aller un peu plus haut que les fréquences d'origine de la 9800 GTX + 55nm.
Maitenant si je possédait cette dernière je l'aurais peut être OC un peu plus haut encore et ainsi grapillé quelques fps.
Faut pas être boudeur  :D  
 
Je dirais même que la bonne nouvelle sur les GTX 285 c'est le retour à un 2*6 PCIE !
Toutes les alims ne sont pas 2*6+2 PCIE.
 
Je change mon Antec Trio 650 pour une Corsair TX 650 UNIQUEMENT pour les 2*6+2 PCIE parceque je suis un froussard de la garantie au cas où je crâme quelquechose avec des adaptateurs molex > PCIE 8 Pins.
 
Donc bon  ;)  
 
 

mood
Publicité
Posté le 12-12-2008 à 14:05:04  profilanswer
 

n°6738654
Wilfried28​_2
Posté le 12-12-2008 à 14:11:18  profilanswer
 

Quand tu voit ce que c'est le PCI-E 8pins tu peut prendre un adaptateur 6 vers 8pins c'est uniquement 2 masses de + :D


---------------
Ex HFR : Wilfried2828 -->>  Wilfried28_2  le retour...
n°6738660
ssx99harlo​ck
Posté le 12-12-2008 à 14:13:05  profilanswer
 


Oui oui j'ai vu ! Mais je fait une opération blanche avec mon alim : je vends une seasonic S12 600 a un copain qui me rembourse le prix de la corsair.
Et je bouge l'antec + cm, proc ram et CG dans la machine de ma femme.
 
:D

n°6738768
Yoyo_5
Posté le 12-12-2008 à 15:23:10  profilanswer
 

vboost a écrit :

C'est toujours mieux que l'image de poil a bois de ATI !! :D ........


Je ne sais pas d'où tu la sors celle là mais c'est très velu... :o
 
 [:chtiungdor]


---------------
¤ Paix et félicité ¤

n°6738826
Moz007
Posté le 12-12-2008 à 15:55:54  profilanswer
 

Bonjour à tous,
 
Alors voila pour ne pas changer, après avoir été emmerdé par mon SLI de 280GTX, je suis encore plus emmerdé par mon... Tri-SLI de 280GTX à savoir que l'une des cartes (la première sur lequel est branché l'écran), garde ses fréquences semi-full (400/800/300) et ne varie pas selon les sollicitations 2D/3D...
 
Encore plus étrange, un petit screen de GPU-Z :
 
http://img136.imageshack.us/img136/5391/image3kk5.jpg
 
Le tout sous Vista 64b SP1 avec driver 180.48. Testé également : 180.60 / 180.70 / 180.84 si mes souvenirs sont bons.
 
Overlock ou stock, ça ne change rien.
 
Par contre sous un WinXP de test tout est normal ! :pt1cable:  
 
Une idée ?


Message édité par Moz007 le 12-12-2008 à 15:56:47
n°6738933
toto le su​per hero
Your life is just a choice
Posté le 12-12-2008 à 16:57:06  profilanswer
 

NVIDIA SLI : Disabled : c'est normal pour du tri SLI ?

n°6738950
Moz007
Posté le 12-12-2008 à 17:08:03  profilanswer
 

Bin j'ai désactivé le sli pour que les cartes soient bien indépendantes les unes des autres... :sweat:

n°6738967
toto le su​per hero
Your life is just a choice
Posté le 12-12-2008 à 17:24:12  profilanswer
 

T'as essayer d'echanger les cartes pour voir si c'etait lié a la carte ou a sa position sur les slot PCI. Si c'est liée a la carte, elle est peut etre deffectueuse.

n°6739025
sinoufzor
Posté le 12-12-2008 à 18:00:01  profilanswer
 

ismqel a écrit :

nvidia se fou royalement de la geule du monde la. Quel est l'interet de sortir une GTX 285 ???? Pourquoi ne tout simplement pas baisser le prix des actuelles GTX 280 à 300 350 euros ??? Sortir une gtx 285 avec seulement 10 % de plus c'est même pas 1 fps en plus, c'est ridicule quoi !!! Qui n'arrive pas à bien overclock sa carte à l'heure d'aujourd'hui ...
 
Faut bien boucher le trou pour Noël hein avec un produit qui ne devrait même pas voir le jour ... C'est génial on économise 50 watt, c'est pas extraordinaire tout ça ? A l'heure d'aujourd'hui personne ne fait attention aux watts. D'ailleur comme exemple, Intel et son speedstep, tout le monde le désactive et overclock comme des porc leur proco pourtant c'est sa économise de l'energie quoi :)
 
Donc en résumé:
 
* 65 mm -> 55 mm : ridicule !!! Ou est le gain ?
* 236 w -> 183 w : ridicule !!! Qui fait attention à ce que consomme sa bête ? On regarde plutôt les perfs brutes de la bête et non la consommation !
* Moins de chauffe : pourtant ma GTX 280 ne chauffe pas ? 35 - 40 ° en idle c'est pas chaud hein ? Et 60 - 70 ° en full 3d avec la ventilation à +- 50 % !
 
...


 
 
Moi j'ai laissé le ventilo par defaut donc 40% en iddle avec 55° et je monte en full sur crysis à 82° avec le ventilo qui me fait des pointe à 60% ...
 
Je trouve que ca faut bien plus que toi ca c'est parce que les GTX280 sont mieux ventilé ou quoi ?

n°6739053
ismqel
upgrade your life !
Posté le 12-12-2008 à 18:20:55  profilanswer
 

j'en sais rien du tout. Dépend de l'aération du boitier aussi. En idle normale que la t° baisse bien, le GPU core clock se met en vitesse minimum soit 300 mhz et la mémoire à 100 mhz


Message édité par ismqel le 12-12-2008 à 18:27:54
n°6739115
sansevan
Posté le 12-12-2008 à 19:00:10  profilanswer
 

super_newbie_pro a écrit :

Oui ; financièrement ils sont gagnants. Tu veux peut être qu'ils restent en 65nm ? EDIT ; et pour les nouveaux clients intéressés par des produits haut de gamme nvidia, ces G200B sont une opportunité, que ça te plaise ou non. En fait je ne saisi pas d'où provient ton mécontentement... :sweat: Tu peux toujours postuler pour être ingénieur développeur tu sais... je t'en donne même le lien : http://www.recruit.net/company-Nvidia-jobs et http://www.nvidia.com/page/job_descriptions.html


Réaction du mec qui voit sa CG ne plus être la meilleur CG du moment. Aigritude à son niveau maximal -> on dénigre en toute mauvaise fois pour se convaincre soit même.
 
Qd on reprend son message est ses arguments :
pkoi sortir une carte plus rapide car on peut oc sa carte actuelle -->> ah bah oui c'est sur la nouvelle carte on ne pourra pas l'oc...
pkoi graver plus fin on s'en fout des watts et de la t°  --->> olol
"A l'heure d'aujourd'hui personne ne fait attention aux watts. D'ailleur comme exemple, Intel et son speedstep, tout le monde le désactive et overclock comme des porc leur proco"  --->> mec qui s'en fout de tout et des autres [d'ailleurs j'oc bien mon c2d avec speedstep activé]
 
 
Ca me fait bien rire tout ceux qui disent que les nouvelles rev sont du caca, autant rester sur les anciennes et tout. D'ailleurs ce sont ceux qui ont déjà des gt260 et 280 qui disent ça. Pour eux peu d'intérêt bien sur, ms ils ne voient pas plus loin que le bout de leur nez, et que le produit peut être intéressant pour les autres.
 
Mon cas pour exemple, j'ai eut gf3 ti500, 2nd rev des gf3
gf 4 ti 4200, 2nd rev
gf 7900 gto, 2nd rev
 
J'aurai à priori la seconde rev des gt200..
Pkoi ? Car je ne suis pas à 6 mois près, je préfère voir les retours des gens sur la première rev, attendre la stabilisation des drivers, avoir un produit un petit poil plus perf / moins consommateur pour le même prix.
 
Maintenant, sachant que je ne suis pas pressé de changer de CG, j'aimerai qu'on m'explique pkoi je devrai absolument acheter un 260 / 280 et non les versions gravées plus fines qui sortent ds qq semaines (à prix équivalent, va sans dire) ?
 
 
PS : pour les pb de confusion ds la gamme, le fait de vouloir rentabiliser au max une archi, c'est pas nouveau non plus..

n°6739201
revolbie
wanéguen truc of the machin
Posté le 12-12-2008 à 19:46:47  profilanswer
 

+1
C'est l'évolution, la dénigrer c'est retrograde

n°6739345
sapphire a​depte xd
Posté le 12-12-2008 à 21:40:42  profilanswer
 

Sa rime a rien la nouvelle archi a NVidia pour le consommateur... Tout ce qu'ils veulent c'est rentabiliser un max leur archi avec une gravure plus fine, ce qui est compréhensible, maintenant s'ils peuvent faire croire au consommateur en parallèle que la carte qu'ils achèteront sera largement mieux que l'actuelle, tant mieux pour eux, et des gens leurs croirons surement, vive le marketing !

 

Si tu n'as pas forcément l'argent/envie de l'acheter maintenant , c'est normal qu'une GTX285 sera mieux, mais que si et seulement si tu la paies pas plus chere que la GTX280 actuelle ;)

 

Moi sa va faire 5mois que je joue sur ma GTX280 payée 349euros neuve chez RDC. Tiens vous me dites ce que les gens y ont gagnés à l'acheter trois mois plus tard ? Ben ils l'ont payé 30euros de plus. Maintenant je ne dis pas que j'ai vu la crise arriver avec la montée des prix etc... Mais bon acheter du HDG a très bon prix faut en profiter, fallait pas non plus croire au pere noel et penser que la GTX280 allait descendre au niveau du prix de la HD4870... :/

Message cité 1 fois
Message édité par sapphire adepte xd le 12-12-2008 à 21:42:43
n°6739473
Morgul
Dillon, you son of a bitch!
Posté le 12-12-2008 à 23:13:11  profilanswer
 

sansevan a écrit :

Maintenant, sachant que je ne suis pas pressé de changer de CG, j'aimerai qu'on m'explique pkoi je devrai absolument acheter un 260 / 280 et non les versions gravées plus fines qui sortent ds qq semaines (à prix équivalent, va sans dire) ?


 
Si tu peux patienter jusqu'en janvier, les GTX en 55nm vaudront le coup, si tu as besoin d'une carte graphique dans les jours qui viennent prend une GTX en 65nm actuelle, la différence entre les deux est vraiment trop faible pour rendre obsolétes les CG actuellement en vente sur le marché (et puis reste l'inconnue du prix)


Message édité par Morgul le 12-12-2008 à 23:14:46
n°6739628
asmomo
Modérateur
Posté le 13-12-2008 à 03:19:01  profilanswer
 

:hello:

 

Je vais prendre une GTX 260 demain, pas possible d'attendre. Je la prends à Montgallet, il y a quoi comme cartes 216SP pour ceux qui y sont passé ? J'ai repéré la Gigabyte "OC" et la Twintech, il y en a d'autres ?


Message édité par asmomo le 13-12-2008 à 03:19:32

---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°6739629
asmomo
Modérateur
Posté le 13-12-2008 à 03:21:19  profilanswer
 

sapphire adepte xd a écrit :

Sa rime a rien la nouvelle archi a NVidia pour le consommateur... Tout ce qu'ils veulent c'est rentabiliser un max leur archi avec une gravure plus fine, ce qui est compréhensible, maintenant s'ils peuvent faire croire au consommateur en parallèle que la carte qu'ils achèteront sera largement mieux que l'actuelle, tant mieux pour eux, et des gens leurs croirons surement, vive le marketing !  
 
Si tu n'as pas forcément l'argent/envie de l'acheter maintenant , c'est normal qu'une GTX285 sera mieux, mais que si et seulement si tu la paies pas plus chere que la GTX280 actuelle ;)  
 
Moi sa va faire 5mois que je joue sur ma GTX280 payée 349euros neuve chez RDC. Tiens vous me dites ce que les gens y ont gagnés à l'acheter trois mois plus tard ? Ben ils l'ont payé 30euros de plus. Maintenant je ne dis pas que j'ai vu la crise arriver avec la montée des prix etc... Mais bon acheter du HDG a très bon prix faut en profiter, fallait pas non plus croire au pere noel et penser que la GTX280 allait descendre au niveau du prix de la HD4870... :/


 
Perso c'est surtout ça que je retiens. Quand on peut plus jouer car la CG est à la rue, on perd du temps de jeu, et le temps, c'est de l'argent :d


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°6739641
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 13-12-2008 à 06:00:46  profilanswer
 

si ca c'est pas beau mdr ! je me vois mal acheter une 4870x2 de chez xfx :o
http://www.clubic.com/actualite-24 [...] force.html

n°6739642
dricks2222
Posté le 13-12-2008 à 06:42:25  profilanswer
 

ismqel a écrit :

nvidia se fou royalement de la geule du monde la. Quel est l'interet de sortir une GTX 285 ???? Pourquoi ne tout simplement pas baisser le prix des actuelles GTX 280 à 300 350 euros ??? Sortir une gtx 285 avec seulement 10 % de plus c'est même pas 1 fps en plus, c'est ridicule quoi !!! Qui n'arrive pas à bien overclock sa carte à l'heure d'aujourd'hui ...
 
Faut bien boucher le trou pour Noël hein avec un produit qui ne devrait même pas voir le jour ... C'est génial on économise 50 watt, c'est pas extraordinaire tout ça ? A l'heure d'aujourd'hui personne ne fait attention aux watts. D'ailleur comme exemple, Intel et son speedstep, tout le monde le désactive et overclock comme des porc leur proco pourtant c'est sa économise de l'energie quoi :)
 
Donc en résumé:
 
* 65 mm -> 55 mm : ridicule !!! Ou est le gain ?
* 236 w -> 183 w : ridicule !!! Qui fait attention à ce que consomme sa bête ? On regarde plutôt les perfs brutes de la bête et non la consommation !
* Moins de chauffe : pourtant ma GTX 280 ne chauffe pas ? 35 - 40 ° en idle c'est pas chaud hein ? Et 60 - 70 ° en full 3d avec la ventilation à +- 50 % !
 
...


 
L'intérêt n'est pas pour le consommateur, il est pour NVidia.
Ca leur permet de réduire les couts de fabrication de leur puce et donc de se faire plus de marge ou de pouvoir baisser son prix sans se saigner.
 
Faut arrêter de croire que les entreprises bossent pour l'intérêt du consommateur : elles bossent d'abord pour leur intérêt à elles. Si l'intérêt du consommateur se trouve sur ce chemin, tant mieux, sinon OSEF.

n°6739817
hekhepri
Posté le 13-12-2008 à 12:00:24  profilanswer
 

Bonjour,
Les entreprisent bossent pour répondre à un besoin: ici des cgs, et bien entendu pour gagner de l'argent. Si les besoins ne sont considérés que comme accessoires, la boite risque la faillite.
On râle pour le prix, mais on achete. Il manque plusieurs autres concurrents pour faire véritablement baisser les prix.

n°6739829
rxone
Au milieu c'est merveilleux !™
Posté le 13-12-2008 à 12:09:06  profilanswer
 

B1LouTouF a écrit :

si ca c'est pas beau mdr ! je me vois mal acheter une 4870x2 de chez xfx tout court :o
http://www.clubic.com/actualite-24 [...] force.html


 
 
 :whistle:  :D  :lol:  
 
EDIT => Pas la peine de me chercher ... :whistle:


Message édité par rxone le 13-12-2008 à 12:09:45

---------------
Mozinor president !!! http://valid.x86-secret.com/show_oc.php?id=434879 | http://valid.canardpc.com/show_oc.php?id=514114 CoolerMaster powered
n°6739926
torngloo
Posté le 13-12-2008 à 13:11:31  profilanswer
 

Hello,  
Je pense attendre janvier pour une GTX295 X2 ou GTX285 et étudier tout les tests qui vont avec, pour voir ou elle se situe par rapport aux HD4870, HD4870 X2, 280 / 260.  
Vous en pensez quoi ? (avec le PC que j'ai, je suis plus à 1mois près :D)

n°6739929
Temperance
Dr Evans & Mister House
Posté le 13-12-2008 à 13:13:12  profilanswer
 

torngloo a écrit :

Hello,  
Je pense attendre janvier pour une GTX295 X2 ou GTX285 et étudier tout les tests qui vont avec, pour voir ou elle se situe par rapport aux HD4870, HD4870 X2, 280 / 260.  
Vous en pensez quoi ? (avec le PC que j'ai, je suis plus à 1mois près :D)


Tu comptes l'associer à un P4 ?  [:azylum]

n°6739945
Morgul
Dillon, you son of a bitch!
Posté le 13-12-2008 à 13:33:12  profilanswer
 

torngloo a écrit :

Hello,  
Je pense attendre janvier pour une GTX295 X2 ou GTX285 et étudier tout les tests qui vont avec, pour voir ou elle se situe par rapport aux HD4870, HD4870 X2, 280 / 260.  
Vous en pensez quoi ? (avec le PC que j'ai, je suis plus à 1mois près :D)


 
Ca parait un peu démesuré ce genre de carte sur ta config quand même (si ton profil est à jour)

n°6739957
torngloo
Posté le 13-12-2008 à 13:39:37  profilanswer
 

Non pas du tout, si je dois m'en prendre une je refais tout, ça va de soit  :lol:  :D

n°6739987
Wilfried28​_2
Posté le 13-12-2008 à 13:58:56  profilanswer
 

torngloo a écrit :

Non pas du tout, si je dois m'en prendre une je refais tout, ça va de soit  :lol:  :D


Un ptit Phenom II ? :D


---------------
Ex HFR : Wilfried2828 -->>  Wilfried28_2  le retour...
n°6739991
jesaipacki
Posté le 13-12-2008 à 14:00:40  profilanswer
 

Wilfried28_2 a écrit :


Un ptit Phenom II ? :D


Un ptit i7?  :o

n°6740012
rxone
Au milieu c'est merveilleux !™
Posté le 13-12-2008 à 14:16:20  profilanswer
 

Un  ptit q9x50 ? :o
 
EDIT => On peut aller loin comme ca :d


---------------
Mozinor president !!! http://valid.x86-secret.com/show_oc.php?id=434879 | http://valid.canardpc.com/show_oc.php?id=514114 CoolerMaster powered
n°6740013
chipaoliva​opo
Posté le 13-12-2008 à 14:17:57  profilanswer
 

hekhepri a écrit :

Bonjour,
Les entreprisent bossent pour répondre à un besoin: ici des cgs, et bien entendu pour gagner de l'argent. Si les besoins ne sont considérés que comme accessoires, la boite risque la faillite.On râle pour le prix, mais on achete. Il manque plusieurs autres concurrents pour faire véritablement baisser les prix.


 
Une demande...pas un besoin. L'ère de la société post-industrielle c'est du passé, désolé.
 
Et justement ce qui est vendeur, c'est l'accessoire , et haut de gamme de préférence.  
 
Mais on est HS là, comme 90% de ce post topic d'ailleurs


Message édité par chipaolivaopo le 13-12-2008 à 14:21:15
n°6740019
torngloo
Posté le 13-12-2008 à 14:20:50  profilanswer
 

Un pti' E8500 avec une P5Q deluxe surement :'o

n°6740064
hekhepri
Posté le 13-12-2008 à 14:53:35  profilanswer
 

C'est en ce que je disais.  
Quant à l'accessoire, on pourrait en faire un topic.
Mais effectivement nous sommes très éloignés du sujet.

n°6740393
bucheron9
I like juice
Posté le 13-12-2008 à 18:52:36  profilanswer
 

hello tout le monde,quelqu un aurait il un lien a me filer concernant un test des sli de 260v2?j ai rien trouvé jusqu a maintenant et j aimerais me faire une idée...un zoli tableau de comparo serait l ideal...

n°6740638
Fssabbagh
Satsui no Hado
Posté le 13-12-2008 à 23:20:58  profilanswer
 

déjà entre une 260 et une 260 core 216 et une 280:
 
http://fr.youtube.com/watch?v=dcvGXPaQg-8
 
ça monte oui mais pas bcp comme tu peux le voir. Comme la 260 de base est plus perf que la 4870 avec les 180.40, le sli est plus perfs qu'un crossfire de 4870...  ou qu'une 4870X2. Surtout la x2 et ses driver assez... spéciaux


---------------
Messatsu !
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  513  514  515  ..  833  834  835  836  837  838

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Intel Core 2 Duo E4700[Topic Unique] Silverstone FT01
[Topic Unique] Bluetooth / Bluesoleil / test de dongle des membres[Topic unique] Nvidia 9600 GT
Plus de sujets relatifs à : [Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)