Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2882 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  267  268  269  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8282624
Mseirco
Posté le 19-04-2012 à 17:29:13  profilanswer
 

Reprise du message précédent :

mrdoug a écrit :


 
Je doute que ça change qqch, imagine le mec avec un watercooling :sweat:


 
 
J'y ai aussi penser. Mais je me souvien que quelqu'un ici m'avais dis de ABSOLUMENT NE JAMAIS INSTALLER WINDOW 7 AVEC 2 CARTE GRAPHIQUE EN SLI.
 
Vue que je veux formater, (changer de SSD), J'ai vraiment pas envie de toucher a mes cartes graphiques, pour derengement mais surtout pars peur de electricité statique ou autre connerie... A la limite j'enleve uniquement le pont SLI? ou comme la majorité ici, je ne touche a rien et j'install window 7 sans me prendre la tete!

mood
Publicité
Posté le 19-04-2012 à 17:29:13  profilanswer
 

n°8282627
0b1
There's good in him
Posté le 19-04-2012 à 17:31:03  profilanswer
 


C'est quoi ces conneries? :o
 

Citation :

Card will require 650W power supply through two 8-pin power connectors.

n°8282628
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 19-04-2012 à 17:31:57  profilanswer
 

Mseirco a écrit :

ABSOLUMENT NE JAMAIS INSTALLER WINDOW 7 AVEC 2 CARTE GRAPHIQUE EN SLI.


 
Mouais, quand ils ont croisés les rayons dans ghostbusters l'univers s'est pas écroulé, ca doit marcher donc d'installer un windows avec deux cartes :D


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8282641
DemDal
Posté le 19-04-2012 à 17:41:31  profilanswer
 

Mseirco a écrit :

Vue que je veux formater, (changer de SSD)


T'es obligé de formater quand tu changes de SSD ? [:delarue5] Tu peux pas cloner le premier SSD sur le second ? Pour cela j'utilise G4U : http://www.feyrer.de/g4u/


Message édité par DemDal le 19-04-2012 à 18:02:36
n°8282653
Fouge
Posté le 19-04-2012 à 17:50:49  profilanswer
 

0b1 a écrit :

C'est quoi ces conneries? :o
 

Citation :

Card will require 650W power supply through two 8-pin power connectors.


Puissance conseillée (et volontairement surévaluée) pour la machine complète ;)

n°8282668
dennis3169
Posté le 19-04-2012 à 18:00:10  profilanswer
 

Bon pour moi GTX680 Phantom commandé sur Caseking.de, en espérant la recevoir rapidement et ne pas être déçus pas le cooling " Phantom II ".

n°8282670
hekhepri
Posté le 19-04-2012 à 18:02:06  profilanswer
 

Laquelle 2 ou 4Go?

n°8282673
dennis3169
Posté le 19-04-2012 à 18:03:15  profilanswer
 

hekhepri a écrit :

Laquelle 2 ou 4Go?


 
 
La 2 Go je suis sur un seul écran ^^.

n°8282680
0b1
There's good in him
Posté le 19-04-2012 à 18:08:57  profilanswer
 

Fouge a écrit :

Puissance conseillée (et volontairement surévaluée) pour la machine complète ;)


Bah c'est bien indiqué "Card will require"
Et pour le coup si c'est le système complet, 650W je suis pas sûr que ce soit si surévalué :)

Message cité 1 fois
Message édité par 0b1 le 19-04-2012 à 18:09:11
n°8282690
Fouge
Posté le 19-04-2012 à 18:13:13  profilanswer
 

0b1 a écrit :

Bah c'est bien indiqué "Card will require"
Et pour le coup si c'est le système complet, 650W je suis pas sûr que ce soit si surévalué :)

On se doute bien que la carte n'a pas besoin d'une alim 650W pour elle toute seule. C'est plus une indication du genre : "Votre machine doit être équipée d'une alim de 650W minimum pour envisager d'y installer la GTX690".
Ca laisse quand même 400W pour le reste, ya d'la marge avant que l'alim se mette en sécu :o


Message édité par Fouge le 19-04-2012 à 18:13:44
mood
Publicité
Posté le 19-04-2012 à 18:13:13  profilanswer
 

n°8282711
TriniTa_91​1
Posté le 19-04-2012 à 18:38:33  profilanswer
 


Surement pour contrer la sortie éventuel d'une HD7990 (bi gpu de HD7970), et rester en haut de l'affiche en terme de perf pure.

n°8282725
Eyldebrand​t
Assisté par IA
Posté le 19-04-2012 à 18:52:02  profilanswer
 


 
Non mais les mecs qui ont acheté un SLI de 680, à mon sens, et à moins de partir de loin, se sont déjà fait baisés.
La gain de perf avec les GF 110 est franchement faiblard, et même un poil moins perf si on compare une 680 avec une 590  [:absolutelykaveh]  
Se payer un SLI de 580 3 Go en 2nde main permettait d'économiser un truc comme 600 euros minimum, pour des perfs comparables.

n°8282736
fire du 57
The futur is Fusion
Posté le 19-04-2012 à 19:05:50  profilanswer
 

J'ai été trop optimiste...Je m'attendais a un paper Launch...du GK110 ! :o  ( :whistle: )
Je suis deg' la on vas avoir un Bi-GPU... :pfff:

Message cité 1 fois
Message édité par fire du 57 le 19-04-2012 à 19:06:06

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8282771
toto le su​per hero
Your life is just a choice
Posté le 19-04-2012 à 19:29:21  profilanswer
 

fire du 57 a écrit :

J'ai été trop optimiste...Je m'attendais a un paper Launch...du GK110 ! :o  ( :whistle: )
Je suis deg' la on vas avoir un Bi-GPU... :pfff:


 
Faut arreté de réver, à moins d'une grosse surprise chez AMD, les GK110 s'appelera GTX780 et sortira pour contrer les HD8900. D'ici la le processus de fabrication posera moins de problème pour nVidia !

n°8282778
Gein
Posté le 19-04-2012 à 19:31:15  profilanswer
 

+1


Message édité par Gein le 19-04-2012 à 19:31:23
n°8282800
Eyldebrand​t
Assisté par IA
Posté le 19-04-2012 à 19:41:35  profilanswer
 


 
Pour une map dans BF 3  [:hahaaulas]

n°8282804
mrdoug
Posté le 19-04-2012 à 19:43:36  profilanswer
 

Bon j'ai du 60ips constant sous BF3 maintenant :) Bien entendu sans l'AA (faut un sli pour ça)

n°8282817
Alis_70
Posté le 19-04-2012 à 19:51:13  profilanswer
 

toto le super hero a écrit :


 
Faut arreté de réver, à moins d'une grosse surprise chez AMD, les GK110 s'appelera GTX780 et sortira pour contrer les HD8900. D'ici la le processus de fabrication posera moins de problème pour nVidia !


 
c'est clur, la vrai question est : quand sortira t'elle ?
 
moi je pense de plus en plus à me prendre une 680 car plus le temps passe et plus le GK110 s'éloigne ...


Message édité par Alis_70 le 19-04-2012 à 19:51:45
n°8282819
mrdoug
Posté le 19-04-2012 à 19:52:21  profilanswer
 


 
Oui mais pas constamment  :o  
Quand il y a des la fumée, ça tombe à 45  :sweat:

n°8282839
Kapa75
Posté le 19-04-2012 à 20:12:37  profilanswer
 

Bah dans l'immédiat, ça serait bête de sortir le GK110 maintenant.
 
Vous êtes NVIDIA, vous faites quoi?
 
1) Vous sortez le GK110, et le vendez à 700€?
 
=> Ca sent le bide commercial. Seuls quelques passionnés pourront faire l'investissement.
 
2) Vous sortez le GK110, et le vendez à l'actuel prix de la GTX 680?
 
=> Ca serait pas malin, la 680 se vendant comme des petits pains à ce prix là déjà, il serait bête de baisser son prix.
 
3) Vous attendez bien sagement 6 mois, un an, voire une nouvelle carte de la concurrence, et vous lancez votre GK110.
 
=> Résultat, 1 nouvelle génération de carte, qui coutera quedalle à nvidia en R&D. :D

n°8282840
Lordben007
Membre Premium
Posté le 19-04-2012 à 20:12:49  profilanswer
 

Et pourquoi le bi-GPU ne serait pas bien ? Pour moi qui ai une mobo µatx c'est quand même le top de ne pouvoir mettre qu'une seule carte. Je n'ai pas trop confiance à " coller " 2 cartes en SLI : y'a forcément une carte qui aura son refroidissement beaucoup moins efficace que l'autre.
 
J'ai bien envie d'en savoir plus sur cette future 690 moi  :)


---------------
Topic Ventes
n°8282842
ravenloft
Meilleur jeu du 20ème siècle
Posté le 19-04-2012 à 20:13:24  profilanswer
 

Le contenu de ce message a été effacé par son auteur

n°8282845
glrpignolo
Posté le 19-04-2012 à 20:14:40  profilanswer
 

Kapa75 a écrit :

Bah dans l'immédiat, ça serait bête de sortir le GK110 maintenant.
 
Vous êtes NVIDIA, vous faites quoi?
 
1) Vous sortez le GK110, et le vendez à 700€?
 
=> Ca sent le bide commercial. Seuls quelques passionnés pourront faire l'investissement.
 
2) Vous sortez le GK110, et le vendez à l'actuel prix de la GTX 680?
 
=> Ca serait pas malin, la 680 se vendant comme des petits pains à ce prix là déjà, il serait bête de baisser son prix.
 
3) Vous attendez bien sagement 6 mois, un an, voire une nouvelle carte de la concurrence, et vous lancez votre GK110.
 
=> Résultat, 1 nouvelle génération de carte, qui coutera quedalle à nvidia en R&D. :D


 
 
Je crois surtout qu'il le sortiront qd ils pourront !
T'inquiete pas que si il avait pu etre commercialisé ce printemps, il ne se seraient pas gêné pour le faire.

n°8282846
ravenloft
Meilleur jeu du 20ème siècle
Posté le 19-04-2012 à 20:14:53  profilanswer
 

Le contenu de ce message a été effacé par son auteur

n°8282849
NoradII
Il y a 17 ans naquit un PC
Posté le 19-04-2012 à 20:16:13  profilanswer
 

glrpignolo a écrit :

Je crois surtout qu'il le sortiront qd ils pourront !
T'inquiete pas que si il avait pu etre commercialisé ce printemps, il ne se seraient pas gêné pour le faire.

lapalissade :

 

ils ont pu, mais
ils ont ri, donc
ils ont sorti le GK104 !

 

:jap:

Message cité 2 fois
Message édité par NoradII le 19-04-2012 à 20:16:55

---------------
valid.x86.fr/575505 /842925 /902578
n°8282851
actaruxs
Posté le 19-04-2012 à 20:17:57  profilanswer
 

toto le super hero a écrit :


 
Faut arreté de réver, à moins d'une grosse surprise chez AMD, les GK110 s'appelera GTX780 et sortira pour contrer les HD8900. D'ici la le processus de fabrication posera moins de problème pour nVidia !


Et que se passera t-il lorsque tous les problemes seront résolus ?

n°8282856
milag62
Posté le 19-04-2012 à 20:19:26  profilanswer
 

Le gk110 ils l'ont certainement au fond du tiroir mais ils sont en position d'attente face à AMD.

n°8282860
glrpignolo
Posté le 19-04-2012 à 20:20:39  profilanswer
 

NoradII a écrit :

lapalissade :
 
ils ont pu, mais
ils ont ri, donc
ils ont sorti le GK104 !
 
:jap:


 
 
Oui c'est surement ça.
Je te croyais plus intelligent que ça qd même pour croire le marketing d'une boite de carte graphique.

n°8282861
NoradII
Il y a 17 ans naquit un PC
Posté le 19-04-2012 à 20:22:41  profilanswer
 

ça fait pas de mal de rire un peu :D

 

.. Puis la réalité des faits .. personne ne la approchée sur un forum, donc ça veut bien dire qu'ils ont eue raison quelque part, à défaut de ..


Message édité par NoradII le 19-04-2012 à 20:23:33

---------------
valid.x86.fr/575505 /842925 /902578
n°8282863
Lordben007
Membre Premium
Posté le 19-04-2012 à 20:22:56  profilanswer
 

Micro saccades ouais çà j'ai appri çà dans la semaine  [:reas0n] J'ai été vraiment déçu d'apprendre qu'il y avait ce genre de problème d'ailleur sur ces systèmes...
 
Mais bon bi-GPU ou SLI je vois pas la différence, dans les 2 cas il y aura des micros saccades !? Forcément que le SLI de 2 cartes ( SLI GTX680 ) sera plus performant qu'un bi-GPU ( GTX690 ). Niveau prix la bi-GPU devrait être plus intéressante non ?
 
 
 


---------------
Topic Ventes
n°8282868
minato78
Posté le 19-04-2012 à 20:30:26  profilanswer
 

Je viens de déchiffré la conclusion du test de la 680 phantom:
 
http://www.fudzilla.com/home/item/ [...] 2gb-tested
 
Je pensé acheter cette carte, (bon refroidissement silencieux) mais je viens de lire la mauvaise réputation de la 580. Donc il vaut mieux attendre ou choisir une autre marque ?
 
merci

n°8282898
fire du 57
The futur is Fusion
Posté le 19-04-2012 à 20:47:34  profilanswer
 

toto le super hero a écrit :

 

Faut arreté de réver, à moins d'une grosse surprise chez AMD, les GK110 s'appelera GTX780 et sortira pour contrer les HD8900. D'ici la le processus de fabrication posera moins de problème pour nVidia !

 


Sauf que quand je vois "elle arrive" la première chose à laquel je pense c'est pas un Bi-GPU qui vas bouffer des Watts et vas produire une bonne grosse chaleur pour des perf' pas forcement vraiment au rdv comparé à un SLI de GTX680 mais plutôt à un monstre , un monstre monoGPU que l'on attend depuis un bon moment ! Ok j'avoue je ni croyais pas au GK110 mais pourtant c'est la première chose qui m'a traversé l'esprit ! :p

 

PS : Oh et +1 pour ton message . tu as raison ! :)


Message édité par fire du 57 le 19-04-2012 à 20:48:56

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8282906
Popeye45
Posté le 19-04-2012 à 20:52:26  profilanswer
 

Finalement elle semble bien finie cette GTX 680 phantom ou pas??
Mieux que la 580??

n°8282916
wnorton
Je suis néerlandophone
Posté le 19-04-2012 à 20:56:42  profilanswer
 

NoradII a écrit :

lapalissade :
 
ils ont pu, mais
ils ont ri, donc
ils ont sorti le GK104 !
 
:jap:


 
+1
 
http://a1.idata.over-blog.com/300x253/0/38/60/59/mdr.gif


---------------
Je suis néerlandophone une fois
n°8282922
Activation
21:9 kill Surround Gaming
Posté le 19-04-2012 à 21:06:29  profilanswer
 

Popeye45 a écrit :

Finalement elle semble bien finie cette GTX 680 phantom ou pas??
Mieux que la 580??


 
 
on va le voir autrement  
 
avant la gtx580 phantom le ventirad avait un gf110 à refroidir
 
la gtx680 design de ref à un ventirad de ref moins démesuré que celui de la gtx580 de ref
 
pourquoi... car le gk104 est moins problématique à refroidir
 
maintenant on va le faire comme ça:   imaginons que tu prend le fameux rad de la gtx580 phantom pour le coller on va dire à un gpu AMD bart
 
le ventirad devient t'il plus performant pour autant... bien sur que non, on lui donne juste un labeur moins difficile
 
et bah voilà le gk104 28nm c'est ce qu'aurait pu être un bart amd 40nm à refroidir  :o  .... est ce que tu te serais fait chier à acheter une HD6870 "phantom" edition
 
pas forcément... alors est ce que tu as envie de te faire chier à acheter une gtx680 "phantom" quand y aura forcément des rad plus perf.... y en a bien eu pour les gtx580  
 
à commencer par ma gentil "inno3d hawk" :o
http://ecx.images-amazon.com/images/I/415VO7MhDyL._SL500_AA300_.jpg
 
bon après ça prend 3slots... ça c est un autre débat :D

Message cité 1 fois
Message édité par Activation le 19-04-2012 à 21:09:20
n°8282929
dennis3169
Posté le 19-04-2012 à 21:12:44  profilanswer
 

Popeye45 a écrit :

Finalement elle semble bien finie cette GTX 680 phantom ou pas??
Mieux que la 580??


 
Oui elle est plutôt pas mal, moi je l'ai eu à 525.90 € FDP inclus, une bonne affaire.
 
Et comme dit plus haut, le TDP de la GTX680 est bien plus bas que celui d'une GTX580, déjà que le cooling de réf. est très performant celui de la Phantom l'est encore plus.


Message édité par dennis3169 le 19-04-2012 à 21:19:02
n°8282962
minato78
Posté le 19-04-2012 à 21:53:32  profilanswer
 

Le mieux c'est t'attendre un test fr et attendre pour voir s'il y aura pas d'autre modèles plus performant au même prix.
 
La phantom est super chère je serais méga dégouté si au bout de quelques semaines un autre modèle arrive avec les mêmes performances à un prix plus bas.
 
 

n°8282972
wnorton
Je suis néerlandophone
Posté le 19-04-2012 à 22:01:32  profilanswer
 

minato78 a écrit :

Le mieux c'est t'attendre un test fr et attendre pour voir s'il y aura pas d'autre modèles plus performant au même prix.
 
La phantom est super chère je serais méga dégouté si au bout de quelques semaines un autre modèle arrive avec les mêmes performances à un prix plus bas.
 
 


 
 
Une boucle sans fin, dans quelque semaine de quelque semaine il aura toujours plus puissant.  
 
alors on acheté plus rien comme ça  [:hotcat]


---------------
Je suis néerlandophone une fois
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  267  268  269  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)