Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3036 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  450  451  452  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8353547
uNReaLx77
üNReaL
Posté le 19-06-2012 à 18:20:48  profilanswer
 

Reprise du message précédent :

snake116 a écrit :


 
Je viens de me commander 2 gainward GTX 670 ... pour me faire un ti SLI de remplacement de mes deux GTX 570 ... personnes d'autres n'as de pb ?  
 
essai les drivers béta ils viennent de sortir  
 
http://www.nvidia.fr/object/win7-w [...] er-fr.html


tu joue sur ton projo en 3D ?
ca donne quoi ?
c'est compatible 1080p en 3d ?  
les bluray 3d passe aussi en 1080p ou ca reste en 720 ?

mood
Publicité
Posté le 19-06-2012 à 18:20:48  profilanswer
 

n°8353552
sebounet
Posté le 19-06-2012 à 18:24:37  profilanswer
 

bon j'ai réussi a flasher mes TOP. Je les ai flashé une après l'autre en retirant une carte a chaque fois.
Par contre, sous GPU-Z, au début je suis en PCI-E 2.0 x16 @ x16 2.0, puis ca switch en PCI-E 2.0 x16 @ x16 1.1.
 
J'ai le dernier bios dispo pour ma asus p6t deluxe v2 (x58).
Même chose avant / après le bios de la CG, en mono ou en sli.
 
...

n°8353557
Space
Profil: Maux des rateurs
Posté le 19-06-2012 à 18:26:52  profilanswer
 

tes cartes sont défectueuses , faut les renvoyer \o/
 

Spoiler :

c'est normal que cela t'affiche 1.1 , c'est juste que les cartes passent en idle :o


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°8353573
actaruxs
Posté le 19-06-2012 à 18:38:35  profilanswer
 

sebounet a écrit :

bon j'ai réussi a flasher mes TOP. Je les ai flashé une après l'autre en retirant une carte a chaque fois.
Par contre, sous GPU-Z, au début je suis en PCI-E 2.0 x16 @ x16 2.0, puis ca switch en PCI-E 2.0 x16 @ x16 1.1.
 
J'ai le dernier bios dispo pour ma asus p6t deluxe v2 (x58).
Même chose avant / après le bios de la CG, en mono ou en sli.
 
...


 
Normal... elles se mettre en iddle
 
Edit:
 
Mdr space... J'ai pas vu ton spoiler :D


Message édité par actaruxs le 19-06-2012 à 18:39:19
n°8353574
sebounet
Posté le 19-06-2012 à 18:38:48  profilanswer
 

Ha tiens marrant ca, merci pour l'info ;)
Y'a plus qu'a tester bf3 sans baisser la fréquence :p
 
Merci pour le lien vers le bios un peu plus haut.
a+

n°8353625
zelyria
Posté le 19-06-2012 à 19:08:23  profilanswer
 

Euh oui avec la Vsynch activée

n°8353633
thepunishe​r39
Posté le 19-06-2012 à 19:12:01  profilanswer
 
n°8353664
Stephen341
Posté le 19-06-2012 à 19:26:54  profilanswer
 

Une question, c'est grave d'avoir presque 10° de différence entre les cartes en SLI ?
 
[GPU1 en haut ; GPU2 en bas)
En charge, ça va : 86 ; 85
En idle : 45 ; 35
 
PS: Ventilo réglé sur 40% pour les deux.

n°8353691
Space
Profil: Maux des rateurs
Posté le 19-06-2012 à 19:49:15  profilanswer
 

nan rien de grave...
 
Par contre vu qu'en full tu as quasiment les mèmes températures , cela devrait ètre pareil en IDLE.
Tu fais du multi écran ?


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°8353711
Stephen341
Posté le 19-06-2012 à 19:57:51  profilanswer
 

J'ai trois écrans de toujours activé et branché sur la même carte (GPU1) mais en jeu, seul le principal est utilisé. (Là c'est 42 ; 36)
Ca peut venir de ça non ?
 
PS: en regardant MSI afterburner, en IDLE, le GPU2 reste a 0, rarement à 1% et le GPU1 entre 1 et 30%, sinon le core clock du GPU 2 est en mode éco (324Mhz) tandis que celui du GPU1 n'"arrête pas de switcher entre 324, 550 et 915Mhz).


Message édité par Stephen341 le 19-06-2012 à 19:58:39
mood
Publicité
Posté le 19-06-2012 à 19:57:51  profilanswer
 

n°8353723
Stephen341
Posté le 19-06-2012 à 20:01:02  profilanswer
 

Par contre, il y a un truc qui me stress, le GPU1 fait des pointes à 365% pour le "power" mais cela dure 2secondes grand maximum, c'est un soucis, ou c'est un bug ?

n°8353728
kyky
Je suis newbie et alors,
Posté le 19-06-2012 à 20:07:11  profilanswer
 

Yo80 a écrit :


+1, moi j'ai pris le supreme HF ;)
trop moche les nouveaux WB :/


Tu peux me  dire combien mesure la base du waterbloxk. :hello:  


---------------
le progrès ne vaut que s'il est partage par tous.Ce que je vends
n°8353743
dennis3169
Posté le 19-06-2012 à 20:19:05  profilanswer
 

Un SLI de GTX670 ou GTX680, c'est suffisant pour du triple screen tout à fond et éventuellement un peu de 3D Vision ?  
 
Ca me tente bien  :whistle: , par contre ma CM est en uATX donc les cartes seront l'une sur l'autre, niveau dégagement thermique ça va pas être terrible non ?
 
Et elles seront en X8/X8 la aussi niveau performance ça change beaucoup d'un x16/x16 ?
 
Je demande tout ça car j'ai jamais fais de SLI/CrossX.

Message cité 3 fois
Message édité par dennis3169 le 19-06-2012 à 20:20:11
n°8353750
uNReaLx77
üNReaL
Posté le 19-06-2012 à 20:26:35  profilanswer
 


ils disent le boost sur le papier mais a aucun endroit est mentionné a combien ils montent reelement, puis tester la cg uniquement oc est un peu domage quoi

n°8353760
chris282
id steam/psn : chris282_fr
Posté le 19-06-2012 à 20:38:05  profilanswer
 

dennis3169 a écrit :

Un SLI de GTX670 ou GTX680, c'est suffisant pour du triple screen tout à fond et éventuellement un peu de 3D Vision ?  
 
Ca me tente bien  :whistle: , par contre ma CM est en uATX donc les cartes seront l'une sur l'autre, niveau dégagement thermique ça va pas être terrible non ?
 
Et elles seront en X8/X8 la aussi niveau performance ça change beaucoup d'un x16/x16 ?
 
Je demande tout ça car j'ai jamais fais de SLI/CrossX.


le 8x ne bride pas les performances t'inquiete (cf les tests HFR)
 
Apres que ca soit du micro atx ou du atx, les cartes sont souvent séparées de la meme distance : il y a le slot pci express numero 1, un slot quelconque entre les deux et ensuite le 2eme slot pci express

n°8353763
burnout62
Posté le 19-06-2012 à 20:40:21  profilanswer
 

dennis3169 a écrit :

Un SLI de GTX670 ou GTX680, c'est suffisant pour du triple screen tout à fond et éventuellement un peu de 3D Vision ?  
 
Ca me tente bien  :whistle: , par contre ma CM est en uATX donc les cartes seront l'une sur l'autre, niveau dégagement thermique ça va pas être terrible non ?
 
Et elles seront en X8/X8 la aussi niveau performance ça change beaucoup d'un x16/x16 ?
 
Je demande tout ça car j'ai jamais fais de SLI/CrossX.


Ca passe assez bien en tripl screen quand même, quasi à fond dans tous les jeux sans trop de problèmes (après sur certains jeux c'est "que" 40 fps...) :
http://www.techpowerup.com/reviews [...] X_670_SLI/
http://hexus.net/tech/reviews/grap [...] e-beasttm/
 
3D Vision ça passe bien sur quasiment tous les jeux ;) .
 
le 8/8 ne bride pas trop, qqes % maximum.

n°8353779
dennis3169
Posté le 19-06-2012 à 20:50:53  profilanswer
 

Triple screen + 3D Vision tout à fond c'est ok ? ben dit donc sacré bête ^^.
 
 
C'est surtout pour être prêt pour les futurs jeux (Dishonored, Bioshock 3, Borderlands 2 etc ....)
 
Donc si SLI GTX670/680 sur du triple screen ça passera à fond je vais me laisser tenter  :D  
 
Et pour la uATX, j'ai calculé il y aura 5 mm entre les 2 cartes donc vraiment très très proche.  

n°8353783
aster
Chaotic Neutral
Posté le 19-06-2012 à 20:54:08  profilanswer
 

Peter95 a écrit :


 
Je crois qu'il n'y pas de waterblock (full) pour le moment pour les 670 en pcb de référence?


 
Watercool et EK on un waterblock intégral pour 670 de référence.
Filtre mes derniers posts

n°8353806
TriniTa_91​1
Posté le 19-06-2012 à 21:14:28  profilanswer
 

uNReaLx77 a écrit :


ils disent le boost sur le papier mais a aucun endroit est mentionné a combien ils montent reelement, puis tester la cg uniquement oc est un peu domage quoi


 
Plus qu'à attendre un vrai test, pour voir ce qu'elle faut face à la concurrence et à quel prix elle sera lancée !
Sinon je pensais qu'au niveau alim elle aurait 1x6 + 1x8 comme la gigabyte mais non "seulement" 2x6 pins.
 
Et vu que l'on pourra augmenter les tensions j'espère que cela sera pas trop limitant...

n°8353808
actaruxs
Posté le 19-06-2012 à 21:15:42  profilanswer
 

Pour info, la 670 de ref est celle a pcb court (pas de modeles customs, donc ceux sont tous des modele de ref)...  
 
Celle a pcb long, c'est le pcb de la 680... Attention, pour un waterblock integral, faut prendre une 670 (ou 670 pcb de 680) de ref...
 
Note que toute les 670 a pcb long ne sont pas forcément des pcb de ref, hein (pour les nouveaux venus).
 
A ma connaissance seul la gtx670 d'asus modifiée a un wb complet adapté (ek je crois).


Message édité par actaruxs le 19-06-2012 à 21:16:32
n°8353817
uNReaLx77
üNReaL
Posté le 19-06-2012 à 21:25:11  profilanswer
 

TriniTa_911 a écrit :


 
Plus qu'à attendre un vrai test, pour voir ce qu'elle faut face à la concurrence et à quel prix elle sera lancée !
Sinon je pensais qu'au niveau alim elle aurait 1x6 + 1x8 comme la gigabyte mais non "seulement" 2x6 pins.
 
Et vu que l'on pourra augmenter les tensions j'espère que cela sera pas trop limitant...


en attendant sur le test ils l'ont oc sans meme toucher au voltage...

n°8353823
actaruxs
Posté le 19-06-2012 à 21:29:39  profilanswer
 

Parce qu'on peut toucher le voltage ?

n°8353830
zelyria
Posté le 19-06-2012 à 21:34:44  profilanswer
 

Je disais donc que j'ai des chutes de l'ordre de 2/3 fps de temps en temps avec ma gtx 670 sync. verticale activée. Est-ce normal ? Températures normales.

n°8353838
actaruxs
Posté le 19-06-2012 à 21:39:27  profilanswer
 

http://nsa30.casimages.com/img/2012/06/19/120619095007211413.jpg
Vous trouvez pas un truc bizarre (voir en bas des fenetres... les 2 cg sont dans le meme pc) ?

n°8353851
actaruxs
Posté le 19-06-2012 à 21:45:46  profilanswer
 

lol... pas ça... Les cases cochées ou pas "computing"

n°8353858
Fouge
Posté le 19-06-2012 à 21:48:42  profilanswer
 

Normalement tout devrait être coché sauf DC5 sur la 8800GT. GPU-Z n'est peut-être pas super fiable à ce niveau-là.

n°8353868
actaruxs
Posté le 19-06-2012 à 21:54:54  profilanswer
 

Je demande car j'arrive pas a lancer Batman Arkham Asylum (la demo)... Je dl celui de chez nvidia, guru3d et là je vais installer celui de jeuxvideo...
 
Une erreur int32... Et lors de l'install, ça me detect un shader model 3. ça devrait pas etre un modele supérieur ?
 
Là, ça fait aucun doute que je vais devoir ré-installer win7


Message édité par actaruxs le 19-06-2012 à 21:57:57
n°8353877
Fouge
Posté le 19-06-2012 à 22:03:11  profilanswer
 

Shader Model 4 pour la 8800GT et 5 pour la GTX670.
Avec une seule CG, tous tes problèmes disparaissent ?

n°8353878
actaruxs
Posté le 19-06-2012 à 22:05:00  profilanswer
 

Je désactive la 8800 pour voir

n°8353882
actaruxs
Posté le 19-06-2012 à 22:08:34  profilanswer
 

Donc, la 8800 désactivé dans le gestionnaire de periph ne change rien...
 
J'ai voulu vérifier, en restaurant les parametres physx d'origin... idem  
 
Le jeu fonctionne pas, mais les parametres computing ont été MàJ:
 
- 8800 -> cases cochées opencl + physx
 
- 670 -> cases cochées -> toutes


Message édité par actaruxs le 19-06-2012 à 22:11:03
n°8353900
Stephen341
Posté le 19-06-2012 à 22:31:27  profilanswer
 

Y aurait-il un moyen d'enlever le mode éco des cartes pour qu'elles restent à leur fréquence de base (915Mhz) et non en dessous (324Mhz) ? :s
 
Parfois elles y restent alors que je fais rien, parfois elles sont en mode éco ><

n°8353925
actaruxs
Posté le 19-06-2012 à 22:52:04  profilanswer
 

ça, ça doit etre dans le panneau de config -> gestion d'alimentation... Choisir perf maxi

n°8353936
burnout62
Posté le 19-06-2012 à 23:00:37  profilanswer
 

dennis3169 a écrit :

Triple screen + 3D Vision tout à fond c'est ok ? ben dit donc sacré bête ^^.

 

C'est surtout pour être prêt pour les futurs jeux (Dishonored, Bioshock 3, Borderlands 2 etc ....)

 

Donc si SLI GTX670/680 sur du triple screen ça passera à fond je vais me laisser tenter  :D


Ah pardon je suis con, je parlais de 3D Vision en mono screen :pt1cable: .

 

Euh 3D Vision + Surround tout à fond non, jamais ! Regarde les tests que j'ai mis. En surround, tout tout à fond ça tournera dans les 30-40 FPS en gros. Un peu plus si tu vires les trucs ultra gourmands.
La 3D Vision, bah tu divises par 2 dans les jeux en gros, donc quasi impossible tout à fond en surround :sweat: . Je ne sais pas si il y a des tests sur ça, mais j'y crois pas.
Tu seras obligé de virer de l'anti aliasing, du physx/tesselation, HBAO etc...

 

Donc je récapitule (désolé^^) : SLI 670/680 = 2D surround globalement ok, tout à fond ou presque ; 3 Vision surround = non, obligé de baisser les paramètres graphiques.

 

Après, Dishonored, BS3 et Borderlands 2 ne seront pas spécialement gourmand normalement.

 

edit : des tests du 3D Vision surround (sachant que GTX690 ~= SLI GTX 670) :
http://pcper.com/reviews/Graphics- [...] -and-3D-Vi
http://www.hardwarecanucks.com/for [...] ew-24.html

Message cité 1 fois
Message édité par burnout62 le 19-06-2012 à 23:05:45
n°8353938
Zarbi74
Posté le 19-06-2012 à 23:05:11  profilanswer
 

La GTX690 c'est has been, vive la carte avec 4 GK104 dessus... :o
 
http://news.softpedia.com/news/Qua [...] 6447.shtml
 
   

Citation :

Once in a while, we run into claims and reports that are truly mind-boggling, outrageous even, and this one we are about to cover definitely fits the definitions of both terms.
 
In case the title wasn't direct enough, we'll be blunt again: it is rumored that a maker of graphics cards will launch a video card equipped with four Kepler graphics processing units.  
 
And yes, those GPUs will be GK104, the best available 28nm NVIDIA chips and the same ones used on the GTX 680 and the dual-GPU GTX 690.  
 
The report went as far as to say that a prototype had been demonstrated, in secret, during Computex 2012 in Taipei, Taiwan.  
 
A four-GPU graphics card is essentially the idea of a graphics card marketing stunt taken to the logical extreme.  
 
Quad-SLI is the most advanced form of multi-GPU support that NVIDIA allows on its chips. There is also the matter of power consumption.  
 
The report that exposed the purported existence of the multi-headed beast said the wattage would be somewhere between 600 and 800 watts.  
 
That is a lot by any stretch of the imagination. There are so-called high-end desktops whose PSUs use fewer watts to power all components, and yet this single piece of hardware will demand more all on its own.  
 
It is certain that the clock speeds will have to be limited, in order to ensure a manageable power draw. Even so, we fully expect three or four PCI Express power connectors to be required here.  
 
Historically, this would not be the first quad-GPU graphics card. The 3Dfx Voodooo 5 6000, back in 2000, has four graphics processors, or would have had if it had been released. Only 150 were produced, of which only thirty actually worked.  
 
PC Enthusiasts will have to pay $2000 / 1600 Euro or more if the quad-GK104 adapter ever becomes reality.


 
 :whistle:


---------------
Mon Topic Vente
n°8353980
dennis3169
Posté le 19-06-2012 à 23:40:36  profilanswer
 

burnout62 a écrit :


Ah pardon je suis con, je parlais de 3D Vision en mono screen :pt1cable: .
 
Euh 3D Vision + Surround tout à fond non, jamais ! Regarde les tests que j'ai mis. En surround, tout tout à fond ça tournera dans les 30-40 FPS en gros. Un peu plus si tu vires les trucs ultra gourmands.
La 3D Vision, bah tu divises par 2 dans les jeux en gros, donc quasi impossible tout à fond en surround :sweat: . Je ne sais pas si il y a des tests sur ça, mais j'y crois pas.
Tu seras obligé de virer de l'anti aliasing, du physx/tesselation, HBAO etc...
 
Donc je récapitule (désolé^^) : SLI 670/680 = 2D surround globalement ok, tout à fond ou presque ; 3 Vision surround = non, obligé de baisser les paramètres graphiques.
 
Après, Dishonored, BS3 et Borderlands 2 ne seront pas spécialement gourmand normalement.
 
edit : des tests du 3D Vision surround (sachant que GTX690 ~= SLI GTX 670) :
http://pcper.com/reviews/Graphics- [...] -and-3D-Vi
http://www.hardwarecanucks.com/for [...] ew-24.html


 
 
Ok merci  :jap:  
 
J'y vois plus clair  :D .
 
Et niveau dégagement thermique si les cartes sont collées, ça pose pas de problème (modèle de réf.)?
 
Et pas de soucis de Stuttering en SLI ? Car me souviens à l'époque des SLI de GTX580, et de Crysis 2 c'était stuttering land.
 
Et faut-il mettre les 3 écrans sur la même CG ? Si non, si je met un adaptateur Display port => DVI, ça ne changera pas les perfs de l'écran qui est dessus ? (120 Hz/ Temps de réponse / Résolution).


Message édité par dennis3169 le 19-06-2012 à 23:47:12
n°8353994
actaruxs
Posté le 20-06-2012 à 00:02:12  profilanswer
 

Pour la temp, ça risque de poser un ptit soucis... meme pour des versions de ref... Elles chauffent quand meme...
 
J'ai une gtx670 FTW d'evga... Donc modele de ref (pcb de 680)... légèrement oc d'usine (1005/1085, mais elle est souvent entre 1037 et 1175)
 
J'ai un pc moyennement ventillé (ventillo 2x120 @500tr + 2x120 @700tr sur la porte +120 700trs devant les hdd)... ça monte a presque 70° sur 3dmou vantage et 2011 (1 seule cg)...  
Avec une 8800gts (qui chauffe presque autant) en plus de la 670, cette derniere monte @72° avec les meme 3dmark...  
 
Je suis obligé d'utiliser la gestion de ventillo automatique (ça me va pour l'instant... en attendant un waterblock) de MSI AB...  
 
Et rien d'overclocké (hormi la cg qui l'est d'origine )...  
 
A oui, et, en ce moment, faut dire aussi qu'il fait entre 26 & 28° dans la piaule :D
 
Et bien sur, j'ai la place pour mettre une autre 670 entre les 2 cg actuelles...
 
Vu l'espace que tu dispose... 2 solutions (a mes yeux):
 
1- tu change de mobal pour avoir plus d'espace entre tes 2 cg ( mais ça chauffera quand meme bien)
 
2- tu les watercool...
 
Franchement, je vois pas trop en sli comment pas trop chauffer... vu que les cg s'oc toutes seules... A moins de devoir les downclocker un chouilla (dans ce cas, faut pas prendre des cg oc d'usine... ça sera inutile...)


Message édité par actaruxs le 20-06-2012 à 00:10:00
n°8354030
wnorton
Je suis néerlandophone
Posté le 20-06-2012 à 00:48:24  profilanswer
 

jackie-85 a écrit :

les anciens waterblock EK etaient mieux niveau design parce que la , ca fait trop moche  [:alerte canard:1]  
y a meme un sujet sur face de book où on peut lire les commentaires des gens mécontents de ce design et celui des nouveau EK  supremacy pour CPU  :sarcastic:


Peter95 a écrit :


 
Je suis d'accord, même si on dit les goûts et les couleurs..., là je n'aime pas du tout et je trouve qu'ils ont été très mal inspirés. :pfff:  
 
Je regarderai les autres marques à partir de mainteant avec beaucoup plus d'interêt.
 
D'un autre côté on ne peut pas non plus leur reprocher de chercher à se renouveler, ce qui n'est pas facile non plus. :spamafote:


Yo80 a écrit :


+1, moi j'ai pris le supreme HF ;)
trop moche les nouveaux WB :/


Je suis d'accord avec vous, affreux leur truc à bulle même les réservoirs maintenant  [:littleyahyah]


---------------
Je suis néerlandophone une fois
n°8354031
Mseirco
Posté le 20-06-2012 à 00:49:03  profilanswer
 

Je sais pas vous mais moi j'en peux plus de la chaleure. Surtout quand je commence a jouer que les cartes graphiques chauffent... Un four dans la chambre!! 30C+. Vivement l'hiver.. Pour pas creuver de chaud quand je joue au pc!

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  450  451  452  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)