Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4107 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  418  419  420  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8339824
Fouge
Posté le 06-06-2012 à 20:15:48  profilanswer
 

Reprise du message précédent :

dennis3169 a écrit :

Dans le driver et le jeux pour le MSAA en x4.

Ca va se combiner. Pour le rendu, faudrait que tu essais les 3 (FXAA seul, MSAA seul et les 2) pour voir celui qui te parait le meilleur (tout en gardant un oeil sur le framerate). Si tu connais déjà les inconvénient&avantages de ces AA, tu saurais quoi regarder exactement.

mood
Publicité
Posté le 06-06-2012 à 20:15:48  profilanswer
 

n°8339826
wgromit
Fan d'Elite Dangerous
Posté le 06-06-2012 à 20:18:48  profilanswer
 

joss69 a écrit :

 

20% chez moi visiblement :)
Le bruit doit venir des autres ventilos :o


En fait, j'ai remarqué une chose.
Comme la Gigabyte GTX 670 OC n'expulse pas l'air chaud en dehors du boitier, cela a pour effet de faire monter la température à l'intérieur du boitier ce qui provoque une augmentation de la température des autres éléments comme les VRM et chipset de la carte mère, le CPU, .... Et donc, si vous avez des ventilateurs du boitier et du CPU gérés en fonction de la température, ils risquent de tourner plus vite. Ainsi, ceux de la Gigabyte peuvent continuer à être silencieux mais le bruit de la configuration complète peut être augmenté à cause des autres.

 

Dans mon cas, en idle, ce n'est pas vrai, heureusement.
Mais en jeu, j'ai vu une hausse de 3-5° du CPU/chipset carte mére, et j'ai du changer un peu le profil de la gestion de mes ventilateurs du boitier. Mais heureusement, cela reste acceptable et encore suffisamment silencieux car j'ai la chance d'avoir un très grand boitier, un Corsair Obsidian 800D.

 

Mais ceux qui ont des boitiers plus petits, prévoyez cette problématique ou alors vous acceptez cette hausse de la température (avec un risque d'instabilité si cela monte trop haut tout de même).

 

Je pense que ce raisonnement reste valable pour toutes les cartes vidéos qui ne sont pas équipées d'un ventilateur de type "blower" qui expulse l'air chaud directement dehors. Les cartes avec un ventilateur de type "blower" pourrait être idéales alors, mais, pas de chance, ces ventilateurs sont souvent plus bruyants, notamment au repos, pas qu'en jeu.  :pt1cable:

Message cité 1 fois
Message édité par wgromit le 06-06-2012 à 20:24:15
n°8339830
dennis3169
Posté le 06-06-2012 à 20:22:10  profilanswer
 

Fouge a écrit :

Ca va se combiner. Pour le rendu, faudrait que tu essais les 3 (FXAA seul, MSAA seul et les 2) pour voir celui qui te parait le meilleur (tout en gardant un oeil sur le framerate). Si tu connais déjà les inconvénient&avantages de ces AA, tu saurais quoi regarder exactement.


 
Ouais c'est exactement ce que je pensais faire, parce que je regarde les images de chez Nvidia avec le curseur qui se déplace pour montrer la différence avec le FXAA, mais je vois pas tellement de différence avec le MSAA x4, ça m'a semblé louche  :sweat:

n°8339834
wgromit
Fan d'Elite Dangerous
Posté le 06-06-2012 à 20:25:33  profilanswer
 

dennis3169 a écrit :

 

Ouais c'est exactement ce que je pensais faire, parce que je regarde les images de chez Nvidia avec le curseur qui se déplace pour montrer la différence avec le FXAA, mais je vois pas tellement de différence avec le MSAA x4, ça m'a semblé louche  :sweat:


Il me semble que le FXAA est moins gourmand en GPU. Donc si la qualité est la même, c'est tout benef.

 

Je ne sais pas quelles images tu as choisies, mais tu as celles de Max Payne 3 ( http://international.download.nvid [...] asing.html ), et on peut la voir, même si c'est très léger, il est vrai.

Message cité 1 fois
Message édité par wgromit le 06-06-2012 à 20:30:12
n°8339839
globule
Posté le 06-06-2012 à 20:32:22  profilanswer
 

dennis3169 a écrit :

Punaise, c'est dans les jeux comme Max Payne 3 que t'es content d'avoir une GTX680  :D .
Il passe à fond sans le moindre lag.  
 
Sinon pour le FXAA dans le driver, si je l'active il remplace le MSAA ou c'est un complément ?


bah moi j'ai une gtx 570 et max payne passe en 1920 * 1080 tout a fond de chez a fond sans aucun ralentissement
 
apres j'ai un i7 3930k et 16 go ram , ca doit aider  :D

n°8339844
dennis3169
Posté le 06-06-2012 à 20:36:50  profilanswer
 

wgromit a écrit :


Il me semble que le FXAA est moins gourmand en GPU. Donc si la qualité est la même, c'est tout benef.
 
Je ne sais pas quelles images tu as choisies, mais tu as celles de Max Payne 3 ( http://international.download.nvid [...] asing.html ), et on peut la voir, même si c'est très léger, il est vrai.


 
 
Oui en effet c'est très subtile, après faut voir si le rendu est aussi bon dans tout les jeux.

n°8339849
dennis3169
Posté le 06-06-2012 à 20:39:03  profilanswer
 

globule a écrit :


bah moi j'ai une gtx 570 et max payne passe en 1920 * 1080 tout a fond de chez a fond sans aucun ralentissement
 
apres j'ai un i7 3930k et 16 go ram , ca doit aider  :D


 
Je crois aussi [:justin_bridou]
 
Mais avec la GTX680 et GPU-Z, j'ai une conso de 2005 Mo de VRam, après es-qu'il utilise tout, telle est la question.  
 

n°8339850
wgromit
Fan d'Elite Dangerous
Posté le 06-06-2012 à 20:39:41  profilanswer
 

dennis3169 a écrit :


Oui en effet c'est très subtile, après faut voir si le rendu est aussi bon dans tout les jeux.


En fait, on la voit surtout au niveau de la rambarde bleue au dessus du personnage. Je trouve que l'effet d'escalier est plus élevé en FXAA.
Mais franchement, en étant dans le jeu, je ne pense pas qu'on le distingue  :)


Message édité par wgromit le 06-06-2012 à 20:41:23
n°8339862
spartacus
Talk Shit, Get Shot
Posté le 06-06-2012 à 21:00:35  profilanswer
 

dennis3169 a écrit :


 
Je crois aussi [:justin_bridou]
 
Mais avec la GTX680 et GPU-Z, j'ai une conso de 2005 Mo de VRam, après es-qu'il utilise tout, telle est la question.  
 


 
tu as quelle conso a vide sans rien faire sous win? (avec les 301)


---------------
Lone Wolf Rider
n°8339864
dennis3169
Posté le 06-06-2012 à 21:01:41  profilanswer
 

spartacus a écrit :


 
tu as quelle conso a vide sans rien faire sous win? (avec les 301)


 
En IDLE: 276 Mo.  

mood
Publicité
Posté le 06-06-2012 à 21:01:41  profilanswer
 

n°8339868
DemDal
Posté le 06-06-2012 à 21:05:29  profilanswer
 

GTX 670 TOP de retour du SAV :
9000 points à 3DMark 11 (2700k à environ 4,8 GHz, +200 points en changeant de carte)
Ensuite les valeurs max des paramètres pendant le benchmark :
1280 MHz en fréquence GPU
1502 MHz pour la mémoire
73° C
49% vitesse ventilateur
1740 RPM vitesse ventilateur
109% TDP
1.1750 V pour le VDDC

n°8339896
Mseirco
Posté le 06-06-2012 à 21:39:50  profilanswer
 

wgromit a écrit :

Avis aux experts, j'aimerais avoir une ptite explication à propos du adaptive v-sync de nVidia (eh oui, encore).
 
J'aimerais savoir comment se fait son activation car ce n'est pas super clair pour moi, notamment avec le driver nVidia mais également dans le jeu.
 
Pour activer l'adaptive v-sync, il faut:
- dans le driver nVidia, Paramètres 3D/Gérer les paramètres 3D, choisir dans 'onglet paramètres globaux' (si on le veut pour tous les jeux) ou onglet 'Paramètres de programme' (si on le veut QUE pour tel ou tel jeu), mettre dans l'option 'Synchronisation verticale', le choix 'Automatique'
- ET dans le jeu, activer en plus la synchro verticale (quand l'option existe)
 
Questions:
Ai je bon ?
A quoi correspond le choix 'Automatique (intervalle 2)' dans l'option 'Synchronisation verticale' ?
Doit-on absolument activer la synchro verticale dans le jeu pour avoir le Adaptive V-Sync de nVidia ?
 
Merci.


 
 
Tu as juste sauf pour une chose. Il est mieu desactiver le Vsync dans les options du/des jeux. Pour eviter le conflit entre adaptive vsync de nvidia et celle integrer aux jeux.
 
Sinon, c'est moi ou evga precision pue toujours autant a coter de msi afterburner? J'arrive pas avoir un compte rendu des temperatures/ vitesse core/shaders et utilisation de memoire max et minimum ??

n°8339906
spartacus
Talk Shit, Get Shot
Posté le 06-06-2012 à 21:50:11  profilanswer
 

dennis3169 a écrit :


 
En IDLE: 276 Mo.  


 
ok parce que tt à l'heure j'ai eu un bug justement au niveau de l'utilisation de la vRAM... 800mo sous win sans rien d'ouvert (et activer/désactiver aero ne changeait rien...).


---------------
Lone Wolf Rider
n°8339923
dennis3169
Posté le 06-06-2012 à 22:09:48  profilanswer
 

spartacus a écrit :


 
ok parce que tt à l'heure j'ai eu un bug justement au niveau de l'utilisation de la vRAM... 800mo sous win sans rien d'ouvert (et activer/désactiver aero ne changeait rien...).


 
Maintenant que tu le dis, j'ai eu aussi ce phénomène, mais ça n'a pas duré longtemps.  

n°8339928
spartacus
Talk Shit, Get Shot
Posté le 06-06-2012 à 22:12:39  profilanswer
 

j'essaye de le reproduire mais je n'y arrive pas :/


---------------
Lone Wolf Rider
n°8339944
wgromit
Fan d'Elite Dangerous
Posté le 06-06-2012 à 22:28:26  profilanswer
 

Mseirco a écrit :

Tu as juste sauf pour une chose. Il est mieu desactiver le Vsync dans les options du/des jeux. Pour eviter le conflit entre adaptive vsync de nvidia et celle integrer aux jeux.

 

Sinon, c'est moi ou evga precision pue toujours autant a coter de msi afterburner? J'arrive pas avoir un compte rendu des temperatures/ vitesse core/shaders et utilisation de memoire max et minimum ??


Merci pour ta réponse.

 

J'utilise evga precision (même en ayant une Gigabyte 670 GTX), et je ne rencontre pas de soucis pour avoir la télémétrie. Mais je ne l'utilise pas pour overclocker car l'overclocking usine de Gigabyte me suffit.

 

Et je n'ai pas installé en plus MSI Afterburner.

 

Donc, je ne sais pas si en ayant les 2 en même temps, ça pose problème. Je laisse aux autres pour répondre.


Message édité par wgromit le 06-06-2012 à 22:28:42
n°8339957
Mseirco
Posté le 06-06-2012 à 22:35:56  profilanswer
 

Non tu utilise soi l'un soi l'autre lol. J'ai tout de suite remis MSI afterburner parce que j'aime savoir combien de VRAM a été utiliser pars mes cartes ou encors le pic temperature max atteind.. Impossible de savoir avec evga precimerde!

n°8340018
the oc sci​entist
SEMPER FIDELUS
Posté le 06-06-2012 à 23:27:56  profilanswer
 

Mseirco a écrit :


 
 
Tu as juste sauf pour une chose. Il est mieu desactiver le Vsync dans les options du/des jeux. Pour eviter le conflit entre adaptive vsync de nvidia et celle integrer aux jeux.
 
Sinon, c'est moi ou evga precision pue toujours autant a coter de msi afterburner? J'arrive pas avoir un compte rendu des temperatures/ vitesse core/shaders et utilisation de memoire max et minimum ??


 
alors d'apres NVidia il ya trois possibilité : 1 - Gestion de la Vsync par l 'application.
                                                              2 - Forcé activé
                                                               3 - forcé desactivé
                                            4 - Automatique (celui qui faut prendre tout le temps le fameux Vsyc adaptif...)                 5 - Adaptif  Intervalle 2 (Locké a 30 ips) à proscrire absolument à part en cas de forte limitation CPU.
 
Que le jeu prenne la vsync ou non en charge, qu'elle soit activée ou non en jeu non plus ne fait AUCUNE difference le tout est de choisir la bonne option : AUTOMATIQUE H24 -7/7 - 365/365 ... c'est prouvé c'est la plus belle invention contre le stuttering et les dechirement d'ecran depuis des lustres ( quand les drivers sont pas bugués.... :sol: )

Message cité 1 fois
Message édité par the oc scientist le 06-06-2012 à 23:30:03
n°8340022
Mseirco
Posté le 06-06-2012 à 23:30:39  profilanswer
 

Oui de toute facon c'est le nvidia controle pannel qui commande. Mais bon, moi je desactive celle des jeux et j'active la adaptive du nvidia controle pannel!

n°8340027
wgromit
Fan d'Elite Dangerous
Posté le 06-06-2012 à 23:40:05  profilanswer
 

the oc scientist a écrit :


 
alors d'apres NVidia il ya trois possibilité : 1 - Gestion de la Vsync par l 'application.
                                                              2 - Forcé activé
                                                               3 - forcé desactivé
                                            4 - Automatique (celui qui faut prendre tout le temps le fameux Vsyc adaptif...)                 5 - Adaptif  Intervalle 2 (Locké a 30 ips) à proscrire absolument à part en cas de forte limitation CPU.
 
Que le jeu prenne la vsync ou non en charge, qu'elle soit activée ou non en jeu non plus ne fait AUCUNE difference le tout est de choisir la bonne option : AUTOMATIQUE H24 -7/7 - 365/365 ... c'est prouvé c'est la plus belle invention contre le stuttering et les dechirement d'ecran depuis des lustres ( quand les drivers sont pas bugués.... :sol: )


Merci pour ce complément d'information.
Donc en résumé:
- dans le driver, choisir "automatique' de manière générale et éventuellement le désactiver (via l'autre onglet 'Paramètres de programme') pour certains jeux
- dans le jeu, si l'option "synchro verticale" existe, ben ... on s'en fout de l'activation ou non car celle de nVidia est prioritaire.
 
Merci encore pour vos réponses car ce n'était pas très clair pour moi, et pourtant cet adaptive V-sync est un argument marketing nVidia mais il n'explique pas super bien comment l'activer, je trouve. C'est un peu pareil pour le FXAA (comme dit dans les précédents post). Activer ou non aussi les autres anti-aliasing présents dans le jeu, est-ce nécessaire ? Par ex, d'ailleurs, je ne comprenais pas le cas pour Skyrim où l'option restait grisée dans le driver nVidia mais c'était parce qu'elle était incluse nativement dans la configuration du jeu lui-même (case à cocher, pas très visible au passage). Bref, il faut s'y retrouver parfois. Car on se demande si telle ou telle option est réellement active. Et surtout si on doit activer 2 options qui traitent du même problème (anti-aliasing par ex) mais quid des perfs dans ce cas ? Car on ne sait pas si l'option du driver nVidia est nécessairement prioritaire et supplante celle du jeu, ou si elle est en complément de celle du jeu.
 
Heureusement que vous êtes la pour m'éclairer. :jap:


Message édité par wgromit le 06-06-2012 à 23:53:52
n°8340032
rorogeek
Geek one day, geek everyday !
Posté le 06-06-2012 à 23:53:07  profilanswer
 

wgromit a écrit :


En fait, j'ai remarqué une chose.
Comme la Gigabyte GTX 670 OC n'expulse pas l'air chaud en dehors du boitier, cela a pour effet de faire monter la température à l'intérieur du boitier ce qui provoque une augmentation de la température des autres éléments comme les VRM et chipset de la carte mère, le CPU, .... Et donc, si vous avez des ventilateurs du boitier et du CPU gérés en fonction de la température, ils risquent de tourner plus vite. Ainsi, ceux de la Gigabyte peuvent continuer à être silencieux mais le bruit de la configuration complète peut être augmenté à cause des autres.


 
Si t'as un boîtier bien ventilé, avec un vrai flux d'air, l'air chaud explulsé est négligeable.  
Après je peux te dire que la GTX 670 Gigabyte chauffe bien moins que ma R6970 MSI, mais dans mon boîtier avec un bon flux d'air, j'ai dû gagner 1° sur le reste de la config... Par contre ceux qui ont de l'air qui stagne, la différence sera pas négligeable !


---------------
GLHF !
n°8340036
wgromit
Fan d'Elite Dangerous
Posté le 07-06-2012 à 00:08:19  profilanswer
 

rorogeek a écrit :


 
Si t'as un boîtier bien ventilé, avec un vrai flux d'air, l'air chaud explulsé est négligeable.  
Après je peux te dire que la GTX 670 Gigabyte chauffe bien moins que ma R6970 MSI, mais dans mon boîtier avec un bon flux d'air, j'ai dû gagner 1° sur le reste de la config... Par contre ceux qui ont de l'air qui stagne, la différence sera pas négligeable !


J'ai en effet, un boitier bien ventilé (Corsair Obsidian 800D) mais configuré de telle manière pour optimiser également son silence.
J'ai d'ailleurs acheté un rheobus T-Balancer BigNG ( http://www.maisondunumerique.com/t [...] cubed.html ) pour piloter les ventilateurs aux petits oignons commandés par des sondes thermiques. Certains sont même arrêtés quand le PC est en idle. C'est pourquoi que je dis que la Gigabyte est vraiment silencieuse déjà en idle.
 
Mais suite au changement de la carte graphique par une Gigabyte 670 GTX OC, j'ai du quand même changer un peu les profils de gestion pour ne pas faire monter trop haut la température du CPU/VRM carte mère (je me suis fixé une limite < 60°C pour le CPU par ex) car j'aime prendre soin de mes composants  :love: Mais à une condition de garder l'ensemble encore silencieux tout de même. J'ai donc accepté que certains composants chauffent légèrement plus (3-5°C). Bref, il faut doser et trouver le bon compromis. Surtout que je dois piloter 4 ventilateurs (120/140 mm) hors ceux du CPU et il faut trouver la bonne vitesse pour chaque pour ne pas créer des turbulences à l'intérieur du boitier. Heureusement, le logiciel livré avec le rhéobus, même s'il est un peu archaïque et pas très facile à prendre en main, me permet de faire cela et d'avoir un profil particulier par ventilateur, associé chacun à une sonde, judicieusement placée.


Message édité par wgromit le 07-06-2012 à 00:19:38
n°8340064
rorogeek
Geek one day, geek everyday !
Posté le 07-06-2012 à 00:35:13  profilanswer
 

Pour ma part ce dont je parlais, c'est dans un Fractal Design R3, rempli de 2 ventilo fractal, un XL2, et 4 140mm SilentWings, le tout contrôlé par un Sunbeam Extreme (j'aime séparer les ventilos de tout logiciel). Le tout tourne à 7-9v pour un silence presque parfait, les deux disques durs étant les pièces les plus bruyantes. Par contre niveau chauffe, à 4,6Ghz, je peux pas me permettre de vouloir les 60° et le silence, donc tant pis pour la température, tant que c'est stable.
 
Cela dit, le flux d'air reste très bon, et je n'ai pas constaté de baisse significative de la t° globale, malgré une consommation bien moindre. Par contre mes oreilles ont vu entendu la différence en burn GPU !


Message édité par rorogeek le 07-06-2012 à 00:39:00

---------------
GLHF !
n°8340066
Mseirco
Posté le 07-06-2012 à 00:37:24  profilanswer
 

Wow le bordel! ;) Moi j'ai un HAF-X cooler master et j'entend rien! niveau ventilation c'est le top! ;)

n°8340068
rorogeek
Geek one day, geek everyday !
Posté le 07-06-2012 à 00:39:40  profilanswer
 

Rien entendre dans un Haf-X ? T'es sourd ou t'es en fanless :lol:


---------------
GLHF !
n°8340078
Tomlechti
ID PSN : Tomlechti
Posté le 07-06-2012 à 01:01:19  profilanswer
 

J'avais envoyé un mail au service RMA de Zotac pour savoir quelle était leur politique concernant les produits défectueux (remplacement ? Réparation ? ...) et comment ça se passe si pas de stock sur le même article et voici leur réponse :  
 
 
"We will replace the card, if no stock we will email you before and request if upgrade is ok."
Ce qui signifie pour les anglophobes : "On échange la carte, si pas de stock, nous vous envoyons un mail avant et vous demandons si vous acceptez la montée en gamme".
 
En gros si pas de GTX 680, remplacement par modèle 680 AMP ou 690 (je sais pas si Zotac en a sorti une)  :D (comment ça je rêve ???  :D )

n°8340082
jascooby
Cruncher bio :)
Posté le 07-06-2012 à 01:05:23  profilanswer
 

rorogeek a écrit :


 
Si t'as un boîtier bien ventilé, avec un vrai flux d'air, l'air chaud explulsé est négligeable.  
Après je peux te dire que la GTX 670 Gigabyte chauffe bien moins que ma R6970 MSI, mais dans mon boîtier avec un bon flux d'air, j'ai dû gagner 1° sur le reste de la config... Par contre ceux qui ont de l'air qui stagne, la différence sera pas négligeable !


 
Clair que c'est une des meilleures GTX670 ! :jap:  
 
Sinon il y a la solution du Blowhole avec un 12 ou 14 cm en latéral sous volté ou tout simplement d'ouvrir le boîtier ;)


---------------
http://boinc.roadrunners.fr/signat [...] 323bcb.jpg
n°8340088
Mseirco
Posté le 07-06-2012 à 01:30:52  profilanswer
 

rorogeek a écrit :

Rien entendre dans un Haf-X ? T'es sourd ou t'es en fanless :lol:


 
Et toi tu dois avoir l'ouïe d'un chat

n°8340092
minato78
Posté le 07-06-2012 à 01:59:09  profilanswer
 

http://www.hardware.fr/news/12371/ [...] frozr.html
 
La lightning va sortir dans quelques semaines je voulais me prendre une 680 dcu2 top il vaut mieux attendre ?

n°8340122
rorogeek
Geek one day, geek everyday !
Posté le 07-06-2012 à 07:58:04  profilanswer
 

jascooby a écrit :


 
Clair que c'est une des meilleures GTX670 ! :jap:  
 
Sinon il y a la solution du Blowhole avec un 12 ou 14 cm en latéral sous volté ou tout simplement d'ouvrir le boîtier ;)


Je suis d'accord, c'est pour ca que je l'ai prise, et aussi parce qu'une cg 3 slots ça l'embaalle pas, surtout en vue d'un SLI...
Sinon oui, un des silentwing dont je parlais est sur le coté, un autre en dessous qui amène un peu d'air frais direct a la cg aussi, et puis evidemment la façade....  La cg n'est pas triste, par contre ouvrir le coté et le dessus (retirer les caches anti bruit pour mettre des ventilos), ca retire une bonne partie du confinement et laisse entendre les disques durs.

Mseirco a écrit :


 
Et toi tu dois avoir l'ouïe d'un chat


C'est le cas, je viens de passer un audiogramme, et j'ai une passion pour le son :)
 

minato78 a écrit :

http://www.hardware.fr/news/12371/ [...] frozr.html
 
La lightning va sortir dans quelques semaines je voulais me prendre une 680 dcu2 top il vaut mieux attendre ?


 
Moi j'avais la 6970 lightning, ca vaut pas mieux que la gtx 670 niveau bruit, c'est meme moins bien. Niveau oc, c'est pas enorme, et j'ai un pb sur le rad qui va me valoir un sav : quand j'appuie a l'arrierre je perds instantannément 10° en burn, et ce malgréune pate thermique changée et un reserrage de vis.
 
Ps : galère de répondre a partir du portable, mais avec la sncf on a le temps :D


Message édité par rorogeek le 07-06-2012 à 08:02:22

---------------
GLHF !
n°8340150
wnorton
Je suis néerlandophone
Posté le 07-06-2012 à 09:09:55  profilanswer
 

actaruxs a écrit :

'lut tout l'monde
 
Je suis en train de remettre mon o/c sur l'i7... Tout a refaire cause bios différent :/
 
Ma cg a rejoint l'entrepot de GLS... Bon m'étonnerait bien qu'ça arrive demain.
 
Merci wnorton pour tes recherche


actaruxs a écrit :


 
Donc, il n'y a que le dos du gpu qui serait en contact en vue d'une aide au reffroidissement ?  
 


actaruxs a écrit :


 
ça poutre bien dis moi, 1 i7 3960X + 680 :jap:
 
3.9ghz ? sans compter le turbo je suppose ?
 
Je fait pas le poids rien qu'au niveau cpu  :cry:


Tu as reçu ta carte ?
 
Pour ma par bizarre le Boost de Nvidia c'est du caca en boite, impossible de faire un 3 DMark11 ou Heaven avec le power Boost au dessus de 1202 MHz aucun souci mais à 1215MHz erreur* le pilote ou la carte!  :heink:  
 
* les erreurs sont Nvidia a perdu le pilote il la recupéré, ou ceci (Function: struct ID3D11CommandList *__cdecl eva::d3d11::deferred_device_context::do_finish_command_list) ou encore (have brann spanking new rig here, and when i try to run 3dmark11 1.0.2 i get this ... access to display and/or keyboard, benchmark run has been aborted. This can be caused by third-party applications running in the background. Please close any potentially interfering applications and restart benchmark.) :fou:  je le dis toute suite il a rien qui tourne en fond de tache pour être sur j'ai même formater mon SSD, lui aussi il me casse les bonbons le OCZ  :fou: , j'attends un crucial pour voir [:l'artefact:5] .  
 
sinon la carte en dessous de 1202MHz je tape un 3 DMark11 à P10867 : http://3dmark.com/3dm11/3594347
 
bon j'attends les 3 autres cartes pour voir... :whistle:

Message cité 4 fois
Message édité par wnorton le 07-06-2012 à 09:28:18

---------------
Je suis néerlandophone une fois
n°8340174
kyky
Je suis newbie et alors,
Posté le 07-06-2012 à 09:53:23  profilanswer
 

wnorton a écrit :


Tu as reçu ta carte ?

 

Pour ma par bizarre le Boost de Nvidia c'est du caca en boite, impossible de faire un 3 DMark11 ou Heaven avec le power Boost au dessus de 1202 MHz aucun souci mais à 1215MHz erreur* le pilote ou la carte!  :heink:

 

* les erreurs sont Nvidia a perdu le pilote il la recupéré, ou ceci (Function: struct ID3D11CommandList *__cdecl eva::d3d11::deferred_device_context::do_finish_command_list) ou encore (have brann spanking new rig here, and when i try to run 3dmark11 1.0.2 i get this ... access to display and/or keyboard, benchmark run has been aborted. This can be caused by third-party applications running in the background. Please close any potentially interfering applications and restart benchmark.) :fou:  je le dis toute suite il a rien qui tourne en fond de tache pour être sur j'ai même formater mon SSD, lui aussi il me casse les bonbons le OCZ  :fou: , j'attends un crucial pour voir [:l'artefact:5] .

 

sinon la carte en dessous de 1202MHz je tape un 3 DMark11 à P10867 : http://3dmark.com/3dm11/3594347

 

bon j'attends les 3 autres cartes pour voir... :whistle:

 

tien tien tu as le même problème que moi , impossible de monte au dessus 1215 sans plantage du pilote dans 3dmk11 et heaven et dans certain jeux. C'est pour cela que je t'avais dit que j'etais tombe sur le plus mauvais gpu 680. :D

 

Pour le moment point commun
Carte EVGA (toi Sc moi Sc signature) mais a priori avec bios différent.

 

J'ai un SSD mais pas OCZ==> Samsung 830 (pour sys ex) et M4 pour application.

 

Edit: tu vas faire quoi avec les 3 autres cartes?

 

Message cité 1 fois
Message édité par kyky le 07-06-2012 à 09:54:10

---------------
le progrès ne vaut que s'il est partage par tous.Ce que je vends
n°8340214
Fouge
Posté le 07-06-2012 à 10:43:41  profilanswer
 

wnorton a écrit :

Tu as reçu ta carte ?
 
Pour ma par bizarre le Boost de Nvidia c'est du caca en boite, impossible de faire un 3 DMark11 ou Heaven avec le power Boost au dessus de 1202 MHz aucun souci mais à 1215MHz erreur* le pilote ou la carte!  :heink:

Sans boost, t'arrives à obtenir de meilleurs résultats ?

n°8340225
bab55
I am the Night Rider
Posté le 07-06-2012 à 10:55:23  profilanswer
 

Mseirco a écrit :

 

Et toi tu dois avoir l'ouïe d'un chat


Il est juste plus exigeant que toi :) même si haf-x silencieux je t'avoues que c'est étrange. Remarque qu'il n'a pas une ouïe folle : mardi test d'audition : tout est normal et pourtant une config avec un disque dur (par exemple) ça s'entend.

n°8340235
wnorton
Je suis néerlandophone
Posté le 07-06-2012 à 11:03:39  profilanswer
 

Fouge a écrit :

Sans boost, t'arrives à obtenir de meilleurs résultats ?


 
On peu le retiré le boost ?
 
Si je savais comment bloqué cette saloperie de boost serait bien :fou: , j'ai vue sur la toile un petit jeune de 15 ans la débloqué avec un fer à soudée, mais il a exploser le voltage a 2.0 sur une gigibytes carte burn HS :D
 
garantie foutu aussi vue il a jouer du fer dessus, mais j'avoue que le turbo boost pas une belle invention se truc  :o  


---------------
Je suis néerlandophone une fois
n°8340245
dennis3169
Posté le 07-06-2012 à 11:10:58  profilanswer
 

wnorton a écrit :


 
On peu le retiré le boost ?
 
Si je savais comment bloqué cette saloperie de boost serait bien :fou: , j'ai vue sur la toile un petit jeune de 15 ans la débloqué avec un fer à soudée, mais il a exploser le voltage a 2.0 sur une gigibytes carte burn HS :D
 
garantie foutu aussi vue il a jouer du fer dessus, mais j'avoue que le turbo boost pas une belle invention se truc  :o  


 
Si c'est pas mal, mais mal calibré, peut être que ça sera mieux avec les futurs cartes.  

n°8340246
wnorton
Je suis néerlandophone
Posté le 07-06-2012 à 11:11:32  profilanswer
 

kyky a écrit :


 
tien tien tu as le même problème que moi , impossible de monte au dessus 1215 sans plantage du pilote dans 3dmk11 et heaven et dans certain jeux. C'est pour cela que je t'avais dit que j'etais tombe sur le plus mauvais gpu 680. :D  
 
Pour le moment point commun
Carte EVGA (toi Sc moi Sc signature) mais a priori avec bios différent.
 
J'ai un SSD mais pas OCZ==> Samsung 830 (pour sys ex) et M4 pour application.
 
Edit: tu vas faire quoi avec les 3 autres cartes?
 


Je te rassure tout suite il a pas que les Evga, pas mal d'autre marque qui rencontre le problème ainsi que les HD série 7000 & 6000 avec 3DMark11, mais le palme d'or revient à Asus bizarrement  :??:  
des multitudes de souci ventilo mal fixer, bruit, plantage, boost trop poussé  :o


---------------
Je suis néerlandophone une fois
n°8340254
wnorton
Je suis néerlandophone
Posté le 07-06-2012 à 11:17:29  profilanswer
 

dennis3169 a écrit :


 
Si c'est pas mal, mais mal calibré, peut être que ça sera mieux avec les futurs cartes.  


j’espère, enfin je vais surement me faire les dents sur la Matrix HD7970 si elle ne dépasse pas les 700 800€  :o  
voir si la Evga GTX680 Classified n'a pas de problème avec le turbo boost peut-être en prendre une aussi tien, mais après les tests  [:zurman]


---------------
Je suis néerlandophone une fois
n°8340256
kyky
Je suis newbie et alors,
Posté le 07-06-2012 à 11:17:43  profilanswer
 

dennis3169 a écrit :


 
Si c'est pas mal, mais mal calibré, peut être que ça sera mieux avec les futurs cartes.  


Ca qui es bizarre, si tu change de bios (de  la même marque ou pas) tu peux faire varier le nombre de bins  :ouch:  
Bios EVGA (origine)  6 bins     Bios SC 9 bins a savoir que dans tout les cas le max sera toujours le même  :D .Donc on doit pouvoir bloque le gb via le bios (ou firmware).


---------------
le progrès ne vaut que s'il est partage par tous.Ce que je vends
n°8340258
wgromit
Fan d'Elite Dangerous
Posté le 07-06-2012 à 11:19:32  profilanswer
 

wnorton a écrit :


[...] mais j'avoue que le turbo boost pas une belle invention se truc  :o  


Le soucis, c'est que le GPU Boost n'est pas du tout déterministe.

n°8340267
Fouge
Posté le 07-06-2012 à 11:25:27  profilanswer
 

wnorton a écrit :

On peu le retiré le boost ?
 
Si je savais comment bloqué cette saloperie de boost serait bien :fou: , j'ai vue sur la toile un petit jeune de 15 ans la débloqué avec un fer à soudée, mais il a exploser le voltage a 2.0 sur une gigibytes carte burn HS :D
 
garantie foutu aussi vue il a jouer du fer dessus, mais j'avoue que le turbo boost pas une belle invention se truc  :o  

J'ai vu ça ici : http://www.obr-hardware.com/2012/0 [...] e-gpu.html
Un autre ici (en Allemand ?) : http://ht4u.net/reviews/2012/nvidi [...] ndex15.php
Je n'ai pas testé par moi-même, mais ça vaut le coup d'essayer je pense.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  418  419  420  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)