Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3813 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  68  69  70  71  72  73  74  75  76
Auteur Sujet :

[Topic Unique] Overclocking 8800GT

n°1764382
martial33
http://www.fzm.fr/
Posté le 27-06-2008 à 22:59:12  profilanswer
 

Reprise du message précédent :

Flo7516 a écrit :

:hello:
Tu lance une partie de Crysis, et tu fais attendre ton personnage pendant 1h :jap:


 
ok !!  :jap:


---------------
achat   : http://forum.hardware.fr/forum2.ph [...] t=0&print=  vente : http://forum.hardware.fr/forum2.ph [...] &page=1&p=
mood
Publicité
Posté le 27-06-2008 à 22:59:12  profilanswer
 

n°1764457
Dark Merce​nary
Posté le 28-06-2008 à 10:57:13  profilanswer
 

Arfff! Si tu ne bouges pas ta carte va calculer toujours la même chose; je me demande donc si c'est vraiment efficace :-O


---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1764549
Flo7516
Posté le 28-06-2008 à 15:22:31  profilanswer
 

Si, si, ça l'est ;)
Tout bouge, il y a les oiseaux, la mer, les crabes, le soleil, les nuages, etc, etc ...
La carte ne calcule pas toujours la même chose, et quand un 3DMark passait sans problème avec mon o/c, le jeu a planté en moins de 5 minutes en restant immobile :p


---------------
| {Mes ventes} | Hébergement images rémunéré | E-mails & Sondages rémunérés |
n°1764570
Dark Merce​nary
Posté le 28-06-2008 à 16:33:05  profilanswer
 

Dans ce cas... Merci de l'info;)


---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1766260
Ableur
Posté le 02-07-2008 à 12:39:38  profilanswer
 

Question de noob, vous utilisez quel soft pour o/c vos 8800gt ?
Y'a t'il un pilote préférentiel ou pas ?
 
Donc, je monte le gpu mem et sahder, ensuite je fais un test de stabilité sur 3d mark.
Ensuite en jeux quoi ... ?

n°1766262
orionx31
Posté le 02-07-2008 à 12:44:02  profilanswer
 

utilises rivatuner, tu montes, tu testes en jeu, si ca passe tu montes un peu plus...

n°1766382
Dark Merce​nary
Posté le 02-07-2008 à 15:57:31  profilanswer
 

Quand tu as trouver la limite GPU/shaders tu peut les désynchronisés avec Riva-tuner(décoches "Links Clocks" dans le panneau d'Overclocking) pour trouver la limite de chacun; ensuite, tu rabaisses de 10Mhz le GPU: c'est une "sécurité", pour limiter les risques de plantages dus à une fréquence trop haute, et c'est valable pour chaque composant(RAM,VRAM,CPU,FSB...) et quand je dit 10Mhz, c'est parce que c'est mes paliers de fréquences; je monte à chaque fois de 10Mhz, et dés que ça plante, je redescends au palier précédent, puis encore d'un pallier pour la sécurité. Pour les jeux, tu peut faire comme dit plus haut.
 
Fais fumer le G92, il ne demande que ça ;)


---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1766900
Funky Max
And then, I woke up.
Posté le 03-07-2008 à 17:40:25  profilanswer
 

Et z'avez pas un soft un peu plus léger qui Riva Turner simplement pour voir la température de sa carte ? :o
 
Merci :jap:

n°1766907
Le Profana​teur
Passéiste désincarné
Posté le 03-07-2008 à 18:06:24  profilanswer
 

GPU z.


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°1766946
Funky Max
And then, I woke up.
Posté le 03-07-2008 à 19:30:07  profilanswer
 


 
Ouais, mais en fait je demandais ça car je ne trouvais pas. J'risquais pas étant donné que mon Asus n'a rien de prévu pour mesurer la température :D

mood
Publicité
Posté le 03-07-2008 à 19:30:07  profilanswer
 

n°1767212
Dark Merce​nary
Posté le 04-07-2008 à 00:42:33  profilanswer
 

Quoi?! Le G92 il ne date pas de Mathusalem non plus! T'as une sonde intégrée; aprés, faut juste prendre la température correct(celle a 50°C par exemple et non celle à 190°C ^^). Sinon, il y a ATITool. Pour en revenir à RivaTuner, tu cliques sur le bouton à droite de "Customize..." en dessous de "NVIDIA Geforce 8800 GT / Ecran Plug & Play" et ensuite sur la puce avec la loupe au dessus ("Hardware Monitoring" ) et la c'est le graphique tout en bas, "Core Temperature" ;)


---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767267
Funky Max
And then, I woke up.
Posté le 04-07-2008 à 09:48:25  profilanswer
 

Dark Mercenary a écrit :

Quoi?! Le G92 il ne date pas de Mathusalem non plus! T'as une sonde intégrée; aprés, faut juste prendre la température correct(celle a 50°C par exemple et non celle à 190°C ^^). Sinon, il y a ATITool. Pour en revenir à RivaTuner, tu cliques sur le bouton à droite de "Customize..." en dessous de "NVIDIA Geforce 8800 GT / Ecran Plug & Play" et ensuite sur la puce avec la loupe au dessus ("Hardware Monitoring" ) et la c'est le graphique tout en bas, "Core Temperature" ;)


 
Justement, ici ça reste à 0° :D Et dans GPU Z il ne détecte pas de sonde. C'est sur le topic des 8800GT que j'ai appris que cette Asus n'avait pas de sonde :/ Complètement con.

n°1767275
Profil sup​primé
Posté le 04-07-2008 à 10:16:56  answer
 

Avant on pouvait pas voir la température dans l'interface des pilotes ?
Ou c'est chez ATI ?

n°1767291
Funky Max
And then, I woke up.
Posté le 04-07-2008 à 11:07:10  profilanswer
 


 
C'était faisable il y a un bout de temps il me semble, puis avec nTune mais qui n'est pas très bon. Mais bon là ça ne vient pas de mes softs, c'est tout simplement la carte qui n'a pas de sonde :/

n°1767312
Dark Merce​nary
Posté le 04-07-2008 à 12:00:55  profilanswer
 

Sans vouloir t'enfoncer, c'est la seule que je vois sans sonde!! (Je croyais d'ailleurs que c'était intégré à la puce, alors faudrait être un intégrateur fénéant pour ne pas la raccordée comme Nvidia le fait avec son "design de référence"... enfin j'éspére me tromper mais... bizarre quand même)=> sinon je me demandait si cette option pouvait être utile dans ATITool:
Dans settings->Temperature Monitoring->(cocher Mesure card Temperature + Swap GPU and env. temp. (some ASUS cards))
C'est (peut-être) la solution si tu à une température PCB/environnement mais si effectivement la sonde n'est pas active c'est... plus que complétement con...
Enfin je continurais donc à acheter BFG et pas ASUS :D


---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767448
Funky Max
And then, I woke up.
Posté le 04-07-2008 à 15:39:34  profilanswer
 

Dark Mercenary a écrit :

Sans vouloir t'enfoncer, c'est la seule que je vois sans sonde!! (Je croyais d'ailleurs que c'était intégré à la puce, alors faudrait être un intégrateur fénéant pour ne pas la raccordée comme Nvidia le fait avec son "design de référence"... enfin j'éspére me tromper mais... bizarre quand même)=> sinon je me demandait si cette option pouvait être utile dans ATITool:
Dans settings->Temperature Monitoring->(cocher Mesure card Temperature + Swap GPU and env. temp. (some ASUS cards))
C'est (peut-être) la solution si tu à une température PCB/environnement mais si effectivement la sonde n'est pas active c'est... plus que complétement con...
Enfin je continurais donc à acheter BFG et pas ASUS :D


 
Bah on m'a donné la carte donc j'vais pas trop m'en plaindre :D
 
C'est ce qu'on m'a dit en tout cas et ça me paraît plausible étant donné qu'aucun soft n'est foutu de trouver une température. Je testerais ATI Tools et nous verrons bien mais j'y crois pas trop. Bon bah tant que ça sent pas l'brûlé c'est bon t'façon :D

n°1767479
jugurtha94
PSN:hfrien
Posté le 04-07-2008 à 16:43:10  profilanswer
 

qqun ici pourait m'expliquer comment faire pour flasher le bios de le 8800 gt ??


---------------
Le sexe c'est bon seulement quand c'est dur
n°1767505
Dark Merce​nary
Posté le 04-07-2008 à 17:33:18  profilanswer
 

Avec nibitor:
http://www.mvktech.net/component/o [...] 92/page,5/
 
Et voila l'aide:
http://www.mvktech.net/content/view/2069/37/
 
Pour flasher tu prends nvflash:
http://www.mvktech.net/component/o [...] 42/page,3/
 
Si tu éspére (on ne sait jamais) modifié le vCore tu ne pourras gagner que +0.05V(même en méttant plus, ça ne marchera pas); s'il ne s'agit pas du design de référence d'nVidia(comme la heatpipe edition que j'avais acheté avant) c'est possible que ça ne fontionne pas; maintenant si ça n'est pas ça...


Message édité par Dark Mercenary le 04-07-2008 à 17:34:39

---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767510
jugurtha94
PSN:hfrien
Posté le 04-07-2008 à 17:42:43  profilanswer
 

merci heu c'es une twintech ;) pas le model heatpipe


---------------
Le sexe c'est bon seulement quand c'est dur
n°1767517
Dark Merce​nary
Posté le 04-07-2008 à 18:02:54  profilanswer
 

En fait(autant que je sache) c'est un design de référence si tu as le controleur "Primarion qsdqsddgkekchose" sur le dessus de ta carte(de l'autre côté du dissipateur... Enfin c'est surtout "vitale" si tu fait le vMod GPU et les mods OCP et OVP comme moi... Content d'avoir pus t'aider,même si j'ai dérivé sur les hard-mods ;)


---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767530
jugurtha94
PSN:hfrien
Posté le 04-07-2008 à 18:59:13  profilanswer
 

moi aussi je vais passer au sli et encre même question :)


---------------
Le sexe c'est bon seulement quand c'est dur
n°1767543
Asian Oni
Posté le 04-07-2008 à 19:57:37  profilanswer
 

A partir de RT 6.12 ( pas sûr DU TOUT ) il me semble que les fréquences entre les 2 CG sont synchro, mais j'ai laissé tomber pour eVga Précision, beaucoup plus simple.

n°1767546
Kirk_hamme​tt
Profile : g33K :D
Posté le 04-07-2008 à 20:05:23  profilanswer
 

quelqu'un a deja essayé d'installer le pilote phys-x sur sa gt  :heink:  ???


Message édité par Kirk_hammett le 04-07-2008 à 20:05:33

---------------
http://geek-section.over-blog.com/ ---->  info/science/techno/physique et autres trucs de geek !   :----: Feed : http://forum.hardware.fr/forum2.ph [...] p=1&sondag
n°1767547
titikab
So say we all!
Posté le 04-07-2008 à 20:07:07  profilanswer
 

Pour quoi faire?

n°1767550
Kirk_hamme​tt
Profile : g33K :D
Posté le 04-07-2008 à 20:15:18  profilanswer
 

c'est sensé augmenter les perf non ?


---------------
http://geek-section.over-blog.com/ ---->  info/science/techno/physique et autres trucs de geek !   :----: Feed : http://forum.hardware.fr/forum2.ph [...] p=1&sondag
n°1767553
titikab
So say we all!
Posté le 04-07-2008 à 20:23:10  profilanswer
 

Bin ça fonctionne à partir des 9800GTX donc ça augmentera rien du tout pour une 8800GT.

n°1767556
Kirk_hamme​tt
Profile : g33K :D
Posté le 04-07-2008 à 20:25:41  profilanswer
 

hum domage ... :/


---------------
http://geek-section.over-blog.com/ ---->  info/science/techno/physique et autres trucs de geek !   :----: Feed : http://forum.hardware.fr/forum2.ph [...] p=1&sondag
n°1767561
Dark Merce​nary
Posté le 04-07-2008 à 20:44:35  profilanswer
 

C'est le G92 sur les deux(ca fonctionne aussi sur les G80 d'ailleurs); j'ai éssayé, mais ca ne permet d'exploser les scores qu'avec 3DMarkVantage(32000pts pr le CPU :D) Mais pour le 06 ca gagne rien :/ Dommage, j'aurais bien voulus poutrer une 3870 X2...
Enfin sinon pour UT 2007 le gain est substanciel (J'ai un Q6600@3.52 donc ca ne le soulage pas trop mais le framerate augmente TRES légérement). Ca ne coute rien de faire la modification du "nv4_disp.inf" pour y ajouter la GT de toutes façons, même s'il est vrais qu'il n'y a pas beaucoup de jeux qui utilisent le SDK PhysX ;)


Message édité par Dark Mercenary le 04-07-2008 à 20:46:56

---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767567
Fouge
Posté le 04-07-2008 à 21:29:04  profilanswer
 

Kirk_hammett a écrit :

c'est sensé augmenter les perf non ?

Uniquement avec les logiciels qui gèrent la PhysX accélérée, bref 3DMark Vantage et quelques map d'UT3 :D

titikab a écrit :

Bin ça fonctionne à partir des 9800GTX donc ça augmentera rien du tout pour une 8800GT.

Compatible avec toutes les CG basées sur du G92 (moyennant modif du INI), mais pas G80 d'après ce que j'ai pu comprendre, enfin pas avec la version beta actuelle.

n°1767571
Dark Merce​nary
Posté le 04-07-2008 à 21:45:13  profilanswer
 

Les requêtes d'accélération logicielle sont redirigées vers le GPU (plus précisément les shaders, car en fait ca n'est ni plus ni moins qu'une adaptation de la technologie CUDA) pour éxécuter de maniére matérielle les calculs physiques; c'est d'ailleurs ce qui fait enrager les pocesseurs de Radeon, car ca explose littéralement le score CPU à 3DMarkVintage(qui, d'ailleurs, est en sois n'importe quoi comme bench, j'ai fait des tests dessus...). Reste donc à savoir si les G80 sont "compatibles" CUDA... je ne vois pas pourquoi ce serait non, ca ne dépends (pour moi) que des pilotes, qui eux ont un contrôle matériel sur la puce, puisque c'est le principe du Kernel :pt1cable:  
 
La source du débat:
http://www.matbe.com/actualites/40 [...] imisation/
 
Mais de toutes facons ATI à encore copier en projetant l'intégration d'Havok... pas suffit le coup de la CG bi-gpu(cf 7950X2), du crossfire... Ils font comme 3Dfx à leur mort, mais 3Dfx à vraiment tout inventer, du SLI à la carte quadri-gpu :D


Message édité par Dark Mercenary le 04-07-2008 à 21:48:44

---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767579
Fouge
Posté le 04-07-2008 à 22:04:17  profilanswer
 

Les G80 sont compatibles CUDA, ce n'est pas le pb. C'est juste qu'à priori, la déblocage du driver pour gérer le G80 ne fonctionne pas.
Mais à terme, la version finale du driver PhysX gèrera toutes les GF8&9 et GTX260/280.
Quant au débat du score CPU grâce à la PhysX accélérée, c'est pas pire que ceux qui ont un PPU. Pourtant ça n'avait pas fait de bruit à la sortie de Vantage. A croire que c'était "normal"... mais plus maintenant.

n°1767587
Dark Merce​nary
Posté le 04-07-2008 à 22:23:22  profilanswer
 

Oui oui, mais la si on a pas une Radeon on a un Geforce... Alors qu'une PhysX, c'est pas trés courant! Sinon pour 3DMark06, chacun peut refaire le test que j'ai fait avec un copain; ma 8800 GT à pulvérisée une 3870 X2 aux tests graphiques: pourquoi? Tout simplement parce que pour le logiciel il est normal qu'un test graphique UNIQUEMENT(en théorie) voie la différence entre un Pentium D935 et un Q6600 OC...


---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767588
Dark Merce​nary
Posté le 04-07-2008 à 22:25:32  profilanswer
 

Je ne vois pas l'intêret réel de ce bench pour une CG, mais bon... (presque) tout le monde le prends comme référence, alors je me permet de "tricher" un peu :)


---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767593
Fouge
Posté le 04-07-2008 à 22:35:13  profilanswer
 

Ceci dit, PhysX ou non, le score GPU ne change pas d'un poil.

n°1767599
jugurtha94
PSN:hfrien
Posté le 04-07-2008 à 23:06:37  profilanswer
 

une petite question un peu hs pour un sli de 8800 gt sachant que je vais o/c un peu il me faudrait quoi comme alim?


---------------
Le sexe c'est bon seulement quand c'est dur
n°1767603
Dark Merce​nary
Posté le 04-07-2008 à 23:49:38  profilanswer
 

jugurtha94 a écrit :

une petite question un peu hs pour un sli de 8800 gt sachant que je vais o/c un peu il me faudrait quoi comme alim?


 
Ca dépends déja de ce que tu as autour (CPU surtout et OC ou on), mais aussi de ce que tu as comme puissance disponible. En fait, je te dirais une bonne, quoi que tu lui fasse alimenter; aprés, 150€ au lieux de 40, c'est sur que ca fait réfléchir; moi c'est vrais que je n'ai pas eu beaucoup le choix, en contre-partis d'un OC hardcore d'un VPU toi tu en auras 2 avec un petit OC(si j'ai bien compris :D) alors... Equivalent? Je me suis dit qu'il valait mieux, de toutes façons, avoir une bonne alim qui tiendras par la suite une GTX 280 avec vMod... A toi de voir, regardes déja combien de Watts peut fournir ton alimentation, sa marque, son modéle, et renseignes-toi si tu peut pour avoir des infos sur l'ampérage disponible sur le rail 12V qui allimente les PCI-Ex: j'avais 20A sur l'ancienne.


---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767604
Dark Merce​nary
Posté le 04-07-2008 à 23:53:45  profilanswer
 

Je voudrais aussi te donner un "conseil"; j'ai lus qu'à partir de 1Ghz pour la VRAM Quimonda, elle vieillissait TRES TRES vite! Donc dans le doute, vrais/partiellement ou complétement faux, je préfére rester à 990, si ca suffit car les shaders donnent beaucoup de puissance au G92... Maintenant, si tu as de la Samsung, ca change tout!!


Message édité par Dark Mercenary le 04-07-2008 à 23:54:41

---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767617
Dark Merce​nary
Posté le 05-07-2008 à 01:01:13  profilanswer
 

Fouge a écrit :

Ceci dit, PhysX ou non, le score GPU ne change pas d'un poil.


C'est vrais, le score ne change pas, car à prioris pas de physique dans ces tests... Et en théorie, 3DMark s'attends à ce que ce soit le CPU qui éxécute, mais le pilote nVidia intercepte la requête et la redirige... Vicieux mais efficace :D


Message édité par Dark Mercenary le 05-07-2008 à 01:01:41

---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767657
Fouge
Posté le 05-07-2008 à 10:06:34  profilanswer
 

Non non, Vantage s'attend à que ce soit exécuté par le CPU ou accéléré par une carte accélératrice (PPU à l'époque de la sortie de Vantage, mais aussi GPU G92 aujourd'hui).
Donc Vantage a volontairement décidé de favoriser ceux qui ont du matériel qui accélère la PhysX. On aurait dû se poser la question dès le début ! Est-ce normal de comparer des choses pas très comparable : cad CPU uniquement VS CPU+PPU ou CPU+GPU_G92 ?
A mon avis, Futuremark a fait l'erreur d'inclure l'accélération PhysX dans le test CPU, au lieu de faire un test à part. [:razorbak83]


Message édité par Fouge le 05-07-2008 à 10:08:20
n°1767666
Dark Merce​nary
Posté le 05-07-2008 à 10:36:31  profilanswer
 

C'est vrais... Je me demande aussi pourquoi le test VPU est favorisé par un bon CPU OC mdr. Enfin oui, je suis d'accords avec toi, personnelement je ne m'en plaint pas :D Mais il est vrais que ce bench est... douteux je dirais :/ Du moins c'est mon avis...

Message cité 1 fois
Message édité par Dark Mercenary le 05-07-2008 à 10:38:24

---------------
La station de métro, c'est la que le métro s'arrête;La station du bus, c'est la que le bus s'arrête;Moi, j'ai une station de travail.
n°1767667
Fouge
Posté le 05-07-2008 à 10:41:06  profilanswer
 

Dark Mercenary a écrit :

C'est vrais... Je me demande aussi pourquoi le test VPU est favorisé par un bon CPU OC mdr. Enfin oui, je suis d'accords avec toi, personnelement je ne m'en plaint pas :D Mais il est vrais que ce bench est... douteux je dirais :/ Du moins c'est mon avis...

Sur le topic de Vantage, il y a un sondage pour savoir si le classement doit se faire uniquement sur le score GPU, ou le score global (qui inclut donc CPU, GPU et un éventuel accélérateur PhysX).


Message édité par Fouge le 05-07-2008 à 10:41:21
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  68  69  70  71  72  73  74  75  76

Aller à :
Ajouter une réponse
 

Sujets relatifs
[need help] Mon premier overclockingTests standards pour valider un overclocking?
Overclocking P5N-E SLI avec un Intel Core 2 duo E4400La configuration de l'Overclocking extrême en aircooling
Overclocking bloqué. Retour systématique aux fréquences d'origineProblème d'overclocking
Question overclocking 8800gtxQ6600 B3 - P5N--E SLI || overclocking difficile (3.15Ghz)
Overclocking q6600[Overclocking E6600]
Plus de sujets relatifs à : [Topic Unique] Overclocking 8800GT


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)