Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3888 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  477  478  479  ..  985  986  987  988  989  990
Auteur Sujet :

OCCT - v16 stable, collab avec INTEL, OC GNR depuis l'appli !

n°1760622
Fab76
Après la pluie...
Posté le 17-06-2008 à 22:09:46  profilanswer
 

Reprise du message précédent :

Tetedeiench a écrit :


 
J'explique comment forcer OCCT à n'utiliser que 3 cores sur les 4 dans mon post :D Et quand t'en mets 3, les 3 premiers seront pour OCCT, le 4ème pour Furmark, en solo.


Oui oui t'inquiète, j'avais bien compris, mais je voulais faire un max de test :p


---------------
---> Feedback
mood
Publicité
Posté le 17-06-2008 à 22:09:46  profilanswer
 

n°1760625
Tetedeienc​h
Head Of God
Posté le 17-06-2008 à 22:16:00  profilanswer
 

Fab76 a écrit :


C'est ce j'ai vu :) mais comme tu m'en avais parlé hier je tenais à essayer :jap:

 

Effectivement j'ai fait la manip demandée par le iench avec la version béta 01a qui permet de modifier le nombre de core dédié dans le fichier .ini

 

Béta 01                     Béta 01a (avec "activation" de 3 cores dans le fichier ini)
OCCT 100%               OCCT 75%
FurMark quasi 0%        FurMark 13% (bizarre, la v1.3.0 seul consomme un core tout entier :heink: ça sent la version spéciale le iench)

 

http://img165.imageshack.us/img165 [...] bo1.th.jpg http://img119.imageshack.us/img119/7532/occtqt6.th.jpg
http://img170.imageshack.us/img170 [...] ol4.th.jpg http://img88.imageshack.us/img88/3129/occt2ax2.th.jpg

 

Bizarrement, dans la version 01, FurMark tient bien chaud à la carte graphique malgré qu'il ne consomme quasiment pas de ressources CPU :??:

 

Pour les consos :

 

Version béta 01 (les résultats d'hier)
Mode CPU+3D :  mini 409w, maxi 482w, moyenne 465.1w
Mode RAM+3D :  mini 399w, maxi 485w, moyenne 453.6w
Mode mixte+3D : mini 401w, maxi 485w, moyenne 462.1w

 

Version béta 01a sans faire de modif dans le fichier ini (bah vi, je voulais voir ce qu'il y avait de différent :p )
Mode CPU+3D :  mini 389w, maxi 442w, moyenne 414.8w
Mode RAM+3D :  mini 388w, maxi 448w, moyenne 419.8w
Mode mixte+3D : mini 388w, maxi 441w, moyenne 416.0w

 

Visiblement FurMark a une priorité basse au sein du thread OCCT, du coup la carte graphique chauffe et consomme peu.

 


Version béta 01a avec modification du fichier ini "CPUNumber=3"
Mode CPU+3D :  mini 399w, maxi 454w, moyenne 430.8w
Mode RAM+3D :  mini 403w, maxi 465w, moyenne 436.6w
Mode mixte+3D : mini 408w, maxi 457w, moyenne 434.3w

 

FurMark se retrouve avec autant de puissance CPU qu'il le souhaite mais il ne monte pas au-dessus de 15-16 % de ressources en pic, ce qui fait qu'une partie d'entre elles sont inutilisés vu qu'OCCT n'en consomme que 75%.

 

Dans mon cas c'est clairement la première béta qui est la plus consommatrice, et la chauffe des composants est plus soutenue.
Bizarrement FurMark ne dépasse guère une consommation de 1 ou 2% des ressources dans la béta 01 et pourtant il chauffe vachement :ouch:

 

Tout ces résultats sont à moduler à mon avis, car suivant les éléments de la config, dual ou quad-core, la puissance de la carte graphique, l'overclocking etc... il peut y avoir des différences de comportement notable.

 

Ca veut donc dire que furmark déconne en termes d'alloc CPU :/

 

Bon spa grave.

 

Y a une version boostée qui devrait sortir demain :)

 

Merci énormément pour tes tests, il devrait y en avoir encore :) Courage !

Message cité 1 fois
Message édité par Tetedeiench le 17-06-2008 à 22:16:26

---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1760627
Fab76
Après la pluie...
Posté le 17-06-2008 à 22:20:24  profilanswer
 

Tetedeiench a écrit :

Ca veut donc dire que furmark déconne en termes d'alloc CPU :/


Sur quelle version ?
 

Tetedeiench a écrit :

Y a une version boostée qui devrait sortir demain :)


Tu veux vraiment la mort de mon alim :cry:  
 
 

Tetedeiench a écrit :

Merci énormément pour tes tests, il devrait y en avoir encore :) Courage !


Pas de quoi, c'est intéressant et pour une fois que je peux t'être utile :whistle:  
 
Je me tiens près pour d'autres essais quand tu as besoin ;)


---------------
---> Feedback
n°1760640
Fouge
Posté le 17-06-2008 à 22:45:43  profilanswer
 

Tu parles de Furemark 1.3.0, mais celle fournie par OCCT est la 1.3.2 beta.
C'est bien celle-là que t'as utilisé seul, ou c'est bien la version 1.3.0 que t'as installé séparément ?

n°1760648
Fab76
Après la pluie...
Posté le 17-06-2008 à 23:14:31  profilanswer
 

J'ai utilisé la version 1.3.0, la plus récente disponible en téléchargement.
J'ai pas trouvé de version plus récente :sweat:

 

Sinon hier je parlais de la conso additionnée d'OCCT et de FurMark.

 

Je me cite :D

 
Fab76 a écrit :


Mode infini CPU+3D :  mini 409w (345.2w), maxi 482w (404.4w), moyenne 465.1w (390.7w)
Mode infini RAM+3D :  mini 399w (336.8w), maxi 485w (406.9w), moyenne 453.6w (381.0w)
Mode infini mixte+3D : mini 401w (338.4w), maxi 485w (406.9w), moyenne 462.1w (388.2w)

 

....

 

Donc, si dans mon cas on additionne la consommation supplémentaire générée par OCCT en mode CPU par exemple, il y a une différence de 103 watts en full sur les rails d'alimentations (par rapport au repos)
De même pour FurMark seul, la différence est de 143 watts par rapport à la conso idle (toujours sur les rails d'alims).

 

Mis bout à bout, conso idle (173w) + occt seul (103w) + FurMark seul (143w) le total devrait être de l'ordre de 419 watts sur les rails soit à peu près 500 watts sur la prise secteur.
OCCT v2.1.0.b01 en mode infini CPU + 3D n'atteint "que" 465 watts au secteur pour 391 watts au niveau de l'alimentation en moyenne, soit un delta de ~28 watts.


Ce que j'ai omis de dire, c'est que la conso max en pic est de 485 watts soit très proche de l'idle + OCCT + FurMak = 500 watts :whistle: donc franchement pas mal optimisé à mon avis.

Message cité 1 fois
Message édité par Fab76 le 18-06-2008 à 01:54:40

---------------
---> Feedback
n°1760653
Fouge
Posté le 17-06-2008 à 23:22:33  profilanswer
 

Fab76 a écrit :

J'ai utilisé la version 1.3.0, la plus récente disponible en téléchargement.
J'ai pas trouvé de version plus récente :sweat:

C'est facile, c'est dans le répertoire furemark d'OCCT :whistle:  
Vaut mieux comparer en utilisant les même versions.

n°1760657
Fab76
Après la pluie...
Posté le 17-06-2008 à 23:28:13  profilanswer
 

:cry: comment j'suis ridicule [:arn0]

 

Edit : bon, ça va le comportement est exactement le même entre v1.3.0 et v1.3.2b, c.a.d un core entièrement utilisé en 640x480 MSAA 4x avec FurMark seul.
Ouf, je me rattrape aux branches :whistle:


Message édité par Fab76 le 18-06-2008 à 20:15:47

---------------
---> Feedback
n°1760831
Tetedeienc​h
Head Of God
Posté le 18-06-2008 à 18:12:25  profilanswer
 

Délai probable pour la nouvelle béta, elle sera là demain :)
 
Courage ! Et patience :)


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1760836
tistou77
Geek Inside!!
Posté le 18-06-2008 à 18:26:59  profilanswer
 

avec un test d 1h30, mode mixte, cpu+3D en priorité normale si ca passe c est que la config est "stable"?
 
merci ;)

n°1760840
Tetedeienc​h
Head Of God
Posté le 18-06-2008 à 18:36:44  profilanswer
 

tistou77 a écrit :

avec un test d 1h30, mode mixte, cpu+3D en priorité normale si ca passe c est que la config est "stable"?
 
merci ;)


 
Je déconseille le mode CPU+3D pour la détection de stabilité à l'heure actuelle. Tout simplement parce qu'une partie des ressources est prise par le test 3d, qui n'a pas de détection d'erreurs.
 
Moi, à ta place, je referai le même test en mode Infini ou perso.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
mood
Publicité
Posté le 18-06-2008 à 18:36:44  profilanswer
 

n°1760851
tistou77
Geek Inside!!
Posté le 18-06-2008 à 19:25:08  profilanswer
 

ok ^^
 
avec l acienne version d OCCT je suis stable, je voulais juste tester le 3D en plus :)
 
faut mettre qu elle "options" pour faire le test alors?
 
merci ;)

n°1760878
Fab76
Après la pluie...
Posté le 18-06-2008 à 20:36:52  profilanswer
 

tistou77 a écrit :

faut mettre qu elle "options" pour faire le test alors?


pour faire quel test ?
 
test infini ou perso (CPU, mixte ou RAM) pour tester la stabilité de ton système, comme d'habitude.
test CPU + 3d (CPU, mixte ou RAM) pour tester principalement la capacité de ton alimentation à maintenir des tensions correctes.
Comme te l'as dit le iench, pour l'instant, la première béta n'est que provisoire et elle stresse moins le système testé (CPU, mixte ou RAM), la détection d'erreur est donc moins poussée en mode 3D.
 
A ce propos, pour éviter des incompréhensions, peut être serait-il plus clair de ne pas appeler le nouveau mode "CPU +3d" mais par exemple "3D" ou encore "charge maximale".


---------------
---> Feedback
n°1760975
tistou77
Geek Inside!!
Posté le 19-06-2008 à 02:22:36  profilanswer
 

c est plus pour tester l alim en faite, comme dis plus haut avec la beta d avant mon PC est stable
 
donc plus test 3D, vaut mieux attendre la prochaine beta alors
 
merci ;)

n°1761058
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 13:46:33  profilanswer
 

Bon, je vais sortir la nouvelle version dans le courant de cet aprem, et je vais me pencher sur le coté API de prog 3d dédiée.

 

A voir ce que ca donne.

 

J'ai une question quand même : vous pensez que si je lance une opération "don pour OCCT pour avoir une carte compatible CUDA" :

  • Ca va marcher et tout ira bien quoi que t'arrives à faire avec le bouzin
  • Ca va marcher mais si tu sors rien avec le cuda, vla la mauvaise pub
  • Ca va faire fuir les gens et filer une mauvaise réput' à OCCT


J'avoue, j'hésite.

 

Les boutiques, les fabricants, j'ai déjà essayé, j'ai jamais réussi à avoir de l'aide. Et si j'écris à Nvidia ou autre, ils vont m'envoyer paître, peu importe le succès d'OCCT je pense :o


Message édité par Tetedeiench le 19-06-2008 à 13:47:43

---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761059
Profil sup​primé
Posté le 19-06-2008 à 13:49:30  answer
 

Fais-toi embaucher par eux

n°1761062
Undergroun​d78
Posté le 19-06-2008 à 13:50:11  profilanswer
 

Il y aura bien des vilains possesseurs de cartes ATI qui vont tirer la gueule en disant qu'on ne les aime pas ... :ange:

n°1761063
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 13:51:45  profilanswer
 

Underground78 a écrit :

Il y aura bien des vilains possesseurs de cartes ATI qui vont tirer la gueule en disant qu'on ne les aime pas ... :ange:


 
J'ai déjà une carte ATI qui supporte l'API ATI (mon portable pro a une carte HD2XXX, ca devrait rouler).
 
Me manque la Nvidia :D


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761066
MEI
|DarthPingoo(tm)|
Posté le 19-06-2008 à 14:00:48  profilanswer
 

Tetedeiench a écrit :


 
J'ai déjà une carte ATI qui supporte l'API ATI (mon portable pro a une carte HD2XXX, ca devrait rouler).
 
Me manque la Nvidia :D


Code en OpenCL et basta ! :P
 
Encore que faudrait que y'ai un SDK... :D
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°1761067
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 14:03:45  profilanswer
 

MEI a écrit :


Code en OpenCL et basta ! :P
 
Encore que faudrait que y'ai un SDK... :D
 


 
C'est exactement ce que je pense :D


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761079
Fouge
Posté le 19-06-2008 à 14:28:07  profilanswer
 

Une 8400GS vaut moins de 30€. Ne me dis pas que t'as pas un tel budget :o

n°1761081
Profil sup​primé
Posté le 19-06-2008 à 14:29:03  answer
 

Fouge a écrit :

Une 8400GS vaut moins de 30€. Ne me dis pas que t'as pas un tel budget :o


Me dis pas que t'as pas 30€ à lui filer :whistle:

n°1761082
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 14:35:27  profilanswer
 

Fouge a écrit :

Une 8400GS vaut moins de 30€. Ne me dis pas que t'as pas un tel budget :o

 

Ben l'souci, c'est que je me vois pas trop enlever et changer mes cartes 3d non plus chaque fois que je veux lancer un jeu... ou que ma cops veut jouer elle aussi :D

 

j'ai qu'un PC moi :sweat:

 

Surtout avec mon SLI [:ddr555]

Message cité 1 fois
Message édité par Tetedeiench le 19-06-2008 à 14:38:59

---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761084
Devil'sTig​er
Posté le 19-06-2008 à 14:40:58  profilanswer
 

Tetedeiench a écrit :


 
J'ai déjà une carte ATI qui supporte l'API ATI (mon portable pro a une carte HD2XXX, ca devrait rouler).
 
Me manque la Nvidia :D


Heu, c'est pas réservée série FireStream l'api ATI pour le moment ? (j'avoue que je sais pas mais il me semble avoir entendu ca ;))
 

MEI a écrit :


Code en OpenCL et basta ! :P
 
Encore que faudrait que y'ai un SDK... :D
 


Tu peux l'attendre OpenCL... Pour le moment il n'est prévu que côté mac pour un os x ;)
Après je sais que du côté mac (doc officielle) ca a l'air beau :love: ca se passe de CUDA et de FireStream car ca reprogramme tous les accès, et il est déjà prévu une extension vers les GPU Intel (qui ont une énorme puissance de calcul par rapport à ce que l'on pourrait penser)
Bref ca va envoyer du poneÿ :D
 
EDIT : Tetedeiench -> CUDA est un compilateur à lui tout seul en fait ;) Je me suis trompé, mais c'est un compilateur C ;)
Il dispose d'une partie "standard" réservée a du code machine classique et a des sortes de ifdef pour du code CUDA directement envoyé au GPU, c'est apparemment la seule différence en terme de prog (hors utilisation CUDA bien entendu)

Message cité 1 fois
Message édité par Devil'sTiger le 19-06-2008 à 14:42:39
n°1761085
Profil sup​primé
Posté le 19-06-2008 à 14:42:00  answer
 

Ce qui est sûr c'est que ton souhait étant de tuer les alims. de tes utilisateurs, ça va pas aider pour les sensibiliser à te financer
Tu cherches la mouarde alors azzumes ^^
:d!

n°1761087
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 14:43:16  profilanswer
 

Devil'sTiger a écrit :


Heu, c'est pas réservée série FireStream l'api ATI pour le moment ? (j'avoue que je sais pas mais il me semble avoir entendu ca ;))
 


 
Je ne sais pas, je suis en train de regarder l'état de l'art sur le sujet. la syntaxe utilisée, très proche du C, me convient parfaitement en tout cas.
 

Devil'sTiger a écrit :


Tu peux l'attendre OpenCL... Pour le moment il n'est prévu que côté mac pour un os x ;)
Après je sais que du côté mac (doc officielle) ca a l'air beau :love: ca se passe de CUDA et de FireStream car ca reprogramme tous les accès, et il est déjà prévu une extension vers les GPU Intel (qui ont une énorme puissance de calcul par rapport à ce que l'on pourrait penser)
Bref ca va envoyer du poneÿ :D


 
C'est ce que je me dis.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761089
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 14:46:13  profilanswer
 

A priori n'importe quelle carte HD2X/3X suffit.
 

Citation :

Not any ATI Radeon / FireGL product will work with this stream computing SDK, but an R600 GPU or later is needed (such as the Radeon HD 2000/3000 series or a workstation component such as the FireGL V8600). If you are very serious about Stream computing, there is the FireStream 9170, which is the industry's first GPU with double-precision floating-point support.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761090
MEI
|DarthPingoo(tm)|
Posté le 19-06-2008 à 14:47:35  profilanswer
 

Tetedeiench a écrit :


 
Ben l'souci, c'est que je me vois pas trop enlever et changer mes cartes 3d non plus chaque fois que je veux lancer un jeu... ou que ma cops veut jouer elle aussi :D
 
j'ai qu'un PC moi :sweat:
 
Surtout avec mon SLI [:ddr555]


Fait une section don "généraliste" pour permettre d'évoluer OCCT.
Tu met des pistes de développement envisagée...
 
Et tout le monde est content.
 
Sinon en principe ou peu avoir une CG et utiliser CUDA dessus sans qu'elle affiche quelque chose, non :??:... c'est le principe du PhysX en tout cas :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°1761091
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 14:48:20  profilanswer
 

MEI a écrit :


Fait une section don "généraliste" pour permettre d'évoluer OCCT.
Tu met des pistes de développement envisagée...
 
Et tout le monde est content.
 
Sinon en principe ou peu avoir une CG et utiliser CUDA dessus sans qu'elle affiche quelque chose, non :??:... c'est le principe du PhysX en tout cas :D


 
Bien entendu, mais j'ai pas de PCI-E de libre de toute facon :D Avec mon SLI...


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761092
Devil'sTig​er
Posté le 19-06-2008 à 14:49:06  profilanswer
 

:jap: il est vrai qu'un FireStream 9170 en double précision ca doit vraiment envoyer plus lourd qu'une 9800GX2 de ce côté :D

n°1761096
MEI
|DarthPingoo(tm)|
Posté le 19-06-2008 à 15:00:53  profilanswer
 

8400GS PCI ça existe je crois :D
 
M'enfin pour bencher l'efficacité de l'algo c'est ptet pas l'ideal :)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°1761097
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 15:02:21  profilanswer
 

MEI a écrit :

8400GS PCI ça existe je crois :D
 
M'enfin pour bencher l'efficacité de l'algo c'est ptet pas l'ideal :)


 
Y a un peu de ça...
 
Bon, je vais lancer une campagne autour d'OCCT, juste sur la page de garde, expliquant le souci... on verra bien ce que ca donnera. Au pire si ca foire bah... ca foirera...
 
Pour la nouvelle version, elle devrait être là en fin d'après-midi.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761098
Fouge
Posté le 19-06-2008 à 15:02:44  profilanswer
 

Tetedeiench a écrit :

 

Bien entendu, mais j'ai pas de PCI-E de libre de toute facon :D Avec mon SLI...

C'est con ça. Ou alors tu te débarrasse d'une de tes GF7 :o

 

edit: et puis j'suis sûr qu'une "simple" 8800GT est aussi perf que ton SLI, sans les contraintes du SLI, et ça vaut 150€ (et ça va chuter avec la HD4850 qui vaut le même prix).
Pas besoin de tabler dans une GTX260/280 :o

Message cité 1 fois
Message édité par Fouge le 19-06-2008 à 15:05:34
n°1761099
Profil sup​primé
Posté le 19-06-2008 à 15:02:52  answer
 

Surtout qu'hormis la faible différence de consommation sur de petites cartes graphique, ils faut en + tenir compte du rendement de l'alimentation :/
 
Je pense que pour développer correctement il faut une alimentation & un wattmètre de laboratoire (ou équivalent :o)


Message édité par Profil supprimé le 19-06-2008 à 15:03:56
n°1761105
MEI
|DarthPingoo(tm)|
Posté le 19-06-2008 à 15:16:59  profilanswer
 

Fouge a écrit :

C'est con ça. Ou alors tu te débarrasse d'une de tes GF7 :o
 
edit: et puis j'suis sûr qu'une "simple" 8800GT est aussi perf que ton SLI, sans les contraintes du SLI, et ça vaut 150€ (et ça va chuter avec la HD4850 qui vaut le même prix).
Pas besoin de tabler dans une GTX260/280 :o


Une 8800 GTS 512 c'est 1,5 à 3x plus perfs qu'une 7900 GTO, donc bon... ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°1761107
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 15:20:09  profilanswer
 

Personellement, je considère mon SLI comme aussi performant qu'une 8800GTX... j'ma gourre ?
 


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761109
Profil sup​primé
Posté le 19-06-2008 à 15:23:00  answer
 

Le mien de 9600GT o/c d'origine l'égale juste [:ddr555]

n°1761112
MEI
|DarthPingoo(tm)|
Posté le 19-06-2008 à 15:29:13  profilanswer
 

Tetedeiench a écrit :

Personellement, je considère mon SLI comme aussi performant qu'une 8800GTX... j'ma gourre ?
 


Largement, l'architecture unifié aide a mort dans les jeux recent. Les G71 pouvaient peiner a mort en Vertex Shaders (je suposse) => exemple concert Colin McRae DiRT ou je suis passé de 800x600 a 1600x1200 FSAA4X en doublant mes FPS juste en passant d'une 7900 GTO a une 8800 GTS 512...
 
En plus le rendu est un poil plus fin, et le CSAA cool, et le MSAA8X aussi. :)
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°1761114
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 15:35:17  profilanswer
 

MEI a écrit :


Largement, l'architecture unifié aide a mort dans les jeux recent. Les G71 pouvaient peiner a mort en Vertex Shaders (je suposse) => exemple concert Colin McRae DiRT ou je suis passé de 800x600 a 1600x1200 FSAA4X en doublant mes FPS juste en passant d'une 7900 GTO a une 8800 GTS 512...
 
En plus le rendu est un poil plus fin, et le CSAA cool, et le MSAA8X aussi. :)
 


 
Ah :/ Bon, ben à étudier.
 
Si ca tombe, je vais récolter un peu d'argent avec l'OCCT-Thon, et qui sait...


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761120
Fouge
Posté le 19-06-2008 à 15:53:55  profilanswer
 

D'après les tests HFR, une 7950GX2 (2 GPU donc, je sais pas ce que ça vaut comparé à un SLI de GTO) c'est un peu en dessous d'une 8800GTSv1 elle même un peu en-dessous d'une 8800GT, elle-même en-dessous de la 8800GTSv2.
Et avec le temps, l'écart a dû se creuser...


Message édité par Fouge le 19-06-2008 à 15:54:22
n°1761123
Tetedeienc​h
Head Of God
Posté le 19-06-2008 à 16:04:07  profilanswer
 

La GTX a des fréquences bien supérieures à la GTO.
 
Mais bon, spa grave, je vais étudier le coup des dons, et si ca marche pas, j'aviserai.
 
Me demande si je vais pas tenter les mails aux fabricants de carte graphique. Après tout, OCCT est populaire chez les fabricants d'alim...


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1761125
AnthonyD
»»───(knee)───►
Posté le 19-06-2008 à 16:06:09  profilanswer
 

Qui ne tente rien n'a rien, au pire tu prends rien, au mieux tu gagnes un bon d'achat :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  477  478  479  ..  985  986  987  988  989  990

Aller à :
Ajouter une réponse
 

Sujets relatifs
Pkoi mon PC devient tres lent des que le disque dur travailleMoi j'appelle ça du travaille d'orfèvrerie ...
Plus de sujets relatifs à : OCCT - v16 stable, collab avec INTEL, OC GNR depuis l'appli !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)