Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2257 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  347  348  349  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7427306
Yoyo_5
Posté le 01-05-2010 à 12:01:47  profilanswer
 

Reprise du message précédent :

Gigathlon a écrit :

En fait, à 880 la GTX480 est poussée de 25.7%, la 5870E6 de 29.4%, l'écart n'est donc pas si grand ;)


Y a un truc qu'il faut prendre en compte, c'est que la Eye6 a sa RAM qui monte à 1300MHz grand max, ça limite pas mal le scaling. La GTX480 elle prend quasiment 20% de perf en plus avec ce clocking, la Eye6 probablement moins. :jap:


---------------
¤ Paix et félicité ¤

mood
Publicité
Posté le 01-05-2010 à 12:01:47  profilanswer
 

n°7427314
Gigathlon
Quad-neurones natif
Posté le 01-05-2010 à 12:04:00  profilanswer
 

Ca dépend encore des benchs, certains ne dépendent quasiment pas de la BP.

n°7427318
Yoyo_5
Posté le 01-05-2010 à 12:05:12  profilanswer
 

Je parlais plus en jeu qu'en bench. :jap:


---------------
¤ Paix et félicité ¤

n°7427365
Activation
21:9 kill Surround Gaming
Posté le 01-05-2010 à 12:36:42  profilanswer
 

bah si on va vers plus de geometry faut plus boosté le gpu
 
si on va vers plus de "texture" HD et + de AA y a de la mémoire qui entre en ligne de compte
 
pour l'AA la volonté de l'AA 8x faudra m'expliqué j'ai eu beau essayer plusieurs fois, je vois pas la diff avec AA 4x
enfin si je la vois... ça pête la gueule au framerate
 
mais sur le point de vu visuel non
 
là ou entre "pas de AA" et "AA 4x" y a pas photo la différence est net
 
les textures, j'aimerais bien que les devs arrête de faire 1 seule grosse texture unique pour 1 véhicule par exemple
et privilégie plusieurs textures pour ce même véhicule mais des textures procédurales
plusieurs jeux en sont là mais c'est pas une généralité
 
dans un premier temps ça ne va pas forcément baisser le besoin en mémoire (car le fait de devoir utiliser plus de textures mais si chaque textures occupe moins de place vu que des algo)
 
par contre plus il y aura d'objet différent (l'environnement des jeux s'enrichit) plus les textures seront réutilisable pour plusieurs objet de l environnement  
 
bref enfin des textures par matériaux  
 
et pas des textures bitmap ou pour 1 voiture il y a une texture avec sur la dite texture bitmap tout est regroupé "phares, portière,..."
 
bref des vrai texture et pas un skin ce qui est très différent
 
trop de jeu on encore recours en fait aux skins plus qu'à des textures réel, et ça je trouve ça désolant


Message édité par Activation le 01-05-2010 à 12:37:18
n°7427375
Pinto
Posté le 01-05-2010 à 12:50:40  profilanswer
 

Yoyo_5 a écrit :


Y a un truc qu'il faut prendre en compte, c'est que la Eye6 a sa RAM qui monte à 1300MHz grand max, ça limite pas mal le scaling. La GTX480 elle prend quasiment 20% de perf en plus avec ce clocking, la Eye6 probablement moins. :jap:


 
Ce que j'ai pu remarquer c'est qu'au dessus de 2100 la 480 ne gagne presque plus rien quelque soit la vitesse du core donc il y a assez de BP contrairement aux ATI qui scalent encore pas mal au dessus de 1300  :jap:

n°7427406
Yoyo_5
Posté le 01-05-2010 à 13:19:32  profilanswer
 

Pinto a écrit :

Ce que j'ai pu remarquer c'est qu'au dessus de 2100 la 480 ne gagne presque plus rien quelque soit la vitesse du core donc il y a assez de BP contrairement aux ATI qui scalent encore pas mal au dessus de 1300  :jap:


Ouaip, j'ai remarqué la même chose sur la Six pour la RAM. :)


---------------
¤ Paix et félicité ¤

n°7427714
MEI
|DarthPingoo(tm)|
Posté le 01-05-2010 à 15:37:13  profilanswer
 

Pinto a écrit :


 
Ce que j'ai pu remarquer c'est qu'au dessus de 2100 la 480 ne gagne presque plus rien quelque soit la vitesse du core donc il y a assez de BP contrairement aux ATI qui scalent encore pas mal au dessus de 1300  :jap:


Non c'est juste qu'elle passe plus de temps a faire de la correction d'erreurs qu'autre chose... :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7427765
Yoyo_5
Posté le 01-05-2010 à 15:58:08  profilanswer
 

MEI a écrit :

Non c'est juste qu'elle passe plus de temps a faire de la correction d'erreurs qu'autre chose... :o


Bha non puisque si tu montes la fréquence ça booste les perfs...! :o


---------------
¤ Paix et félicité ¤

n°7427792
olfizbak
~ la loutre qui poutre ~
Posté le 01-05-2010 à 16:13:59  profilanswer
 

ninehundred a écrit :


@ olfizbak C'est quoi la sorte de plaque d'alu au dessus de ton 3-Way Sli?  :??:
Est-ce pour mieux évacuer la chaleur des caloducs?


 
Oui je l'ai mi en extraction. Ca pompe la chaleur des caloduc, et l'extrait hors.
c'est ce genre de système : http://www.lian-li.com/v2/en/produ [...] s_index=83
j'ai un double ventilo en dessous qui balance de l'air et le latéral qui extrait l'air chaud.
Ca marche bien ^^
Et lundi je rajoute un ventilo dans la cage à dd pour optimiser un peu plus ^^


---------------
OlfizbaK - OlfeedbacK
n°7427796
olfizbak
~ la loutre qui poutre ~
Posté le 01-05-2010 à 16:15:49  profilanswer
 

Space a écrit :

cela doit ètre l'horreur niveau bruit surtout avec ton boitier :/


Ben pas tant que ça pour deux raisons :
1) cay bien frais dans la tour (vraiment énorme pour ça cette tour)
2) le kit 5.1 quand je joue couvre largement le bruit des ventilo ^^ ou au pire le casque qd la chérie dort ^^


---------------
OlfizbaK - OlfeedbacK
mood
Publicité
Posté le 01-05-2010 à 16:15:49  profilanswer
 

n°7427856
Yoyo_5
Posté le 01-05-2010 à 17:01:58  profilanswer
 

Personne ne voudrait s'amuser avec CUDA et After Effects / Premiere CS5 voir ce que ça apporte réellement de plus que sans ? :jap:
La démo d'Adobe Master Collection CS5 est dispo sur le site International de Adobe : https://www.adobe.com/cfusion/tdrc/ [...] collection :jap:


---------------
¤ Paix et félicité ¤

n°7427868
Activation
21:9 kill Surround Gaming
Posté le 01-05-2010 à 17:09:22  profilanswer
 

ça apporte que dalle vu que ça ne s active qu avec des quadro ou des tesla
 
donc une gtx480 pour adobe c est considéré comme de la merde vu le contrat avec nvidia "je te boost si je te bride à mon matos haut de gamme"
 
c'est beaaaauuuuu le developpement CUDA
 
c'est juste réservé au riche et entreprise :o
 
bien la peine de nous casser les rouleaux avec cuda depuis la 8800gtx

Message cité 3 fois
Message édité par Activation le 01-05-2010 à 17:10:05
n°7428168
olfizbak
~ la loutre qui poutre ~
Posté le 01-05-2010 à 19:34:03  profilanswer
 

by the way un test complet sur le tri sli de 480 chez Guru 3D : http://www.guru3d.com/article/gefo [...] -review/29


---------------
OlfizbaK - OlfeedbacK
n°7428186
MEI
|DarthPingoo(tm)|
Posté le 01-05-2010 à 19:45:58  profilanswer
 

Yoyo_5 a écrit :


Bha non puisque si tu montes la fréquence ça booste les perfs...! :o


C'est pas parce qu'il y a un gain leger, que y'a pas de correction d'erreur... :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7428382
Yoyo_5
Posté le 01-05-2010 à 23:10:56  profilanswer
 

Activation a écrit :

ça apporte que dalle vu que ça ne s active qu avec des quadro ou des tesla
 
donc une gtx480 pour adobe c est considéré comme de la merde vu le contrat avec nvidia "je te boost si je te bride à mon matos haut de gamme"
 
c'est beaaaauuuuu le developpement CUDA
 
c'est juste réservé au riche et entreprise :o
 
bien la peine de nous casser les rouleaux avec cuda depuis la 8800gtx


Putain, ça en devient vraiment pénible là. T'as CUDA mais tu ne l'as pas comme tu veux... :pfff:
 

MEI a écrit :


C'est pas parce qu'il y a un gain leger, que y'a pas de correction d'erreur... :o


A 1300 y a pas de correction, au dessus c'est plus probable. ;)
 


---------------
¤ Paix et félicité ¤

n°7428495
CassBurn
Posté le 02-05-2010 à 07:33:01  profilanswer
 

Activation a écrit :

ça apporte que dalle vu que ça ne s active qu avec des quadro ou des tesla
 
donc une gtx480 pour adobe c est considéré comme de la merde vu le contrat avec nvidia "je te boost si je te bride à mon matos haut de gamme"
 
c'est beaaaauuuuu le developpement CUDA
 
c'est juste réservé au riche et entreprise :o
 
bien la peine de nous casser les rouleaux avec cuda depuis la 8800gtx


 
Peut-être que cuda ne donne rien avec adobe mais il ne faut pas généraliser non plus.
 
Pour le développement le SDK est disponible à tous.
 
D'où te viens l'idée que cuda ne peut s'utiliser qu'avec des quatro et tesla ? (j'imagine que ta conclusion du réservé aux riches ou aux entreprises viens de là.)
 
Le calcul en GPGPU est réalisable depuis le G80. Alors pourquoi pas des GTX480 ?  :heink:  
 
Stream d'ATI ou CUDA d'nVidia, aux dernières nouvelles c'est cuda qui l'emporte.
 
 
Test d'HFR : http://www.hardware.fr/articles/67 [...] tique.html

n°7428521
Cizia
Posté le 02-05-2010 à 08:57:24  profilanswer
 

Yoyo_5 a écrit :


Y a un truc qu'il faut prendre en compte, c'est que la Eye6 a sa RAM qui monte à 1300MHz grand max, ça limite pas mal le scaling. La GTX480 elle prend quasiment 20% de perf en plus avec ce clocking, la Eye6 probablement moins. :jap:


 
 
oui mais attend ...    sur les 480 tu peux oc les shaders,sur ati non.
 
ceci doit commencer a expliquer pourquoi les gains/scalling en oc son plus intéressant sur les nvidia.

Message cité 1 fois
Message édité par Cizia le 02-05-2010 à 09:18:50

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°7428533
Amraam
Si vis pacem...
Posté le 02-05-2010 à 09:29:44  profilanswer
 

Activation a écrit :

ça apporte que dalle vu que ça ne s active qu avec des quadro ou des tesla
 
donc une gtx480 pour adobe c est considéré comme de la merde vu le contrat avec nvidia "je te boost si je te bride à mon matos haut de gamme"
 
c'est beaaaauuuuu le developpement CUDA
 
c'est juste réservé au riche et entreprise :o
 
bien la peine de nous casser les rouleaux avec cuda depuis la 8800gtx


Il existe plus le hack qui permetait d'installer les drivers quadro complets sur une geforce??

n°7428639
Fouge
Posté le 02-05-2010 à 12:00:42  profilanswer
 

CassBurn a écrit :

D'où te viens l'idée que cuda ne peut s'utiliser qu'avec des quatro et tesla ? (j'imagine que ta conclusion du réservé aux riches ou aux entreprises viens de là.)
 
Le calcul en GPGPU est réalisable depuis le G80. Alors pourquoi pas des GTX480 ?  :heink:

CUDA non, mais il y a plusieurs choses à savoir :
 - des éditeurs comme Adobe, bride l'utilisation de l'accélération CUDA sur les Quadro/Tesla (ça nVidia n'y est pour rien, mais nous les possesseurs de GeForce subissons cette contrainte)
 - nVidia bride ses GTX 470/480 en calcul GPGPU (en DP uniquement) pour pas faire d'ombre aux Quadro/Tesla
 - certains outils/SDK de nVidia comme Optix (qui est un "ray tracing engine" basé sur CUDA) ne tournent que sur Quadro/Tesla, on ne verra donc jamais de soft basé sur Optix qui tournera sur nos GeForce

n°7428640
Gigathlon
Quad-neurones natif
Posté le 02-05-2010 à 12:04:08  profilanswer
 

Cizia a écrit :

oui mais attend ...    sur les 480 tu peux oc les shaders,sur ati non.
 
ceci doit commencer a expliquer pourquoi les gains/scalling en oc son plus intéressant sur les nvidia.


Gné?!? :heink:  
 
Le shader core est à une fréquence double du reste du GPU, mais contrairement à ce qu'on avait avec les générations antérieures ce ratio n'est pas modifiable.

n°7428650
westside7
Posté le 02-05-2010 à 12:10:59  profilanswer
 

Salut ;)
 
Est ce qu'après 10 minutes de MSI Kombustor on peut considérer connaître la temp max de la carte ?
:jap:

n°7428655
Gigathlon
Quad-neurones natif
Posté le 02-05-2010 à 12:15:43  profilanswer
 

Si tu l'utilises en mode "débridé", oui.
 
Pour ça il faut prendre une vieille version qui dispose encore du mode "extreme burning" ou modifier le fichier de config (startup_options.xml) pour avoir enable_unlock_power_draw="1".
 
Dans ces conditions, en 5 minutes max t'as la température de croisière du GPU chargé à bloc.


Message édité par Gigathlon le 02-05-2010 à 12:16:22
n°7428659
bigbenze
Posté le 02-05-2010 à 12:18:16  profilanswer
 

bonjour à tous  
 
N'étant pas un grand fan des nouvelles séries de nvidia ( 470 et 480 ) je commence à bien m'y intéressé car je viens d'investir dans un écran 3d ( acer 24" ).
 
J'aurais donc voulu savoir si selon vous une 480 suffirait pour jouer en 3d sur pratiquement tout les jeux sans avoir à négliger les paramètres graphique.
 
Merci d'avance pour votre aide
 
ps : j'ai fait également une demande sur le topic 3d mais pas de réponse pour le moment.  
 


---------------
Feed back / Ach-Vente
n°7428672
Gigathlon
Quad-neurones natif
Posté le 02-05-2010 à 12:33:08  profilanswer
 

Niveau puissance, ça commence déjà assez mal. Considère qu'elle vaut un SLI de GTX285.
 
Après, il y a le problème des options à désactiver... le problème est toujours le même avec la stéréo et dans un nombre conséquent de jeux on est obligés de désactiver des options à la base importantes sous peine d'incrustations 2D dans la 3D.

n°7428683
bigbenze
Posté le 02-05-2010 à 12:47:38  profilanswer
 

bon après disons que si il y a des options à désactivée obligatoirement qu'importe la carte graphique c'est pas dramatique quoi mais je veux limiter au maximum de devoir baisser le niveau graphique quoi


---------------
Feed back / Ach-Vente
n°7428833
Profil sup​primé
Posté le 02-05-2010 à 15:12:37  answer
 

Gigathlon a écrit :

Gné?!? :heink:  
 
Le shader core est à une fréquence double du reste du GPU, mais contrairement à ce qu'on avait avec les générations antérieures ce ratio n'est pas modifiable.


Et ce n'est pas un mal d'ailleurs :jap:
Car modifier ce ratio sur les GTX 2xx pouvait être contre-productif (dépendait du ratio) ;)...

n°7428852
Activation
21:9 kill Surround Gaming
Posté le 02-05-2010 à 15:29:12  profilanswer
 

CassBurn a écrit :


 
Peut-être que cuda ne donne rien avec adobe mais il ne faut pas généraliser non plus.
 
Pour le développement le SDK est disponible à tous.
 
D'où te viens l'idée que cuda ne peut s'utiliser qu'avec des quatro et tesla ? (j'imagine que ta conclusion du réservé aux riches ou aux entreprises viens de là.)
 
Le calcul en GPGPU est réalisable depuis le G80. Alors pourquoi pas des GTX480 ?  :heink:  
 
Stream d'ATI ou CUDA d'nVidia, aux dernières nouvelles c'est cuda qui l'emporte.
 
 
Test d'HFR : http://www.hardware.fr/articles/67 [...] tique.html


 
 
2007 ton link... tu sais y a eu des truc depuis hein :o
 
je suis d'ailleurs étonné que powerdirector de cyberlink par exemple n'est pas subit un comparo sous amd et sous nvidia
 
oui machin tout ça "cuda" et "ati stream" cool ça boost la compression video.... et sorti de ça ça sert à quoi d'autres
 
au final CUDA n'aura pas vraiment apporté grand chose en tant que CUDA
 
et on va plus retrouvé des truc "direct compute" ou "opencl" qu'autre chose
 
donc oui j'en revient bien à "pourquoi NV nous a cassé les noix avec CUDA" depuis la 8800gtx quand le seul truc vraiment marquant dans les esprit pour le grand public de CE CUDA a été l appli badaboom à l epoque des gtx280/gtx285
 
et depuis c'est de nouveau retombé aux oubliette
 
4ans de cassage de couilles de CUDA pour 2 pet de mouches de soft pour le grand public
 
bref tout à l image du physx  :sweat:
 
c'est bon quoi NV m a prit pour un con avec son cuda lorsque j avais un G80, lorsque j'ai eu un G92 et lorsque j'ai eu un G200b
 
bref y en a mart d'être prit pour un con pour me pomper l'air avec de la pub CUDA qui ne sert à rien de la journée... même pas à accélerer le flash ou le java ou que sais je dans mon navigateur web
 
même pas des algo de débruiteur intelligent et de nettoyage d image pour les video, toujours pas d appli 3D qui se montre pour le grand public (monopole de autodesk qui est même pas foutu d'accoucher d un soft pour les petites bourse)
 
donc oui pour moi cuda ça reste une merde réservé au riche que j'ai payé dans mes cartes NV pour que dalle


Message édité par Activation le 02-05-2010 à 15:37:43
n°7428858
Profil sup​primé
Posté le 02-05-2010 à 15:34:01  answer
 

Gigathlon a écrit :


Gné?!? :heink:  
 
Le shader core est à une fréquence double du reste du GPU, mais contrairement à ce qu'on avait avec les générations antérieures ce ratio n'est pas modifiable.


 
 
En même temps au début les softs ne permettaient pas de modifier le ratio sur les G80 et pourtant ensuite cela était possible...

n°7428900
Gigathlon
Quad-neurones natif
Posté le 02-05-2010 à 16:06:32  profilanswer
 


Il n'y a plus de "domaines", la liaison entre le shader core et les ROPs/TMU est maintenant bien plus "serrée" comme c'est le cas chez AMD depuis la famille R700 (la famille R600 étant l'exact opposé).
 
La multiplication par 2 est un processus très simple permettant d'alléger considérablement le design par rapport aux GPU antérieurs, qui imposaient des buffers conséquents pour permettre de "régler" ce ratio.

n°7428932
Domicron
Posté le 02-05-2010 à 16:32:12  profilanswer
 

salut :)
J'ai commencé l'overclock de la GTX 480 doucement, en commençant par le core, je monte à 800MHz pour 1,000V sous 3DMark Vantage, est-ce que c'est bon ?
 
Pour augmenter la mémoire, faut suivre un certain ratio avec le core ?

n°7428936
manut2500
Posté le 02-05-2010 à 16:36:25  profilanswer
 

Fouge a écrit :

CUDA non, mais il y a plusieurs choses à savoir :
 - des éditeurs comme Adobe, bride l'utilisation de l'accélération CUDA sur les Quadro/Tesla (ça nVidia n'y est pour rien, mais nous les possesseurs de GeForce subissons cette contrainte)
 - nVidia bride ses GTX 470/480 en calcul GPGPU (en DP uniquement) pour pas faire d'ombre aux Quadro/Tesla
 - certains outils/SDK de nVidia comme Optix (qui est un "ray tracing engine" basé sur CUDA) ne tournent que sur Quadro/Tesla, on ne verra donc jamais de soft basé sur Optix qui tournera sur nos GeForce


 
Il y a des moments faut se tenir au courant au lieu de dire des betises : http://developer.nvidia.com/object/optix-beta.html
 
je site :
"Fully supported GPU products are:  
Quadro FX 5800, Quadro FX 4800, Quadro FX 3800, Quadro CX  
Quadro Plex 2200 D2, Quadro Plex 2200 S4  
Tesla S1070, Tesla M1060, Tesla C1060, Tesla RS  
GeForce GTX 260, GTX 260 Cre 216, GTX 275, GTX 280, GTX 285, GTX 295  
GeForce GTX 480, GTX 470 "
 
Et c'est pas nouveau , je l'ai installé sur mon pc le 24/01/2010 donc ca fait un bail et ca fonctionne bien avec mes deux GTX260+.

Message cité 1 fois
Message édité par manut2500 le 02-05-2010 à 17:16:41
n°7429024
Fouge
Posté le 02-05-2010 à 18:44:43  profilanswer
 

manut2500 a écrit :


 
Il y a des moments faut se tenir au courant au lieu de dire des betises : http://developer.nvidia.com/object/optix-beta.html
 
je site :
"Fully supported GPU products are:  
Quadro FX 5800, Quadro FX 4800, Quadro FX 3800, Quadro CX  
Quadro Plex 2200 D2, Quadro Plex 2200 S4  
Tesla S1070, Tesla M1060, Tesla C1060, Tesla RS  
GeForce GTX 260, GTX 260 Cre 216, GTX 275, GTX 280, GTX 285, GTX 295  
GeForce GTX 480, GTX 470 "
 
Et c'est pas nouveau , je l'ai installé sur mon pc le 24/01/2010 donc ca fait un bail et ca fonctionne bien avec mes deux GTX260+.

Effectivement ça a changé depuis la beta1. Dommage que ça ne fonctionne toujours pas sur tous les GPU compatible CUDA, mais nVidia a amélioré sa politique.

n°7429027
MEI
|DarthPingoo(tm)|
Posté le 02-05-2010 à 18:47:03  profilanswer
 

D'un côté OptiX ça n'a aucun sens de le faire tourner sur les generation G8x et G9x...
 
Vu que ça commencera a prendre un sens et être utilisable que dans une ou deux génération de GPUs...
 
Vaut p'tet mieux partir sur un profil CUDA moins restrictif du coup...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7429033
Fouge
Posté le 02-05-2010 à 18:59:30  profilanswer
 

MEI a écrit :

D'un côté OptiX ça n'a aucun sens de le faire tourner sur les generation G8x et G9x...
 
Vu que ça commencera a prendre un sens et être utilisable que dans une ou deux génération de GPUs...
 
Vaut p'tet mieux partir sur un profil CUDA moins restrictif du coup...

Qu'nVidia l'empeche de le faire tourner sur d'ancien GPU (même compatible CUDA), je peux le comprendre. Sauf que lorsque la 1ère beta était sortie, ça ne tournait que sur Quadro et Tesla... y compris sur une FX3700 (8800GT version Quadro, du G92 donc).
nVidia a maintenant ajouté toutes les GeForce DX10 et plus, ce qui est un pas en avant. Maintenant pourquoi cela fonctionne sur du G80/92 uniquement Quadro... a moins que le support de ces dernières soient passées à la trappe ? Qu'est-ce qu'ils entendent par "Fully supported" ?


Message édité par Fouge le 02-05-2010 à 18:59:56
n°7429068
manut2500
Posté le 02-05-2010 à 19:22:56  profilanswer
 

Fouge j'ai ta réponse , je viens d'installer OPTIX 2.0 Beta 4 sur ma deuxieme becane avec une 8800 GT flashée avec le bios d'une quadro FX3700 HP (je ne dispose pas des parametres professionnels je suis e Windows 7 32 bits forceware 197.13). Les samples fonctionnent trés bien sans erreur sur cette config mais bon X2-4600+ et 8800 GT 660/1600/1800 ca donne 5 fps sur cookscene et sur mon Q6600@3.2Ghz plus deux GTX260+ je tourne à 30 fps.

n°7429071
manut2500
Posté le 02-05-2010 à 19:24:54  profilanswer
 

Apparement on voit souvent des applications cuda dont les G80 sont exclues mais pas les G92, j'ai l'impression qu'il y a quelque chose qui ne fonctionne pas bien sur les G80 en cuda mais qui semble moins problematique avec les G92 et suivants.

Message cité 1 fois
Message édité par manut2500 le 02-05-2010 à 19:25:23
n°7429074
Fouge
Posté le 02-05-2010 à 19:27:40  profilanswer
 

manut2500 a écrit :

Apparement on voit souvent des applications cuda dont les G80 sont exclues mais pas les G92, j'ai l'impression qu'il y a quelque chose qui ne fonctionne pas bien sur les G80 en cuda mais qui semble moins problematique avec les G92 et suivants.

La FX3700 (G92) est donc toujours supportée par la beta4, mais n'apparait pas dans la liste des "Fully supported". IL doit y avoir des choses dans OptiX qui ne passe pas sur un G92 (Quadro, ou GF8/9 flashée en Quadro)...

n°7429186
westside7
Posté le 02-05-2010 à 21:07:35  profilanswer
 

Bonsoir ;)
 
Je voudrais savoir si c'est normal que ma gtx480 passe en fréquence 3D lors de la lecture d'une vidéo HD ?
Si cela est normal pourrais je savoir pourquoi ?
:jap:

n°7429196
Yoyo_5
Posté le 02-05-2010 à 21:13:16  profilanswer
 

Je trouve ça beaucoup juste pour de la vidéo mais peut-être que la charge est suffisante pour que le mode 3D soit nécessaire. :/


---------------
¤ Paix et félicité ¤

n°7429197
Cizia
Posté le 02-05-2010 à 21:14:47  profilanswer
 

Yoyo_5 a écrit :

Je trouve ça beaucoup juste pour de la vidéo mais peut-être que la charge est suffisante pour que le mode 3D soit nécessaire. :/


 
 
ca viendrais pas plutôt du logiciel utilisé?
 
j'ai le souvenir qu'un me faisais ce délire.


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°7429203
westside7
Posté le 02-05-2010 à 21:19:43  profilanswer
 

Re ;)
 
Apparemment c'est pas vraiment le mode 3d c'est les fréquences entre 3d et 2d.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  347  348  349  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)