Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2332 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  442  443  444  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5627134
chinoisurf​er
the liberty
Posté le 02-07-2007 à 19:23:08  profilanswer
 

Reprise du message précédent :
la hd 2600 perd beaucoup en eprf quand tu met de l'aa ;) la x 1950 pro est bien plus costaud ;)

mood
Publicité
Posté le 02-07-2007 à 19:23:08  profilanswer
 

n°5627147
god is dea​d
Demain, j'arrête de poster.
Posté le 02-07-2007 à 19:28:11  profilanswer
 

Tout dépend du jeu en l'occurrence, car dans tous les autres elle est derrière :p  
 
Bien sur, tu pourras m'objecter "oué mais sans filtres elle est presque au niveau", certes, et en 800 x 600 elle doit être même meilleure. Dommage de devoir se passer de filtres, alors qu'une autre carte pas bcp plus cher permet leurs activations dans des résolutions raisonnable.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5627151
Profil sup​primé
Posté le 02-07-2007 à 19:31:40  answer
 

bah si elle garde ces perf en dx10, ce que je doute fort, on pourrait a la limite s en foutre des filtres. :jap:  
 
sousn dx9 en effet c est assez scandaleux...la version gddr4 fait autant que la x1950pro??!!! :heink:

n°5627164
toto le su​per hero
Your life is just a choice
Posté le 02-07-2007 à 19:36:55  profilanswer
 

threesixmafia a écrit :

tout dépends tu joues à quoi tu peux pas balancer des chiffres comme ça qui n'ont rien à voir avec la réalité  :heink:  
 
http://www.hardware.fr/medias/phot [...] 020541.gif
 
[:cupra]


 
http://www.hardware.fr/medias/photos_news/00/20/IMG0020536.gif
http://www.hardware.fr/medias/photos_news/00/20/IMG0020537.gif
http://www.hardware.fr/medias/photos_news/00/20/IMG0020538.gif
http://www.hardware.fr/medias/photos_news/00/20/IMG0020539.gif
http://www.hardware.fr/medias/photos_news/00/20/IMG0020552.gif
 
... je m'arrete la mais en effet une 1950pro pour 20€ de plus ca vaut le cout !


Message édité par toto le super hero le 02-07-2007 à 19:38:05
n°5627172
Profil sup​primé
Posté le 02-07-2007 à 19:39:37  answer
 

elle prend une branlee la x2600xt.
 
de plus la gdd4 ca donne pas plus que 4-5fps :sweat:

n°5627216
dricks2222
Posté le 02-07-2007 à 19:54:41  profilanswer
 

OMG les cartes moisies!
 
Avec un milieu de gamme foireux chez NVidia, ATi avait une chance inespérée de faire mieux, et pas difficilement.
Et bien non, ils ont réussit à faire pire.
Mais mort de rire!

n°5627241
god is dea​d
Demain, j'arrête de poster.
Posté le 02-07-2007 à 20:02:23  profilanswer
 


Quels perfs DX10 ? Elles seront désastreuses :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5627798
Neil007
Hardware Addict
Posté le 03-07-2007 à 02:44:16  profilanswer
 

Je l'aime ma x1950 pro oc . :love:


---------------
Topic Vente : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°5627832
Gigathlon
Quad-neurones natif
Posté le 03-07-2007 à 04:21:41  profilanswer
 

god is dead a écrit :

Quels perfs DX10 ? Elles seront désastreuses :o


Très supérieures à la 8600gts à en croire les premiers résultats mais bon, 5 ou 10fps... :whistle:

n°5627852
god is dea​d
Demain, j'arrête de poster.
Posté le 03-07-2007 à 07:16:51  profilanswer
 

Très supérieure dans la nullité, c'est clair que ça change rien.
Le support DX10 n'est intéressant que sur la HD 2900 XT, là y a moyen de faire quelque chose, mais sur les HD 2400/2600, c'est aussi inutile que le support DX9 des FX5800/5900 :d


Message édité par god is dead le 03-07-2007 à 07:18:38

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 03-07-2007 à 07:16:51  profilanswer
 

n°5627856
Gigathlon
Quad-neurones natif
Posté le 03-07-2007 à 07:29:39  profilanswer
 

Pas spécialement, tout dépend de ce que les devs font...
 
La puissance des GPU actuels est déjà phénoménale, mais comme pour les CPU l'utilisation qui en est faite n'est vraiment pas optimale.
 
Si AMD arrive à innonder le segment mainstream de son RV630, ça poussera à développer pour une archi très fournie en puissance de calcul (+120% par rapport à la 8600gts, sans même considérer les GS foireux de la famille G8x), de sorte que ça tourne vaguement correctement dessus.

n°5627867
god is dea​d
Demain, j'arrête de poster.
Posté le 03-07-2007 à 07:49:03  profilanswer
 

Le + 120% est à tempérer qd on sait que l'archi R600 n'est pas aussi efficace que celle du G80 et a besoin d'une puissance de calcul bien plus grande pour espérer offrir des perfs similaires. Actuellement la puissance de calcul énorme du RV630 n'empêche pas ce dernier de s'effondrer lamentablement (un GPU c'est pleins de paramètres, pas juste de la puissance de calcul), et même avec les jeux lourds il n'excelle pas, il sauve juste les meubles. Dés lors il est bien illusoire de penser que ce genre de carte pourra avoir des perfs acceptables sous DX10 (acceptable c'est quoi? en 800x600 sans filtres?), qui annonce des jeux bien plus lourds qu'actuellement (DX10 = jeux super optimisés et peu gourmands = utopie). Mais tu le sais aussi bien que moi :d
 
J'espère en tout cas que AMD n'inondera pas le marché de ses cartes fumeuses et tentera de s'occuper de nous trouver un vrai milieu de gamme. Vu le peu d'enthousiasme des testeurs, ça devrait être le cas, un GPU détruit par la critique :o


Message édité par god is dead le 03-07-2007 à 07:55:03

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5627989
chinoisurf​er
the liberty
Posté le 03-07-2007 à 11:17:46  profilanswer
 

le milieur de gamme sa sera la hd 2900 xt il vont al baisser de prix quand le r700 sortira comme il font depuis quelques années maintenant chez ati :D

n°5628010
toto le su​per hero
Your life is just a choice
Posté le 03-07-2007 à 11:33:15  profilanswer
 

Mouais, alors si le R700 est autant en retard et aussi performant que le R600, on est pas pret d'avoir un vrai milieu de gamme chez ATI !

Message cité 1 fois
Message édité par toto le super hero le 03-07-2007 à 11:33:27
n°5628014
bjone
Insert booze to continue
Posté le 03-07-2007 à 11:35:51  profilanswer
 

Gigathlon a écrit :

Pas spécialement, tout dépend de ce que les devs font...
 
La puissance des GPU actuels est déjà phénoménale, mais comme pour les CPU l'utilisation qui en est faite n'est vraiment pas optimale.
 
Si AMD arrive à innonder le segment mainstream de son RV630, ça poussera à développer pour une archi très fournie en puissance de calcul (+120% par rapport à la 8600gts, sans même considérer les GS foireux de la famille G8x), de sorte que ça tourne vaguement correctement dessus.


 
je suis d'accord, mais remarque de principe:
 
elle est pas si phénoménale, on sait déjà comme mettre à genoux une carte qui sortira dans 4 ans, même avec du code optimisé :D
les devs et artistes se limitent toujours pour rentrer dans le budget de perf du matos :D
quand t'est limité par la bande-passante ou les perfs shaders de la carte parceque t'as 3 sources de lumières avec shadow-map, y'a pas grand chose que tu puisses optimiser sans toucher aux ressources et autre résolutions des shadow-maps ou autre.
une 8800gtx n'est que 2/3x performante que une 7900/x1900 :D, en changeant les ressources sur un moteur efficace actuel, tu les engloutis tes gain :D


Message édité par bjone le 03-07-2007 à 11:40:40
n°5628029
threesixma​fia
psn id: gengis
Posté le 03-07-2007 à 11:40:56  profilanswer
 

toto le super hero a écrit :

Mouais, alors si le R700 est autant en retard et aussi performant que le R600, on est pas pret d'avoir un vrai milieu de gamme chez ATI !


on est mardi t'es en avance pour troller  :sarcastic:


---------------
Dogs that I call my friends Praying for all my friends Things I do for my friends We miss U
n°5628041
kaiser52
Posté le 03-07-2007 à 11:45:55  profilanswer
 

Citation :

je suis d'accord, mais remarque de principe:
 
elle est pas si phénoménale, on sait déjà comme mettre à genoux une carte qui sortira dans 4 ans, même avec du code optimisé :D
les devs et artistes se limitent toujours pour rentrer dans le budget de perf du matos :D
quand t'est limité par la bande-passante ou les perfs shaders de la carte parceque t'as 3 sources de lumières avec shadow-map, y'a pas grand chose que tu puisses optimiser sans toucher aux ressources et autre résolutions des shadow-maps ou autre.
une 8800gtx n'est que 2/3x performante que une 7900/x1900 :D, en changeant les ressources sur un moteur efficace actuel, tu les engloutis tes gain :D


 
Mouais, si on avait les mêmes devellopers sur console que sur PC, on en saurait pas là, et j'aurais gardé ma 6800GT car suffisante.
Surtout qaund on vois se qu'ils font avec une PETITE PS2....
PS: Les shadows maps c'est naze, ca bouffe trop de ressource pour rien. Dans crysis y'à pas de shadows map ^^


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5628056
toto le su​per hero
Your life is just a choice
Posté le 03-07-2007 à 11:51:57  profilanswer
 

threesixmafia a écrit :

on est mardi t'es en avance pour troller  :sarcastic:


 
BAh en même temps, c'est pas moi qui est parlé du R700   :ange:  

n°5628059
solx
All in the game
Posté le 03-07-2007 à 11:53:55  profilanswer
 

kaiser52 a écrit :


Mouais, si on avait les mêmes devellopers sur console que sur PC, on en saurait pas là, et j'aurais gardé ma 6800GT car suffisante.
Surtout qaund on vois se qu'ils font avec une PETITE PS2....
PS: Les shadows maps c'est naze, ca bouffe trop de ressource pour rien. Dans crysis y'à pas de shadows map ^^


Amha c'est nettement plus facile de coder un jeux sur une machine qui ne peut pas évoluer, optimisation nettement plus facile. [:cosmoschtroumpf]

n°5628067
Funky Max
And then, I woke up.
Posté le 03-07-2007 à 11:59:37  profilanswer
 

En faite, à vous lire, en gros, c'est pas le moment pour acheter une carte graphique? [:ddr555]

n°5628069
Althaz
Posté le 03-07-2007 à 12:01:35  profilanswer
 

Funky Max a écrit :

En faite, à vous lire, en gros, c'est pas le moment pour acheter une carte graphique? [:ddr555]


 
C'est jamais le moment. Ca évolue trop, et ça à toujours été le cas, depuis les Mystiques jusqu'a maintenant.
 
 
Désolé, voulais pas te démoraliser
 
 [:tang]


---------------
TESO @Althaz
n°5628071
Profil sup​primé
Posté le 03-07-2007 à 12:01:42  answer
 

si une 8800 !!

n°5628073
Funky Max
And then, I woke up.
Posté le 03-07-2007 à 12:03:26  profilanswer
 

Althaz a écrit :

C'est jamais le moment. Ca évolue trop, et ça à toujours été le cas, depuis les Mystiques jusqu'a maintenant.
 
 
Désolé, voulais pas te démoraliser
 
 [:tang]


 
C'est vrai que depuis quelques temps, c'est ingérables les cartes graphiques.
 
 
 
C'est ce que je me dit de plus en plus, mais la new gen de carte arrive quand? Car bon peut être que la directx 10 sera correctement géré... et utile  [:tinostar]  
 

n°5628078
kaiser52
Posté le 03-07-2007 à 12:04:38  profilanswer
 

Citation :


Amha c'est nettement plus facile de coder un jeux sur une machine qui ne peut pas évoluer, optimisation nettement plus facile. [:cosmoschtroumpf]


 
Oui c'est sur, mais rien ne les empeches de coder pour que ca fonctionne bien sur une machine moyenne-gamme, sachant que le reste est plus puissant y'a pas de problemes. Apres c'est sur le matos est fix et tous et tous, mais c'est pas une raison. Quand on voi la qualitée graphique de painkiller, et le matos avec lequel on pouvais le faire tourner comparé aux jeux du même moment y'à pas photos (de même pour Max Payne 2, Far Cry). Y'à plus beaucoup de jeux ou le rapport puissance-matos/qualitée-graphique est égale.
J'attend de voire se que va donner crysis en DX9 (DX10 faut pas en parler c'est tous neuf)


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5628103
toto le su​per hero
Your life is just a choice
Posté le 03-07-2007 à 12:16:06  profilanswer
 

Funky Max a écrit :

C'est ce que je me dit de plus en plus, mais la new gen de carte arrive quand? Car bon peut être que la directx 10 sera correctement géré... et utile  [:tinostar]


 
Rien d'officiel chez NVidia. Apparement le G92 ne devrai concerner que le milieu de gamme et ne serai qu'une version 65nm du G80. Il est attendu pour septembre mais je parirai plus sur debut 2008.
Pour ATI, ils viennent de sortir leur gamme, faut rien attendre d'eux avant 6 mois !
 
En gros les 8800 ont encore de beau jours devant elles !

Message cité 1 fois
Message édité par toto le super hero le 03-07-2007 à 12:17:00
n°5628122
threesixma​fia
psn id: gengis
Posté le 03-07-2007 à 12:27:54  profilanswer
 

toto le super hero a écrit :

Rien d'officiel chez NVidia. Apparement le G92 ne devrai concerner que le milieu de gamme et ne serai qu'une version 65nm du G80. Il est attendu pour septembre mais je parirai plus sur debut 2008.
Pour ATI, ils viennent de sortir leur gamme, faut rien attendre d'eux avant 6 mois !
 
En gros les 8800 ont encore de beau jours devant elles !


tu vas pleurer quand tu verras t'as ultra à la rue dans les jeux dx 10


---------------
Dogs that I call my friends Praying for all my friends Things I do for my friends We miss U
n°5628123
Profil sup​primé
Posté le 03-07-2007 à 12:30:04  answer
 

dire que j'ai acheté ma config en decembre 2006 !
en lisant ce forum je me suis mis à douter de mon choix (ça ma couté une fortune)
pour rappel, ATI n'avait pas encore sorti son R600 et bcp de personnes parlaient de puissance x2 par rapport au 8800GTX
sans compter les autres qui parlaient du Phenom et disaient que les C2D d'ici la fin de l'année se feront eclater !
 
 
en fin de compte, ma config 6mois après et tjr au top (presque)
cest un invesstissement enorme mais qui ma servit pendant 6 mois et qui au vu des nouvelles d'ici la fin de l'année est tjr très bien !
 
avec de la chance, j'aurais eu une config qui sera consideré comme au top pendant 1 an et millieu/haut de gamme l'année suivante.

n°5628127
toto le su​per hero
Your life is just a choice
Posté le 03-07-2007 à 12:31:51  profilanswer
 

Bah non, J'ai une GTX depuis ca sortie et l'Ultra est le fruit d'un echange standard (donc pour 0€ de plus). J'ai deja bien amorti mon investissement, qui n'est pas encore à la rue.

n°5628128
kaiser52
Posté le 03-07-2007 à 12:32:27  profilanswer
 

ba pareil quand tu veras que t'as XT est à la rue.
 
Faut pas dire des trucs omme ca, c'est des pure spéculation en bois, faut voire se que ca donne avec de vrai pilotes. Quand on vois que en 1900*1200 AA + AN sous dirt sous xp ont à 45fps et que sous vista on en à 25 faut quand même reflechir, le peut de démo DX10 qu'on à actuelement n'est pas du tout représentatif des futur perfs DX10 des cartes. Avant d'essayer de maitriser DX10 sous vista, faudrait essayer de maitriser Correctement DX9/OpenGL sous vista


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5628406
toto le su​per hero
Your life is just a choice
Posté le 03-07-2007 à 14:50:22  profilanswer
 

kaiser52 a écrit :

ba pareil quand tu veras que t'as XT est à la rue.


 
Heu, c'est pas deja le cas  :D  

n°5628436
nono 63
Posté le 03-07-2007 à 15:01:45  profilanswer
 

En attendant je trouve le prix des 1950Pro d'occaz un peu abusé :o 120 € alors qu'on trouve des neuves à 130 € ..


---------------
Mon topic Achat/ventes : http://forum.hardware.fr/hfr/Achat [...] 2496_1.htm
n°5628451
kaiser52
Posté le 03-07-2007 à 15:10:10  profilanswer
 

Citation :

Heu, c'est pas deja le cas  :D  


 
Non non,
c'est pas une 2600 ou une 8600 ^^


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5628455
Profil sup​primé
Posté le 03-07-2007 à 15:11:55  answer
 

nono 63 a écrit :

En attendant je trouve le prix des 1950Pro d'occaz un peu abusé :o 120 € alors qu'on trouve des neuves à 130 € ..


 
tu as raison mais etant donné que cette carte est puissante y a pas de raison que le prix baisse enormement, ça reste tjr une affaire

n°5628498
MacIntoc
tu lis une phrase formidable.
Posté le 03-07-2007 à 15:34:12  profilanswer
 

kaiser52 a écrit :

Citation :


Amha c'est nettement plus facile de coder un jeux sur une machine qui ne peut pas évoluer, optimisation nettement plus facile. [:cosmoschtroumpf]


 
Oui c'est sur, mais rien ne les empeches de coder pour que ca fonctionne bien sur une machine moyenne-gamme, sachant que le reste est plus puissant y'a pas de problemes. Apres c'est sur le matos est fix et tous et tous, mais c'est pas une raison. Quand on voi la qualitée graphique de painkiller, et le matos avec lequel on pouvais le faire tourner comparé aux jeux du même moment y'à pas photos (de même pour Max Payne 2, Far Cry). Y'à plus beaucoup de jeux ou le rapport puissance-matos/qualitée-graphique est égale.
J'attend de voire se que va donner crysis en DX9 (DX10 faut pas en parler c'est tous neuf)


+1
Painkiller (sauf le ciel), Max Payne, HL2 qui tournaient tout à fond (en Dx 8.1, bien sur) a 50fps sur ma Radeon 8500 couplé a un vénérable XP 1600+@stock et 1Go de DDR166 noname :love:  
 

kaiser52 a écrit :

ba pareil quand tu veras que t'as XT est à la rue.
 
Faut pas dire des trucs omme ca, c'est des pure spéculation en bois, faut voire se que ca donne avec de vrai pilotes. Quand on vois que en 1900*1200 AA + AN sous dirt sous xp ont à 45fps et que sous vista on en à 25 faut quand même reflechir, le peut de démo DX10 qu'on à actuelement n'est pas du tout représentatif des futur perfs DX10 des cartes. Avant d'essayer de maitriser DX10 sous vista, faudrait essayer de maitriser Correctement DX9/OpenGL sous vista


On sait que le G80 sera complètement à la rue quand la multiplication des polygones sera exploité via les GS (le R600 est jusqu'à 50x plus perf d'après HFR).

n°5628516
Althaz
Posté le 03-07-2007 à 15:46:15  profilanswer
 


 
Euh, je suis daccord avec sa remarque, on ne revend pas d'occase une carte graphique au ventilo usé sans garantie etc au même prix que le neuf ! J'ai remarqué la même chose que nono63.


---------------
TESO @Althaz
n°5628517
toto le su​per hero
Your life is just a choice
Posté le 03-07-2007 à 15:46:49  profilanswer
 

MacIntoc a écrit :


On sait que le G80 sera complètement à la rue quand la multiplication des polygones sera exploité via les GS (le R600 est jusqu'à 50x plus perf d'après HFR).


 
Et ma grand mêre, elle est cosmonaute !
 
Que la 2900xt passe devant une GTX, c'est possible. Mais de la a dire que la 8800 sera à la rue avec un R600 50x plus rapide faut pas delirer !

n°5628536
Profil sup​primé
Posté le 03-07-2007 à 15:54:21  answer
 

Althaz-> dans ce cas acheter une carte neuve tout simplement.
 
toto le su per hero->tout à fait daccord, de plus Nvidia investit bcp pour les jeux, la pub, etc...

n°5628538
kaiser52
Posté le 03-07-2007 à 15:54:57  profilanswer
 

Citation :

On sait que le G80 sera complètement à la rue quand la multiplication des polygones sera exploité via les GS (le R600 est jusqu'à 50x plus perf d'après HFR).


 
Franchement je ne pense vraiment pas.
Je site une phrase de Présence-PC : "" AMD nous a bien sûr conseillé d’utiliser ses propres tests synthétiques, mettant en avant les n-patches et l’illumination globale en utilisant les Geometry Shaders, et qui bien sûr étaient au minimum 30 fois plus rapides sur la HD 2900 XT que sur la 8800 GTX... ""
Je suis sur que si nvidia faisait ces propres tests synthétiques, la GTS320 pourrait etre devant une 2900XT O/C à mort.
Il faut aussi prendre ne compte que ces tests sythétiques ne se retrouveron jamais dans les jeux.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5628539
Gigathlon
Quad-neurones natif
Posté le 03-07-2007 à 15:55:06  profilanswer
 

toto le super hero a écrit :

Et ma grand mêre, elle est cosmonaute !
 
Que la 2900xt passe devant une GTX, c'est possible. Mais de la a dire que la 8800 sera à la rue avec un R600 50x plus rapide faut pas delirer !


C'est architectural.
 
Le R600 a un cache général et peut virtualiser les registres en RAM voire sur Dédé, le G80 n'a que des caches associés à chaque unité SIMD et doit donc s'auto-brider une fois les registres remplis...
 
Visiblement, Tridam a vu de ses yeux le résultat, bien qu'il n'ait pas mis de graph:

Citation :

Néanmoins, nous pouvons maintenant confirmer sans le moindre doute que les GeForce 8 souffrent d'un gros problème de performances lorsque l'amplification de la géométrie est utilisée dans les geometry shaders. Le raison est que ces GPUs doivent garder toutes les données dans le GPU, or l'amplification de la géométrie peut en générer énormément. Pour leur permettre de rester dans le GPU, les GeForce 8 doivent réduire le nombre d'éléments traités en parallèle. Ainsi, un groupe de 8 processeurs scalaires, pour avoir un rendement optimal, doit selon Nvidia contenir au moins 192 éléments (vertices ou pixels) qui se répartissent les 8192 registres 32 bits disponibles. Avec l'amplification géométrique qui permet de générer 1024 valeurs 32 bits par polygone, on comprend aisément que le nombre d'éléments sera bien inférieur à 192, ce qui réduit fortement la puissance de calcul effective.
 
Le gain en performances peut être énorme, nous avons remarqué des différences de l'ordre de 50X (pas %!) entre AMD et Nvidia. Bien entendu reste à voir ce que vont faire les développeurs de cette possibilité. Nvidia ne les incitera bien entendu pas à en abuser.

n°5628556
kaiser52
Posté le 03-07-2007 à 16:02:06  profilanswer
 

Oui mais ca veut dire quoi ca ???
 

Citation :

Pour leur permettre de rester dans le GPU, les GeForce 8 doivent réduire le nombre d'éléments traités en parallèle. Ainsi, un groupe de 8 processeurs scalaires, pour avoir un rendement optimal, doit selon Nvidia contenir au moins 192 éléments (vertices ou pixels) qui se répartissent les 8192 registres 32 bits disponibles. Avec l'amplification géométrique qui permet de générer 1024 valeurs 32 bits par polygone, on comprend aisément que le nombre d'éléments sera bien inférieur à 192, ce qui réduit fortement la puissance de calcul effective.


 
Ca veut dire que sur des scenes moyenement chargé elle sera à la rue, et que sur une scene énormemet chargé (j'entend par la qui remplis de 192 éléments les 8 processeur scalair), elle aura une performance optimal donc plus à la rue.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5628559
toto le su​per hero
Your life is just a choice
Posté le 03-07-2007 à 16:02:38  profilanswer
 

Oui 50x sur une partie du traitement global qui selon la criticité de cette partie peut se terminer par un gain de 3 ou 5%. Ca peut aller plus haut mais je pense pas que ca depasse les 20%/25%. On est loin d'etre a la rue !

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  442  443  444  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)