Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3684 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  409  410  411  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5538911
vincebdx
Posté le 20-05-2007 à 20:27:24  profilanswer
 

Reprise du message précédent :

Marc a écrit :

+/- 10w ca fait 4-5% de marge je sais pas comment sont fais tes wattmètres :o
 
Les mesures à l'amperemetre (x bits par exemple) confirment de plus la plus grande gourmandise du HD 2900.


Je me site "La tolérance globale", c'est à dire du pc pour être plus clair et encore je suis peut-être optimiste.
Plusieurs chose rentre en compte lors de la mesure de la puissance d'un appareillage en particulier lorsqu'il n'est pas seulement résistif et sur un courant alternatif.
 
Alors oui la prise wattmètre donne une bonne indication mais il ne faut pas s'attendre à être précis et à pouvoir départager la 8800gts et la hd2900xt en idle,
sinon il va falloir acheter de l'appareillage de mesure spécialisé et là ce n'est plus du tout le même prix.
 
Quant aux mesures à l'ampèremètre d'xbit elles sont beaucoup plus fiable, étant mesuré directement au niveau de la carte via résistances de shunt et voltmètre.
 
Pour le 1% de tolérance de la prise c'est celle du constructeur qui n'est pas une référence en appareillage de mesure, enfin pour 24€ il ne faut pas s'attendre à
être aussi précis qu'un wattmètre de plusieurs centaines d'euro.
Une meilleur référence si vous voulez être plus précis : Chauvin arnoux PX110
Par contre je ne vois pas l'utilité de cette précision dans ce cas là, et pour la mesure de la puissance d'une carte graphique ce n'est pas le top.
La meilleure solution étant celle d'Xbit.
 
Le fait que la HD2900 fasse plus ou moins 5W de différence en idle avec la 8800gts le lecteur (hormis les fanboys trolleur) s'en fou, ce qu'il retient c'est que les deux consomment 200W, pc compris.
En full c'est autre chose la hd2900 consomme plus (~60w) que la 8800gts, c'est un fait.
 
Je me répète mais les valeurs mesurées via la prise wattmètre au niveau du 230V, doivent être visualisées en tant qu'approximations et non pas en mesures précises,
comme l'a fait Xbit.
 
 
Autant ça ne me gène pas qu'une nouvelle carte, avec une nouvelle architecture, consomme 360W en full au départ, et qui pourra évoluer via la finesse de gravure.
Autant en idle je trouve les consommations inadmissibles de la part de ces constructeurs, c'est vraiment navrant, surtout que les technologies d'économie existe
dans ce cas, ça serait bien qu'ils prennent exemple sur intel et amd qui ont fait de gros effort.
 
Comme le fait remarquer le dossier d'Onversity, et c'est aussi mon avis, il faudrait mettre un gros point noir bien voyant ([:sabrewulf] ?) sur la consommation de ces cartes (hd2900xt,8800gts,gtx,...)
dans les conclusions des tests. Hardware.fr étant assez reconnu dans le monde informatique, pour pouvoir faire évoluer les mentalités, à la fois des lecteurs mais
aussi des autres testeurs  :jap: .

Message cité 1 fois
Message édité par vincebdx le 20-05-2007 à 20:34:39
mood
Publicité
Posté le 20-05-2007 à 20:27:24  profilanswer
 

n°5539106
Activation
21:9 kill Surround Gaming
Posté le 20-05-2007 à 21:44:17  profilanswer
 

question vu que la hd2900 est dispo maintenant
 
 
peut on enfin trouver la derniere demo de ruby (savez "helico" snowboard toussa toussa)
en version "executable" et pas encore et toujours en format video

n°5539137
Marc
Chasseur de joce & sly
Posté le 20-05-2007 à 21:59:54  profilanswer
 

vincebdx a écrit :

Je me site "La tolérance globale", c'est à dire du pc pour être plus clair et encore je suis peut-être optimiste.
Plusieurs chose rentre en compte lors de la mesure de la puissance d'un appareillage en particulier lorsqu'il n'est pas seulement résistif et sur un courant alternatif.
 
Alors oui la prise wattmètre donne une bonne indication mais il ne faut pas s'attendre à être précis et à pouvoir départager la 8800gts et la hd2900xt en idle,
sinon il va falloir acheter de l'appareillage de mesure spécialisé et là ce n'est plus du tout le même prix.
 
Quant aux mesures à l'ampèremètre d'xbit elles sont beaucoup plus fiable, étant mesuré directement au niveau de la carte via résistances de shunt et voltmètre.
 
Pour le 1% de tolérance de la prise c'est celle du constructeur qui n'est pas une référence en appareillage de mesure, enfin pour 24€ il ne faut pas s'attendre à
être aussi précis qu'un wattmètre de plusieurs centaines d'euro.
Une meilleur référence si vous voulez être plus précis : Chauvin arnoux PX110
Par contre je ne vois pas l'utilité de cette précision dans ce cas là, et pour la mesure de la puissance d'une carte graphique ce n'est pas le top.
La meilleure solution étant celle d'Xbit.
 
Le fait que la HD2900 fasse plus ou moins 5W de différence en idle avec la 8800gts le lecteur (hormis les fanboys trolleur) s'en fou, ce qu'il retient c'est que les deux consomment 200W, pc compris.
En full c'est autre chose la hd2900 consomme plus (~60w) que la 8800gts, c'est un fait.
 
Je me répète mais les valeurs mesurées via la prise wattmètre au niveau du 230V, doivent être visualisées en tant qu'approximations et non pas en mesures précises,
comme l'a fait Xbit.
 
 
Autant ça ne me gène pas qu'une nouvelle carte, avec une nouvelle architecture, consomme 360W en full au départ, et qui pourra évoluer via la finesse de gravure.
Autant en idle je trouve les consommations inadmissibles de la part de ces constructeurs, c'est vraiment navrant, surtout que les technologies d'économie existe
dans ce cas, ça serait bien qu'ils prennent exemple sur intel et amd qui ont fait de gros effort.
 
Comme le fait remarquer le dossier d'Onversity, et c'est aussi mon avis, il faudrait mettre un gros point noir bien voyant ([:sabrewulf] ?) sur la consommation de ces cartes (hd2900xt,8800gts,gtx,...)
dans les conclusions des tests. Hardware.fr étant assez reconnu dans le monde informatique, pour pouvoir faire évoluer les mentalités, à la fois des lecteurs mais
aussi des autres testeurs  :jap: .


Le double de 24 € :o
 
http://www.conrad.fr/webapp/wcs/st [...] =recherche
 
Enfin j'ai aussi une pince ampéremetrique mais étant donné qu'une partie du courant passe via la mobo et que je ne veux pas trop faire de modifs pour mesurer cette partie, bof. Et je ne pense pas qu'une mesure à la pince amperemetrique du PC dans sa globalité (en ouvrant le cable) apporte quoi que ce soit. Si il y'avait une telle marge d'erreur, les mesures varieraient beaucoup entre deux sessions, hors ce n'est pas le cas.
 
Par contre un autre facteur est que des cartes "8800 GTS" par exemple fabriquées à 3 mois d'intervalles n'utilisent pas forcément exactement les mêmes composants, n'ont pas la même conso, etc.

Message cité 2 fois
Message édité par Marc le 20-05-2007 à 22:02:31
n°5539205
ftp381
ça fûme!
Posté le 20-05-2007 à 22:29:30  profilanswer
 

Marc a écrit :

Le double de 24 €  :o

 

http://www.conrad.fr/webapp/wcs/st [...] =recherche

 

Enfin j'ai aussi une pince ampéremetrique mais étant donné qu'une partie du courant passe via la mobo et que je ne veux pas trop faire de modifs pour mesurer cette partie, bof. Et je ne pense pas qu'une mesure à la pince amperemetrique du PC dans sa globalité (en ouvrant le cable) apporte quoi que ce soit. Si il y'avait une telle marge d'erreur, les mesures varieraient beaucoup entre deux sessions, hors ce n'est pas le cas.

 

Par contre un autre facteur est que des cartes "8800 GTS" par exemple fabriquées à 3 mois d'intervalles n'utilisent pas forcément exactement les mêmes composants, n'ont pas la même conso, etc.

 


le conrad est donné par le fabricant précis à +/-2% près jusqu'à 2500W.
pour des conso de l'ordre de 300W cela fait 6W d'erreur... ce qui reste faible.

 

si HFR fait les mesures de conso sur l'étage 220V et utilise à chaque fois la même mobo (alim, CM,...) et que seule la CG change, alors sans doute que la mesure a du sens en valeur relative... moins en valeur absolue.

 

comme c'est la valeur relative qui nous importe dans les benchs, même en étant pointilleux, il faut reconnaître que cela donne une bonne idée des niveau de conso d'une carte par rapport à une autre.

 

on voit bien que le rendement "perf 3D"/FPS&filtres est en défaveur du R600.
et c'est autant de Watt qu'il faudra dissiper à grand coup de turbine.

n°5539257
vincebdx
Posté le 20-05-2007 à 22:52:30  profilanswer
 

Marc a écrit :

Le double de 24 € :o
 
http://www.conrad.fr/webapp/wcs/st [...] =recherche
 
Enfin j'ai aussi une pince ampéremetrique mais étant donné qu'une partie du courant passe via la mobo et que je ne veux pas trop faire de modifs pour mesurer cette partie, bof. Et je ne pense pas qu'une mesure à la pince amperemetrique du PC dans sa globalité (en ouvrant le cable) apporte quoi que ce soit. Si il y'avait une telle marge d'erreur, les mesures varieraient beaucoup entre deux sessions, hors ce n'est pas le cas.
 
Par contre un autre facteur est que des cartes "8800 GTS" par exemple fabriquées à 3 mois d'intervalles n'utilisent pas forcément exactement les mêmes composants, n'ont pas la même conso, etc.


Pour le prix j'avais pris celui là http://www.conrad.fr/webapp/wcs/st [...] y_rn=19136  :o   :D .
 

n°5539502
AbelJemka
Posté le 21-05-2007 à 03:40:11  profilanswer
 

Ma théorie de la semaine c'est que pour 380€ la HD 2900XT est l'un des meilleurs rapport performance/prix pour ceux qui recherchent le meilleur rapport qualité d'image/performance loin devant la 8800GTS. Pour prouver mes dires je vais m'appuyer sur le test de HFR sur la HD 2900XT justement.
I. Vista donc cartes DX10 uniquement.
 
J'ai posé la question à Marc sur l'utilisation de Vista pour les benchs.

Marc a écrit :


Vista, car les GPU sont destinés à être utilisés sur des machines tournant sous Vista à moins de vouloir se priver de DX10 (si on avait testé sous XP, on aurait demandé pourquoi XP :D ). Au passage en dehors de cas très spécifiques les écarts sont désormais mineurs.


Donc Vista car ce sont des cartes DX10. Ok. Donc pourquoi la X1950XTX vu qu'elle n'est pas DX10? La réponse probable serait pour faire montrer l'évolution chez ATI entre son ancien HDG et sa nouvelle carte. Mais vu que, comme certain le fond remarquer à raison, la 8800 est sortie il y a déjà 8 mois et que bien évidemment tout le monde sait déjà ce que elle vaut par rapport à la X1950XTX, est-il encore judicieux de d'inclure cette dernière dans le test? Ne vaut-il pas mieux renvoyer à l'article sur la 8800?
 
J’aboutis à l'assertion numéro 1 : que la comparaison soit maintenant purement pour Vista et carte DirectX10.
J'ai mis en gras ce qui est important pour la suite ma démonstration...
 
II. Les filtres pour la meilleure qualité d'image
 
Le choix des filtres c'est à dire AA 4x et AF 16X. Toutes les cartes peuvent le faire facilement et c'est le niveau de qualité le plus élevé donc un choix logique. Mais alors pourquoi l'AA 4X? Avec les cartes de la génération précédente c'est logique : le 6X est exclusif au X1000 et le 8X exclusif au 8800 donc le seul mode communs c'est le 4X. Mais si on reprend l'assertion numéro 1 et si l'ont exclu la X1950XTX, alors le mode commun le plus élevé devient le 8X. Overkill et inutile le mode 8X me diront certains, même Marc le pense et le dit :

Marc a écrit :

(avec transparency j'imagine les perfs dans certains jeux  [:snake12]  ... et sans ba ca sert à rien de se mettre en 8x :o )


Ils sembleraient que tu te contredis ou du moins que tout contredis Damien, je cite dans le test de la HD 2900XT :

Citation :


D’un point de vue qualitatif, on peut dire que les MSAA 4x des Radeon HD 2900 et des GeForce 8800 se valent, chacun prenant l’avantage sur l’autre en fonction des angles à filtrer. Par contre, le MSAA 8x d’ATI est notablement supérieur d’un point de vue qualitatif .  


S'il est "notablement supérieur" pourquoi ne pas l'utiliser? C'est une comparaison "apple to apple" non? De même pour l'utilisation du TAA/AA que Damien à justifier dans le test de la 8800 en novembre ainsi :

Citation :


Par ailleurs nous avons également décidé d’activer systématiquement le Transparency Antialiasing qui permet de filtrer les objets simulés à partir de tests alpha tels que les grillages. Dans certains jeux l’impact sur les performances est important, mais si il l’est c’est que l’impact visuel l’est tout autant et puisqu’il s’agit ici de cartes haut de gamme il n’y a pas de raison de les ménager !

 
J'ai mis en gras ce qui est important pour la suite ma démonstration...
 
III Résultat : les performances.
 
Marc semble penser qu'il n'est pas intéressant du point de vue performance d'activer l'AA 8X :

Marc a écrit :

(avec transparency j'imagine les perfs dans certains jeux  [:snake12]  ... et sans ba ca sert à rien de se mettre en 8x :o )


Pourtant si on reprend les résultats de Digit-Life (iXBT), qui utilises un protocole de test identique à celui de hardware pour leur mode HQ à l'exception de l'utilisation de l'AA 8X (6x pour la X1950XTX) au lieu du 4X. Soit en résumé :
    * ATI RADEON X1xxx: AA 6x + adaptive AA + AF 16x High Quality
    * ATI RADEON X2xxx: AA 8x + adaptive AA + AF 16x.
    * NVIDIA GeForce 7xxx/8xxx: AA 8x + TAA (MS with gamma correction) + AF 16x  
http://www.ixbt.com/video3/r600-part3-d.shtml#p218
Je ne vois rien d'injouable dans ce tableau loin de là à part peut-être Call of Juarez.
Pour prouver que ce n'est pas limité à ces quelques jeux voici un très bon article de Xbits labs datant de décembre "25 Signs of Perfection: Nvidia GeForce 8800 GTX in 25 Benchmarks" ([url]http://www.xbitlabs.com/articles/v [...] html#sect0[/url]).

Citation :


The GeForce 8800 GTX is so strong that there’s generally no sense in using ordinary 4x antialiasing in resolutions like 1280x1024 and 1600x1200 because the card’s performance will be limited by the CPU, whereas 8x MSAA or 16x CSAA provide a much better-looking image.


 
ps : vous pourrez vous éviter des questions en relisant les passages en gras.


Message édité par AbelJemka le 21-05-2007 à 13:14:51
n°5539525
god is dea​d
Demain, j'arrête de poster.
Posté le 21-05-2007 à 07:55:47  profilanswer
 

Marc ne contredit rien, que l'AA 8X soit qualitativement supérieur sur R600 ne signifie pas pour autant qu'il est réellement exploitable.
AA 4x + TAA + AF 8/16x c'est déjà un combo bien suffisant pour la HD 2900 XT.
Et, dans le test de iXBT, je ne vois que de grapshs en AA 4X / AF 16x.
 
Bref, t'as le droit d'avoir tes propres opinion, mais la HD 2900 XT est autant valable qu'une GTS 640, tout dépend des critères que l'on s'est fixé, qui par nature ne sont pas universels mais propres à chacun.
 
Le véritable meilleur rapport qualité/prix du moment, c'est la x1950xt@170 euros, la HD 2900 XT @380 / 400 euros est intéressante, sans +.
 
Ma théorie c'est que tu es bien borné :/

Message cité 3 fois
Message édité par god is dead le 21-05-2007 à 08:10:33

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5539526
tuxerman12
Posté le 21-05-2007 à 08:07:20  profilanswer
 

X1950XT = 170€ + changement de ventirad .

n°5539528
god is dea​d
Demain, j'arrête de poster.
Posté le 21-05-2007 à 08:09:00  profilanswer
 

Ou pas.
 
Et ca coûte 18 euros, ça change pas grd chose :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5539531
fragme-i'm​famous
Posté le 21-05-2007 à 08:12:01  profilanswer
 

Ouh la vous etes encore la a essayer en vain de comparer les 8800 au R600.... Y'a un moment faut peut-etre se rendre compte qu'elle n'a rien d'intéréssant face au 8800 et c'est pas sa consommation, son bruit et ses drivers immature qui pourront la sauver de quoi que ce soit, ceux qui veulent vraiment une Ati attendez le R650....

mood
Publicité
Posté le 21-05-2007 à 08:12:01  profilanswer
 

n°5539535
Gigathlon
Quad-neurones natif
Posté le 21-05-2007 à 08:16:00  profilanswer
 

god is dead a écrit :

Le véritable meilleur rapport qualité/prix du moment, c'est la x1950xt@170 euros, la HD 2900 XT @380 / 400 euros est intéressante, sans +.


Le bundle est pas dégueu quand même, mais bon, les coupons... :/
 
A l'inverse, les x19x0 de chez Powercolor n'ont aucun bundle.

n°5539649
fragme-i'm​famous
Posté le 21-05-2007 à 10:27:02  profilanswer
 


 
+1 chacun prend sa carte en fonction de ses résolution un gars qui prend un sli de 8800 GTX qui joue en 1280*1024 je trouve que c'est du beau gachis.

n°5539650
ITM
Avatar peint à la main
Posté le 21-05-2007 à 10:27:02  profilanswer
 

Ca m'a toujours fait marrer moi ces histoires de résolutions...
Déjà à l'époque on disait que ma X800XT était surdimensionnée pour le 1280*1024 de mon LCD : maintenant, je suis obligé de passer de plus en plus de jeux en 800*600  :sarcastic:  
Quoique déjà à l'époque les chutes à 30FPS dans FarCry étaient pas rares...

n°5539657
yvesc79
Posté le 21-05-2007 à 10:32:15  profilanswer
 

C'est à un temps T, évidemment les jeux sont toujours plus gourmands...

n°5539658
ftp381
ça fûme!
Posté le 21-05-2007 à 10:33:28  profilanswer
 

yvesc79 a écrit :

C'est à un temps T, évidemment les jeux sont toujours plus gourmands...

 


je plussoie.

n°5539659
angela-pcs
Posté le 21-05-2007 à 10:33:34  profilanswer
 

yvesc79 a écrit :

C'est à un temps T, évidemment les jeux sont toujours plus gourmands...

sont encoder sur des machines louées donc tres haut de gamme  

n°5539668
AbelJemka
Posté le 21-05-2007 à 10:37:46  profilanswer
 

god is dead a écrit :


Et, dans le test de iXBT, je ne vois que de grapshs en AA 4X / AF 16x.


http://www.digit-life.com/articles [...] part3.html
Les trois graphs du dessous avec des barres rose fuschia et bleu  qui vont de 1024x768 à 1600x1200 sous chaque test, dans les tableaux ce sont les lignes jaunes  ;)

n°5539670
ITM
Avatar peint à la main
Posté le 21-05-2007 à 10:39:07  profilanswer
 

yvesc79 a écrit :

C'est à un temps T, évidemment les jeux sont toujours plus gourmands...


Justement, quitte à claquer du pognon dans une CG, autant dimensionner pour que ça dure pas 1 mois  [:spamafote] Et puis l'exemple de FC à l'époque est toujours valable avec les jeux d'aujourd'hui : franchement, rien qu'à voir les perfs des nouvelles CGs en 1680*1050 sur les derniers jeux, j'aurais aucun scrupule à en foutre une sur un LCD en 1280*1024, faut pas déconner :o

n°5539671
Fire217
Posté le 21-05-2007 à 10:39:35  profilanswer
 

Ca y est moi j'ai craqué pour une HD 2900 XT  :D
 
la ressoit mardi prochain...

n°5539674
tuxerman12
Posté le 21-05-2007 à 10:41:46  profilanswer
 

angela-pcs a écrit :

sont encoder sur des machines louées donc tres haut de gamme


 
 
Difficile de développer un jeu dx 10 sur un P3 / 256 MO sdr / Geforce 2  :sarcastic: , logiquement les développeurs de (certains) jeux travaillent sur du hardware très haut de gamme .

n°5539676
angela-pcs
Posté le 21-05-2007 à 10:42:58  profilanswer
 

A oui c'est certain en effet ^^

n°5539680
tuxerman12
Posté le 21-05-2007 à 10:45:42  profilanswer
 

Des jeux réclamant peu de ressources sortent aussi , mais on en parle pas sur ce genre de topic :D

n°5539682
ftp381
ça fûme!
Posté le 21-05-2007 à 10:46:13  profilanswer
 

en tout cas il faut arrêter de s'étonner de l'achat d'une CG haut de gamme quand on a un écran en réso "basse" (jusqu'à 1280*1024) car admettez que l'élément le plus facile à upgrader c'est bien lui!!!
 
et avec l'arrivée annoncée de 24" (1920*1200...) à 500 roros miam miam.
 
donc partir sur une bonne CG ça se tient ;).

n°5539686
tuxerman12
Posté le 21-05-2007 à 10:48:34  profilanswer
 

+1 , je me suis tapé 3 générations de cartes graphiques , et 2 générations de CPU , et je joue toujours sur un CRT 17' :)

Message cité 1 fois
Message édité par tuxerman12 le 21-05-2007 à 10:51:36
n°5539696
AbelJemka
Posté le 21-05-2007 à 10:54:18  profilanswer
 

god is dead a écrit :


Bref, t'as le droit d'avoir tes propres opinion, mais la HD 2900 XT est autant valable qu'une GTS 640, tout dépend des critères que l'on s'est fixé, qui par nature ne sont pas universels mais propres à chacun.


C'est mon opinion clairement exprimer et mes critéres sont également fixés. Si tu avez pris le temps de lire tu aurais vu mes critéres dés le début tout comme tu aurais les graphs concernés. Je vais te remettre mes critére de choix :
meilleurs rapport performance/prix pour ceux qui recherchent le meilleur rapport qualité d'image/performance loin devant la 8800GTS pour Vista et carte DirectX10.  

n°5539712
ITM
Avatar peint à la main
Posté le 21-05-2007 à 11:09:54  profilanswer
 

Faut voir ce qu'on appelle qualité d'image aussi. Si t'es obligé de faire un screenshot et passer 10 secs pour voir la différence avec le rendu d'une autre carte, j'appelle pas ça un critère de sélection pertinent.

Message cité 1 fois
Message édité par ITM le 21-05-2007 à 11:21:54
n°5539724
AbelJemka
Posté le 21-05-2007 à 11:22:07  profilanswer
 

Tous les tests qui se sont intéréssés aux filtres ont trouvés la qualité du filtre 8X meilleur sur la 2900XT et  la qualité de filtrage supérieur au X1000 mais inférieur au 8800. Tu peux considérer que ce n'est pas un critére pertinent ce qui revient à tester les cartes en "pure speed", sans les filtres. Je te laisses juge pour le meilleur rapport qualité/prix dans ce mode.

n°5539739
ftp381
ça fûme!
Posté le 21-05-2007 à 11:27:49  profilanswer
 

ITM a écrit :

Faut voir ce qu'on appelle qualité d'image aussi. Si t'es obligé de faire un screenshot et passer 10 secs pour voir la différence avec le rendu d'une autre carte, j'appelle pas ça un critère de sélection pertinent.

 


:jap:

n°5539744
Gigathlon
Quad-neurones natif
Posté le 21-05-2007 à 11:33:10  profilanswer
 

tuxerman12 a écrit :

Difficile de développer un jeu dx 10 sur un P3 / 256 MO sdr / Geforce 2


Rien n'empêche de le faire, voire même sous nux tant qu'on y est :o
 
Après, vu qu'on a besoin d'une machine haut de gamme pour tester, forcément... [:yamusha]  


Message édité par Gigathlon le 21-05-2007 à 11:35:03
n°5539752
kikou
Oui, j'ai un pseudo de merde:/
Posté le 21-05-2007 à 11:40:13  profilanswer
 

tuxerman12 a écrit :

+1 , je me suis tapé 3 générations de cartes graphiques , et 2 générations de CPU , et je joue toujours sur un CRT 17' :)


bah un 17 pouces affiche autant qu'un 19 pouces et fait en hauteur la taille d'un 20 pouces wide, donc rien de bien folichon.
une X1950XT devrait te suffir pour jouer  :jap:


---------------
Mes Ventes - Battletag : Sove#2123
n°5539758
tuxerman12
Posté le 21-05-2007 à 11:45:07  profilanswer
 

kikou a écrit :

bah un 17 pouces affiche autant qu'un 19 pouces et fait en hauteur la taille d'un 20 pouces wide, donc rien de bien folichon.
une X1950XT devrait te suffir pour jouer  :jap:


 
J' ai une PRO , ça suffira jusqu' à ce que je change tout .

n°5539763
matthiman
de Gilead
Posté le 21-05-2007 à 11:49:08  profilanswer
 

sur du 17/19" la pro est suffisante pour la plupart des jeux et la xt parfaite pour jouer à tout à fond
par contre sur mon 20" en 1680*1050 là ma xt montre clairement ses limites et je vais devoir passer à la 8800 :/


---------------
Ventes - Feedback
n°5539936
rycky
Posté le 21-05-2007 à 13:06:05  profilanswer
 

AbelJemka a écrit :

Tous les tests qui se sont intéréssés aux filtres ont trouvés la qualité du filtre 8X meilleur sur la 2900XT et  la qualité de filtrage supérieur au X1000 mais inférieur au 8800. Tu peux considérer que ce n'est pas un critére pertinent ce qui revient à tester les cartes en "pure speed", sans les filtres. Je te laisses juge pour le meilleur rapport qualité/prix dans ce mode.

Entre le FSAA 8X et le pure speed sans filtres il y a aussi des paliers... D'ailleurs la plupart du temps vu l'apport de l'AA 8X sur le 4X surtout compte tenu des pertes engendrées et de la gourmandise croissante des moteurs on se contente rapidement du 4X. Difficile dans ces conditions de parler d'un avantage qualitatif pour l'une ou l'autre. PPC qui détaille cet aspect dans chaque jeu semble même donner plus souvent l'avantage en 4X aux 8800 qu'au 2900! http://www.presence-pc.com/tests/A [...] -22674/19/
 
Donc en tout honneteté tu peux donner un avantage qualitatif  à la 2900 en AA 8x mais en pratique compte tenu de la difficulté croissante à employer un AA > 4x dans les résolutions élevées auxquelles se destinent ces cartes dans les jeux récents je crois que l'on peut plus parler de status quo niveau qualitatif. [:spamafote]  

n°5540002
X800PRO
Posté le 21-05-2007 à 13:32:25  profilanswer
 

matthiman a écrit :

sur du 17/19" la pro est suffisante pour la plupart des jeux et la xt parfaite pour jouer à tout à fond
par contre sur mon 20" en 1680*1050 là ma xt montre clairement ses limites et je vais devoir passer à la 8800 :/


 
 
Yes passe a la 8800  :D

n°5540011
Yalouf
Posté le 21-05-2007 à 13:36:33  profilanswer
 

Bah du AA 24x sur Q3 et COD1 c'est pas mal !!!
Dans 6 mois on baissera l'aa sur 2x, et dans 1 an et demi on mettra plus d'AA avec ces cartes.

n°5540019
AbelJemka
Posté le 21-05-2007 à 13:39:01  profilanswer
 

rycky a écrit :

Entre le FSAA 8X et le pure speed sans filtres il y a aussi des paliers... D'ailleurs la plupart du temps vu l'apport de l'AA 8X sur le 4X surtout compte tenu des pertes engendrées et de la gourmandise croissante des moteurs on se contente rapidement du 4X. Difficile dans ces conditions de parler d'un avantage qualitatif pour l'une ou l'autre. PPC qui détaille cet aspect dans chaque jeu semble même donner plus souvent l'avantage en 4X aux 8800 qu'au 2900! http://www.presence-pc.com/tests/A [...] -22674/19/
 
Donc en tout honneteté tu peux donner un avantage qualitatif  à la 2900 en AA 8x mais en pratique compte tenu de la difficulté croissante à employer un AA > 4x dans les résolutions élevées auxquelles se destinent ces cartes dans les jeux récents je crois que l'on peut plus parler de status quo niveau qualitatif. [:spamafote]


Qu'est ce qui justifie l'achat d'une GTX plutôt que celui d'une GTS 320? L'augmentation de la qualité visuelle. Comme m'ont clairement expliquer les possesseurs de GTS 320 sur certains jeux ils sont obliger de faire des concession aux niveaux des options graphiques là ou le possesseur de GTX n'aura pas à le faire. Cela n'empeches pas une GTX de se promener au dessus des 100fps dans 80% des jeux. D'où l'ajout des filtres pour encore augmenter la qualité visuelle. Les tests d'Hardware.fr et de Xbitslabs que j'ai utilisé dans mon exemple soulignes le faît que la différence entre l'AA 4X et AA 8X est notable donc à partir du moment ou l'expérience de jeu restes présente qu'est qui empeches d'utiliser ces options de filtrages?
 
@Ash_95 : on est sur forum pour débattre. Le minimum serait d'essayer de suivre une conversation du dévut au lieu de bêtement réagir au dernier post.

n°5540032
matthiman
de Gilead
Posté le 21-05-2007 à 13:43:19  profilanswer
 

X800PRO a écrit :

Yes passe a la 8800  :D


 
donne moi des sous, tu bosses toi maintenant :lol:


---------------
Ventes - Feedback
n°5540056
rycky
Posté le 21-05-2007 à 13:58:07  profilanswer
 

AbelJemka a écrit :

Qu'est ce qui justifie l'achat d'une GTX plutôt que celui d'une GTS 320? L'augmentation de la qualité visuelle. Comme m'ont clairement expliquer les possesseurs de GTS 320 sur certains jeux ils sont obliger de faire des concession aux niveaux des options graphiques là ou le possesseur de GTX n'aura pas à le faire. Cela n'empeches pas une GTX de se promener au dessus des 100fps dans 80% des jeux. D'où l'ajout des filtres pour encore augmenter la qualité visuelle. Les tests d'Hardware.fr et de Xbitslabs que j'ai utilisé dans mon exemple soulignes le faît que la différence entre l'AA 4X et AA 8X est notable donc à partir du moment ou l'expérience de jeu restes présente qu'est qui empeches d'utiliser ces options de filtrages?
 
@Ash_95 : on est sur forum pour débattre. Le minimum serait d'essayer de suivre une conversation du dévut au lieu de bêtement réagir au dernier post.

Pour moi ce qui différencie l'achat d'une GTS et d'une GTX c'est l'écran qui va lui être associé, une GTX se destine clairement aux résolutions 1920 et plus quand la GTS s'associe généralement aux résolutions inférieures avec une qualité visuelle similaire.
 
Sinon mon propos était basé sur mon expérience personnelle et si je t'ai écrit que le 4x était préférable au 8x c'est tout simplement que dans la plupart des jeux que j'utilise à la résolution native de mon écran  la différence de fluidité entre les 2 est loin d'être négligeable surtout compte tenu de l'apport qualitatif que je trouve limité lorsque l'on joue. (c'est sur en zoomant sur une image on verra la différence mais ma carte me sert à jouer [:spamafote] )  
 
Et pourtant ma 8800 est OC et le reste de ma config suit donc voilà c'est mon opinion après libre à toi de croire que tu pourras profiter de l'AA8x dans les jeux récents aux hautes résolutions mais je crains que comme bcp tu reviennes vite au 4x et donc plus d'avantage qualitatif. (qui en jeu ne doit de toute façon pas être si flagrant que cela à mon avis)
 
Comme dit cela n'est que mon opinion et je conçois que tu en es une autre, la pratique te permettra de te faire une idée plus précise lorsque tu joueras dans les conditions que je te décris.  ;)

Message cité 1 fois
Message édité par rycky le 21-05-2007 à 14:00:26
n°5540065
Gigathlon
Quad-neurones natif
Posté le 21-05-2007 à 14:01:25  profilanswer
 

Euh non, pas besoin de zoom pour voir une différence entre un AA 4x et un AA 8x, faut pas exagérer...
 
En 4x tu auras encore pas mal d'aliasing, le 8x en enlèvera encore une bonne partie. Après, si on est sur un CRT (genre un A702HT@1600x1200 ou un 19" en 1920x1440) on fera pas forcément la différence, mais y'a vraiment pas besoin d'une loupe pour différencier AA 4x et 8x.

n°5540073
rycky
Posté le 21-05-2007 à 14:04:36  profilanswer
 

Alors je dois avoir de mauvais yeux mais à part à me concentrer sur les détails plutôt que jouer, je persiste en ne trouvant pas d'ecart significatif sur mon ecran entre un AA4x et 8x contrairement à la différence pas d'AA vs AA4X là flagrant. [:spamafote]


Message édité par rycky le 21-05-2007 à 14:06:55
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  409  410  411  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)