Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2358 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  443  444  445  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5628559
toto le su​per hero
Your life is just a choice
Posté le 03-07-2007 à 16:02:38  profilanswer
 

Reprise du message précédent :
Oui 50x sur une partie du traitement global qui selon la criticité de cette partie peut se terminer par un gain de 3 ou 5%. Ca peut aller plus haut mais je pense pas que ca depasse les 20%/25%. On est loin d'etre a la rue !

mood
Publicité
Posté le 03-07-2007 à 16:02:38  profilanswer
 

n°5628601
Althaz
Posté le 03-07-2007 à 16:17:54  profilanswer
 

toto le super hero a écrit :

Oui 50x sur une partie du traitement global qui selon la criticité de cette partie peut se terminer par un gain de 3 ou 5%. Ca peut aller plus haut mais je pense pas que ca depasse les 20%/25%. On est loin d'etre a la rue !


 
En fait le risque c'est que la prochaine génération tant chez NVidia que ATI soit porté sur ce type de calcul et qu'un jeu sortent qui les utiliseraient massivement. Ce jeu ne serait alors probablement pas jouable avec une 8800 et parfaitement jouable avec la 2900XT. (un peu comme a l'époque des 5xxx sous Dx9 mais en pire encore  :D  
 
Pour le moment ce cas de figure n'est pas un risque et une bonne partie des gamers auront changé de carte d'ici là.


Message édité par Althaz le 03-07-2007 à 16:19:01

---------------
TESO @Althaz
n°5628672
Gigathlon
Quad-neurones natif
Posté le 03-07-2007 à 16:52:47  profilanswer
 

kaiser52 a écrit :

Oui mais ca veut dire quoi ca ???
 

Citation :

Pour leur permettre de rester dans le GPU, les GeForce 8 doivent réduire le nombre d'éléments traités en parallèle. Ainsi, un groupe de 8 processeurs scalaires, pour avoir un rendement optimal, doit selon Nvidia contenir au moins 192 éléments (vertices ou pixels) qui se répartissent les 8192 registres 32 bits disponibles. Avec l'amplification géométrique qui permet de générer 1024 valeurs 32 bits par polygone, on comprend aisément que le nombre d'éléments sera bien inférieur à 192, ce qui réduit fortement la puissance de calcul effective.


 
Ca veut dire que sur des scenes moyenement chargé elle sera à la rue, et que sur une scene énormemet chargé (j'entend par la qui remplis de 192 éléments les 8 processeur scalair), elle aura une performance optimal donc plus à la rue.


C'est tout l'inverse en fait [:yamusha]  
 
Si on divise un polygone en 2, aucun problème, si on le divise en 4, idem...
 
Par contre, quand on augmente le niveau de précision les données croissent exponentiellement et on finit par devoir réduire le nombre de calculs au sein d'une unité, le seul souci c'est qu'il en faut 192+...
 
Ce type de calculs est par exemple utilisable pour des explosions ou des déformations (bump mapping), parfois dynamiques (ondes sur l'eau, plis de vêtements...), dans ces cas il faut une précision élevée et donc une multiplication sensible du nombre de triangles si on veut un résultat décent.
 
 

toto le super hero a écrit :

Oui 50x sur une partie du traitement global qui selon la criticité de cette partie peut se terminer par un gain de 3 ou 5%. Ca peut aller plus haut mais je pense pas que ca depasse les 20%/25%. On est loin d'etre a la rue !


Quand on expose des fonctionnalités, y'a plutôt intérêt qu'elles soient utilisables, non?
 
Ah mais mince, le NV30 était pas un supayr GPU plein de fonctionnalités au fait, avec support HDR et tout et tout? [:ddr555]

Message cité 1 fois
Message édité par Gigathlon le 03-07-2007 à 16:56:26
n°5628685
kaiser52
Posté le 03-07-2007 à 16:58:33  profilanswer
 

Oki je vien de comprendre,
 
Ca veut dire que quand la précision augmente, les unitées peuvent faire de moin en moin de calcul, donc réduire les Gflops, le tous de façon exponentiel, donc tant que l'on peut avoir 192 ou plus opérations par unitée c'est bon sinon Hasta la Vista Baby.
 
edit :
 

Citation :

Quand on expose des fonctionnalités, y'a plutôt intérêt qu'elles soient utilisables, non?
Ah mais mince, le NV30 était pas un supayr GPU plein de fonctionnalités au fait, avec support HDR et tout et tout? [:ddr555]


 
Faut arreter de comparer le G80 au NV30. Sur le NV30 c'est toutes les fonctionnalitées DX9 qui chiai* des bulles. La y'à un truc qui cloche, mais le jour ou on trouvera un contexte pour utiliser ca dans l'abus les G80 et R600 seront loin.
 
Car même Tridam Dit :

Citation :

Nvidia ne les incitera bien entendu pas à en abuser.


 
Ca veut bien dire que ces testes synthétique les utilisaient abusivement, donc en utilisation dite normal il y aura pas de soucis.
 
On peut dire pareil de R600, "" c'est vrai que le AYRE600 est un super méga GPU de la mort qui fera 2fois les perfs d'une GTX "".
Bah oui, on se rend bien compte qu'il est 2fois plus perfs, dans + de 80% des cas dérriere une GTX.....
 
Au final c'est des spéculation et des testes dans des conditions qui ne refletent pas les jeux. C'est exactement comme se baser sur 3Dmark.
J'attend de voir se que ca donne dans les vrai Jeux DX10.

Message cité 1 fois
Message édité par kaiser52 le 03-07-2007 à 17:07:54

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5628706
Gigathlon
Quad-neurones natif
Posté le 03-07-2007 à 17:08:02  profilanswer
 

kaiser52 a écrit :

Oki je vien de comprendre,
 
Ca veut dire que quand la précision augmente, les unitées peuvent faire de moin en moin de calcul, donc réduire les Gflops, le tous de façon exponentiel, donc tant que l'on peut avoir 192 ou plus opérations par unitée c'est bon sinon Hasta la Vista Baby.


1- initialement: 1 polygone = 1 registre.
2- division N°1: 2 polygones = 2 registres
3- division N°2: 4 polygones = 4 registres
4- division N°3: 8 polygones = 8 registres
5- division N°4: 16 polygones = 16 registres
 
On arrive déjà à 16x192=3072 registres utilisés, la prochaine subdivision sera la dernière à plein rendement, et ça c'est en admettant que le bridage ne soit pas fait à la barbare, ce qui n'est à priori pas du tout le cas... (dès qu'on parle de GS, le gpu se bloquerait à 8 éléments)

n°5628788
threesixma​fia
psn id: gengis
Posté le 03-07-2007 à 17:44:26  profilanswer
 


 
http://www.hothardware.com/article [...] ce/?page=4
à 180 euros si j'en juge les résultats du crossfire de ce site cette carte devrait être très intéressante


---------------
Dogs that I call my friends Praying for all my friends Things I do for my friends We miss U
n°5628795
god is dea​d
Demain, j'arrête de poster.
Posté le 03-07-2007 à 17:45:54  profilanswer
 

Tant que la X1950 XT sera là, non :d


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5628807
threesixma​fia
psn id: gengis
Posté le 03-07-2007 à 17:49:35  profilanswer
 

elle restera surement pas longtemps à 180 euros :p
puis la xt va bien disparaitre un jour


---------------
Dogs that I call my friends Praying for all my friends Things I do for my friends We miss U
n°5628816
god is dea​d
Demain, j'arrête de poster.
Posté le 03-07-2007 à 17:52:20  profilanswer
 

Ca fait quelque temps qu'elle est à moins de 200 euros, c'est pas une promo, c'est son prix "normal" maintenant.
Espérons que d'ici là on aura du vrai milieu de gamme, parce que le truc Gemini c'est de la mauvaise impro :/

Message cité 1 fois
Message édité par god is dead le 03-07-2007 à 17:53:09

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5628822
toto le su​per hero
Your life is just a choice
Posté le 03-07-2007 à 17:53:35  profilanswer
 

Gigathlon a écrit :


 
Quand on expose des fonctionnalités, y'a plutôt intérêt qu'elles soient utilisables, non?
 
Ah mais mince, le NV30 était pas un supayr GPU plein de fonctionnalités au fait, avec support HDR et tout et tout? [:ddr555]


 
Ou t'as vu que la fonctionnalité n'y etait pas. Elle est bien presente, son implementation est juste moins performante que celle d'ATI. Mais une carte graphique c'est un tout, c'est pas parce que sur une etape du rendu le R600 est 50x plus rapide que le G80 que le nombre de fps est pus élévé.
 
Avant sa sortie on nous a exposé de nombreuse fois que sur le papier, le R600 explosait le G80 grace a sa bande passante enorme et a sa puissance de calcul superieur, etc, etc ! Entre les estimation sur le papier et la réalité il y a parfois des surprises (celle que nous avait promis ATI ?).
 
Donc avant de dire que le G80 sera à la rue sur des jeu Dx10 un peu poussé parce qu'une unité du R600 est 50x plus rapide, attendez d'avoir c'est dit jeu. Il est en plus fort probable que lorsque de tel jeu sortiront, on sera surement a la prochaine generation de carte voir a la suivante (en tous cas chez NVidia, oops dsl je troll :D)

mood
Publicité
Posté le 03-07-2007 à 17:53:35  profilanswer
 

n°5628830
threesixma​fia
psn id: gengis
Posté le 03-07-2007 à 17:56:14  profilanswer
 

god is dead a écrit :

Ca fait quelque temps qu'elle est à moins de 200 euros, c'est pas une promo, c'est son prix "normal" maintenant.
Espérons que d'ici là on aura du vrai milieu de gamme, parce que le truc Gemini c'est de la mauvaise impro :/


tu préféres la 8600 gts qui vaut le même prix?


---------------
Dogs that I call my friends Praying for all my friends Things I do for my friends We miss U
n°5628836
god is dea​d
Demain, j'arrête de poster.
Posté le 03-07-2007 à 17:59:29  profilanswer
 

Elle est dans les 150 euros maintenant.
Sinon, je ne veux ni de la peste ni du choléra.
Je préfèrerais une X1950 d'occas, à défaut de neuf, et de loin. DX10 attendra, et de toute façon il attendra si on veut vraiment en profiter.
 
Ces 8600 et 2600 sont moisies toutes les deux, pas de jaloux :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5628853
threesixma​fia
psn id: gengis
Posté le 03-07-2007 à 18:11:22  profilanswer
 

god is dead a écrit :

Elle est dans les 150 euros maintenant.
Sinon, je ne veux ni de la peste ni du choléra.
Je préfèrerais une X1950 d'occas, à défaut de neuf, et de loin. DX10 attendra, et de toute façon il attendra si on veut vraiment en profiter.
 
Ces 8600 et 2600 sont moisies toutes les deux, pas de jaloux :o


http://www.rueducommerce.fr/compos [...] roup_id=27
170 euros la moins cher.
après je suis quand même étonné dans le test en crossfire la 2600 double pratiquement à chaque fois son single score


---------------
Dogs that I call my friends Praying for all my friends Things I do for my friends We miss U
n°5628940
chris282
id steam/psn : chris282_fr
Posté le 03-07-2007 à 18:54:34  profilanswer
 

RDC  c pas les moins chers a mon avis...

n°5629058
MacIntoc
tu lis une phrase formidable.
Posté le 03-07-2007 à 19:55:45  profilanswer
 

toto le super hero a écrit :

Ou t'as vu que la fonctionnalité n'y etait pas. Elle est bien presente, son implementation est juste moins performante que celle d'ATI. Mais une carte graphique c'est un tout, c'est pas parce que sur une etape du rendu le R600 est 50x plus rapide que le G80 que le nombre de fps est pus élévé.
 
Avant sa sortie on nous a exposé de nombreuse fois que sur le papier, le R600 explosait le G80 grace a sa bande passante enorme et a sa puissance de calcul superieur, etc, etc ! Entre les estimation sur le papier et la réalité il y a parfois des surprises (celle que nous avait promis ATI ?).
 
Donc avant de dire que le G80 sera à la rue sur des jeu Dx10 un peu poussé parce qu'une unité du R600 est 50x plus rapide, attendez d'avoir c'est dit jeu. Il est en plus fort probable que lorsque de tel jeu sortiront, on sera surement a la prochaine generation de carte voir a la suivante (en tous cas chez NVidia, oops dsl je troll :D)


On avait pas d'info sur sa puissance en texturing à l'époque et c'est précisément sur ce point que le R600 est limité. Si on enlève cette déficience de l'équation, les affirmations de l'époque se révèlent effectivement juste (il n'y a qu'a voir les jeux qui utilisent très peu de texture comme R6V ou TDU pour s'en rendre compte). Une fois qu'on a eu les infos concernant les unités de texturing et de filtrage (à la sortie des tests, donc), effectivement la puissance de calcul et la bande passante deviennent largement bridé par la puissance en texturing.
En effet, le TWIMTBP n'existe pas pour rien, nVidia fera tout pour que les équipes de dev ne tapent pas encore trop dans les spécificités de Dx10 [:spamafote]

n°5629089
vlad drac
Posté le 03-07-2007 à 20:09:04  profilanswer
 

toto le super hero a écrit :

Donc avant de dire que le G80 sera à la rue sur des jeu Dx10 un peu poussé parce qu'une unité du R600 est 50x plus rapide, attendez d'avoir c'est dit jeu. Il est en plus fort probable que lorsque de tel jeu sortiront, on sera surement a la prochaine generation de carte voir a la suivante(en tous cas chez NVidia, oops dsl je troll :D)


 
 :jap:  
 
Et basta.

n°5629103
kaiser52
Posté le 03-07-2007 à 20:13:42  profilanswer
 

Citation :

On avait pas d'info sur sa puissance en texturing à l'époque et c'est précisément sur ce point que le R600 est limité. Si on enlève cette déficience de l'équation, les affirmations de l'époque se révèlent effectivement juste (il n'y a qu'a voir les jeux qui utilisent très peu de texture comme R6V ou TDU pour s'en rendre compte). Une fois qu'on a eu les infos concernant les unités de texturing et de filtrage (à la sortie des tests, donc), effectivement la puissance de calcul et la bande passante deviennent largement bridé par la puissance en texturing.
En effet, le TWIMTBP n'existe pas pour rien, nVidia fera tout pour que les équipes de dev ne tapent pas encore trop dans les spécificités de Dx10 [:spamafote]


 
Moi je dis rien, pour l'instant, se qu'on à devant les yeux c'est une R600 dépassé par une GTX qui à maintenant 9mois ou un truc du genre d'écart de sortie, et pourtant je suis quasiment persuadé que le commencement des deux carte est le même (il y à sans doute 4/5ans).
Elle fait 500Gflops, et la GTX 350Gflops, une chiffre qui leur à permis de speculer qu'elle serait 2fois plus performante dans le meillieur des cas.
Apres des Si on peut en faire beaucoup, "Si" le G80 avait des unitées Vect5 (comme le R600 donc) il serait 2 fois plus puissant, si le R600 avait pas des rops foireux etc....
 
Pour les GS, je pense que si l'on utilisait une dose tellement énorme qu'elle ferait saturé le G80, si le reste suit, je suis quasiment sur que la 2900 sera déjas à genoux avec la charge du reste, donc 2fps pour la GTX pourrait se solder par 10fps sur une 2900... et encor...


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5629129
bjone
Insert booze to continue
Posté le 03-07-2007 à 20:23:24  profilanswer
 

oui enfin, le Geometry Shader et la tessellation dans la théorie c'est cool (quoi que la tessellation de manière générale ça peut poser des problèmes de cohérence), mais c'est pas une finalité.
 
le fait que le geforce 8 est mieux budgetisé par rapport aux besoins actuels et au futur immédiat. (comme l'était la radeon 9700 a son époque)
 

n°5629226
MacIntoc
tu lis une phrase formidable.
Posté le 03-07-2007 à 20:54:54  profilanswer
 

kaiser52>On aurait eu les infos sur le texturing au même moment qu'on a eu les infos sur les shaders et le bus, on aurait probablement moins parlé du R600 :)
 
bjone>Exact. ATI a un peu trop poussé la puissance de calcul brut au détriment de de la puissance en texturing. Les ingés de nVidia on comprit que, finalement, c'était le texturing qui bridait les perfs des GPU.
 
marllt2>Sauf que le représentant n'a jamais parlé de 1Gflops, si je ne m'abuse, mais de deux fois la puissance du G80 GTX, annoncé par nVidia a 500Gflops (donc on retrouve bien implicitement nos 1Tflops). Sauf que le G80 développe réellement 350Gflops. Ce qui fairait un G92 à 700Gflops si nVidia ne revoit pas son archi.

n°5629401
kaiser52
Posté le 03-07-2007 à 22:06:43  profilanswer
 

Hé bé elle est bizzar la HD 2400XT !
Il manque de la matiere là !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5629466
kaiser52
Posté le 03-07-2007 à 22:46:52  profilanswer
 

Ca depend, la GTX c'est 350 + MAD, c'est pas pareil, si on par dans ce sence, elle pourrait bien froller le Teraflop.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5629678
hakxe
Belgium compliant
Posté le 04-07-2007 à 02:45:19  profilanswer
 

Pour 100€, 8600gt ou hd2600xt? :o
 
Config multimédia / jeux modérés (Sims 2, ptete un coup d'Oblivion aussi), oc envisageable, 1440*900 (sans filtre), silence et basse consommation requise, peut etre du linux à terme.
 
Je me tâte.  
 
Je pencherais plutot pour la 8600Gt et ses drivers largement plus aboutis sous GNU/linux

n°5629737
god is dea​d
Demain, j'arrête de poster.
Posté le 04-07-2007 à 08:33:53  profilanswer
 

Pour 100 euros, une X1950 PRO 256 à 110 euros
 :o

Message cité 1 fois
Message édité par god is dead le 04-07-2007 à 08:37:47

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5629741
Gigathlon
Quad-neurones natif
Posté le 04-07-2007 à 08:38:38  profilanswer
 

toto le super hero a écrit :

Ou t'as vu que la fonctionnalité n'y etait pas. Elle est bien presente, son implementation est juste moins performante que celle d'ATI. Mais une carte graphique c'est un tout, c'est pas parce que sur une etape du rendu le R600 est 50x plus rapide que le G80 que le nombre de fps est pus élévé.


Sauf que là on a la même chose que pour le HDR & co avec la série FX, les fonctionnalités étaient là mais limitées en perfs par un manque de registres...
 
Maintenant, en effet on ne sait pas ce qui va venir, et justement c'est bien là le problème: la 2900xt tient d'ores et déjà la comparaison avec la 8800gts, ce qui est plutôt pas mal en considérant son gros manque d'unités de filtrage de textures, alors quel intérêt de prendre une GTX certes actuellement plus performante mais à la fois sensiblement plus chère et dont on sait qu'elle a un (gros) problème avec une des fonctionnalités principales de DX10? (le SM4.0 est très proche du SM3.0 à part ça, il apporte juste la possibilité de réaliser des shaders encore plus complexes)

n°5629750
god is dea​d
Demain, j'arrête de poster.
Posté le 04-07-2007 à 08:55:16  profilanswer
 

Pour qqn qui garde sa carte moins d'un 1an et qui veut jouer à tous les jeux DX9 à fond, l'achat d'une GTX est tout à fait envisageable. Après si on veut se projeter dans l'avenir, le R600 est peut ete mieux, ou pas, tout dépendra des jeux dx10 et de leur gourmandise. Mais si c'est pour se retrouver cantonner à du 1024 + quelques filtres, bof, autant attendre la deuxième génération de gpu dx10. Le passage@DX10 va faire tout drôle pour ceux qui possèdent, et ils sont nombreux, des écrans 20/22/24", ça va être plutôt délicat de jouer en 1680/1920 avec un g80 ou un r600 :whistle:  
 
Perso j'ai jamais pris une carte en vue de jeux futurs, mais pour jouer maintenant, c'est encore plus vrai qd il s'agit de la première fournée gpu d'une nouvelle api, pour laquelle il ne faut pas s'attendre à des perfs exemplaires. Même si la 9800pro était une carte DX9 de loin meilleure que sa concurrente, dépassé le 1024 + filtres c’était très limite, sous Far Cry, Doom3 et même HL2 par moment, la fluidité ètait relativement médiocre, remplacée très avantageusement par une x800pro@16pipes.

Message cité 1 fois
Message édité par god is dead le 04-07-2007 à 08:59:26

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5629759
Gigathlon
Quad-neurones natif
Posté le 04-07-2007 à 09:05:43  profilanswer
 

god is dead a écrit :

Pour qqn qui garde sa carte moins d'un 1an et qui veut jouer à tous les jeux DX9 à fond, l'achat d'une GTX est tout à fait envisageable. Après si on veut se projeter dans l'avenir, le R600 est peut ete mieux, ou pas, tout dépendra des jeux dx10 et de leur gourmandise. Mais si c'est pour se retrouver cantonner à du 1024 + quelques filtres, bof, autant attendre la deuxième génération de gpu dx10.


On ne sait pas trop ce qui va évoluer d'ici la 2e génération, mais perso je table pas sur une augmentation drastique des perfs...
 
1 miyiard de transistors, ça va être chaud de faire plus avant fin 2008 (et encore), et que ça soit chez nVidia ou AMD on en est déjà très proches.
 
Si on regarde les R600 et RV630 par exemple, on arrivera à 1 miyiard avec un GPU à peine plus gros que le R600, avec certes un peu plus de puissance de calcul et d'unités auxilliaires mais pas le double comme on a pu le voir entre R300 et R420. De ce côté ATI avait déjà prévu le coup à priori et devrait faire évoluer ses GPU vers un ensemble d'unités séparées physiquement (calcul d'une part et texturing/rasterizer d'autre part, éliminant les ROPs telles qu'on les connaît)

n°5629849
toto le su​per hero
Your life is just a choice
Posté le 04-07-2007 à 10:25:01  profilanswer
 

Gigathlon a écrit :

Sauf que là on a la même chose que pour le HDR & co avec la série FX, les fonctionnalités étaient là mais limitées en perfs par un manque de registres...
 
Maintenant, en effet on ne sait pas ce qui va venir, et justement c'est bien là le problème: la 2900xt tient d'ores et déjà la comparaison avec la 8800gts, ce qui est plutôt pas mal en considérant son gros manque d'unités de filtrage de textures, alors quel intérêt de prendre une GTX certes actuellement plus performante mais à la fois sensiblement plus chère et dont on sait qu'elle a un (gros) problème avec une des fonctionnalités principales de DX10? (le SM4.0 est très proche du SM3.0 à part ça, il apporte juste la possibilité de réaliser des shaders encore plus complexes)


 
Ben l'interet de prendre une GTX maintenant c'est de pouvoir jouer correctement sur un 24" ou plus, sans parler du bruit ou de la consomation. En dessous c'est sur qu'une 2900xt peu etre interessante pour son eventuel progression avec les jeu Dx10.
 
Maintenant, pour ceux qui ont deja une 8800, il serait idiot de changer pour une 2900xt a cause de son potentiel en GS (qui reste encore a demontrer), parce que le G80 ne sera pas a la rue avant un momment et que pour changer il vaut mieux attendre la prochaine generation de carte !

n°5629882
ftp381
ça fûme!
Posté le 04-07-2007 à 10:45:07  profilanswer
 

en DX9 le G80 devrait tenir un moment.
 
en DX10 on l'espère tous, mais pas de garantie...

n°5629885
AbelJemka
Posté le 04-07-2007 à 10:45:58  profilanswer
 

Quand on parles de GTX, il vaut mieux eviter l'argument conso c'est pas réaliste.

n°5629888
ftp381
ça fûme!
Posté le 04-07-2007 à 10:47:41  profilanswer
 

effectivement, l'encombrement est plus souvent génant que la conso dans nos config.

n°5629912
toto le su​per hero
Your life is just a choice
Posté le 04-07-2007 à 11:07:31  profilanswer
 

AbelJemka a écrit :

Quand on parles de GTX, il vaut mieux eviter l'argument conso c'est pas réaliste.


 
Il reste pourtant vrai qu'elle consomme moins qu'une 2900xt pour de meilleur perfs.
 

ftp381 a écrit :

effectivement, l'encombrement est plus souvent génant que la conso dans nos config.


 
Il me semble que la 2900xt ne fait pas beaucoup mieux. En gros si on veut une carte haut de gamme aujourd'hui, il faut avoir un boitier adequate malheureusement.
 

n°5629916
Profil sup​primé
Posté le 04-07-2007 à 11:08:48  answer
 

un ptit Thermaltake Mozart TX !

n°5629919
Profil sup​primé
Posté le 04-07-2007 à 11:12:15  answer
 

ftp381 a écrit :

effectivement, l'encombrement est plus souvent génant que la conso dans nos config.


 
 
pour ce qui me regarde c est plutot le contraire.... :o  
 
la conso est plus inmportante que l encombrement.
 
l emcombrement c est la taille de la carte point barre.
 
la conso a des facteurs differents qui sont la t°, les voltages, la dissipation... qui sont des criteres plus important pour moi,  que l esthetique de la carte ou sa dimension.
 
certes la plus part du temps ces deux facteurs conso/dimensions sont liees, mais ne sont independant entre eux. :jap:  

n°5629929
ftp381
ça fûme!
Posté le 04-07-2007 à 11:17:19  profilanswer
 

je parle de l'encombrement car la gtx présente l'inconvénient de faire 27cm et que dans mon boîtier Antec P150 il faudrait flinguer 2 cages HDD pour l'y loger.
 
pour la conso c'est un pb d'alim. suffisamment dimensionnée... à partir de 500W-35A sur le 12V il y a moyen de faire des choses ;).
 
pour la temp c'est un pb de ventirad (qui aura d'autant moins de boulot que la conso sera basse ça il n'y a rien à redire).
idéalement il faut qu'il recrche l'air chaud à l'extérieur du boîtier... ce qui n'est qu'à moitié vrai sur la gtx.

n°5629930
AbelJemka
Posté le 04-07-2007 à 11:17:25  profilanswer
 

toto le super hero a écrit :

Il reste pourtant vrai qu'elle consomme moins qu'une 2900xt pour de meilleur perfs.
 
 
 
Il me semble que la 2900xt ne fait pas beaucoup mieux. En gros si on veut une carte haut de gamme aujourd'hui, il faut avoir un boitier adequate malheureusement.


Consomment pareil et je n'ai pas parler des perfs. Dans un cas comme dans l'autre les perfs ne justifient pas tout. Si la prochaine carte d'ATI ou Nvidia double les perfs en augmentant de 50% la conso on va considerer ça comme acceptable. C'est une déviance total de l'argumentaire performance/watt.
Et pour la taille à l'echelle d'un boitier 3cm en moins si c'est pas beaucoup mieux...

n°5629937
Profil sup​primé
Posté le 04-07-2007 à 11:21:49  answer
 

non la conso c est pas un probleme d alim...
 
la conso c est le probleme de la carte en elle meme et de la tensions/amperages dont elle a besoin pour fonctionner que ce soit une gtx/xt.
 
tu as une seasonic m12 avec une x700....
 
meme chose pour le ventirad une x800 n as pas le meme ventirad que la 8800gtx...
 
bref tout ca pour dire qu il faut se rendre compte des pieces achete et ne pas dire c est trop long ou faut que je change d alim.... car c est les cartes qui demandent tout ca, la puce graphique et il faut s adapter en consequences...


Message édité par Profil supprimé le 04-07-2007 à 11:22:47
n°5629942
ftp381
ça fûme!
Posté le 04-07-2007 à 11:24:06  profilanswer
 

juste que quand ça ne rentre pas, soit tu moddes ton boîtier, soit tu n'achètes pas la CG, soit tu en prends une plus compact (GTS par ex.), soit tu attends la prochaine génération qui devrait être plus courte.
 
tien je suis dans le dernier cas :D
 
et si la prochaine génération n'est pas plus courte j'ai ma Drémel qui veille....

n°5629951
Profil sup​primé
Posté le 04-07-2007 à 11:27:22  answer
 

ftp381 a écrit :

juste que quand ça ne rentre pas, soit tu moddes ton boîtier, soit tu n'achètes pas la CG, soit tu en prends une plus compact (GTS par ex.), soit tu attends la prochaine génération qui devrait être plus courte.
 
tien je suis dans le dernier cas :D
 
et si la prochaine génération n'est pas plus courte j'ai ma Drémel qui veille....


 
 
 :lol:  

n°5629962
Althaz
Posté le 04-07-2007 à 11:30:27  profilanswer
 

ftp381 a écrit :

effectivement, l'encombrement est plus souvent génant que la conso dans nos config.


Je suis de l'avis de dave, en ce qui me concerne personellement la conso est plus importante que la taille. en effet si je dois changer d'alim pour m'accorder une nouvelle carte c'est plus 20€ qu'il va y avoir entre une 8800GTS 640 et une X1900 par exemple mais plus 150€ (et encore j'ose pas la GTS déja).
 
Ensuite il y à tout le problème de dissipation thermique, il va falloir investir dans le watercooling si je veux continuer a evacuer la chaleur avec le silence que j'ai actuellement, encore des centaines d'euros etc... en plus ca va manger quelques euros de plus sur la facture EDF chaque mois, encore un cout en plus et tout ça ca s'accumule bien méchemment.
 
Edit : je fais comme ftp381 :D

Message cité 2 fois
Message édité par Althaz le 04-07-2007 à 11:31:55

---------------
TESO @Althaz
n°5629967
ftp381
ça fûme!
Posté le 04-07-2007 à 11:31:36  profilanswer
 


pour le boîtier bien sûr  :D  je ne ferai pas de mal au R700  :pt1cable:

n°5629968
AbelJemka
Posté le 04-07-2007 à 11:31:47  profilanswer
 

J'ai acheté mon Kandalf à la sortie des X1900s. J'ai senti qu'avoir de la marge à ce niveau ça serait pas un luxe  :sweat:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  443  444  445  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)