Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2722 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  7  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5167071
Wilfried28​28
Posté le 14-11-2006 à 12:11:18  profilanswer
 

Reprise du message précédent :
30cm de base non mais n'importe quoi  :lol:


---------------
Devise de la poste : Coliéco = ColiPerdu !
mood
Publicité
Posté le 14-11-2006 à 12:11:18  profilanswer
 

n°5167092
theBride_
Strobist
Posté le 14-11-2006 à 12:24:40  profilanswer
 

Wilfried2828 a écrit :

30cm de base non mais n'importe quoi  :lol:


 
Cela me rapelle une certaine nVidia 7900 GX2 toutefois, qui fesait 31cm et qui a introduit le pcb remanie de la 7950GX2 ;)


Message édité par theBride_ le 14-11-2006 à 12:24:59

---------------
128DB - Instagram - Ventes
n°5167204
_JbM
_Dense comme la brique
Posté le 14-11-2006 à 13:18:31  profilanswer
 

http://www.hardware.fr/news/lire/13-11-2006/

Citation :

VR-zone semble d'ailleurs s'émouvoir que le PCB d'un prototype puisse être différent d'une version finale et donc que la taille et le bruit émis par des prototypes ne soient pas les premiers soucis d'un fabricant de GPUs.

:sleep:

n°5169197
aliss
Rhyme the Rhyme Well
Posté le 15-11-2006 à 10:12:41  profilanswer
 

Je ne sais plus qui demandait des rumeurs sur le R600 mais il va être servi.  ;)  
 
http://www.theinq.com/default.aspx?article=35707

n°5169294
raoulator
Posté le 15-11-2006 à 11:13:16  profilanswer
 

toujours pareil l'architecture est differente entre ati et nvidia
il faudra voir dans les jeux

n°5169516
--faithnom​ore--
The Real Thing
Posté le 15-11-2006 à 12:52:08  profilanswer
 

Citation :

The External memory controller is a clear 512-bit variant, while internally you will be treated with a bi-directional bus double the width. The 1024-bit Ringbus is approaching.


 
Bus mémoire 512-bit qui semble être confirmé un peu partout d'ailleurs. Par contre je ne comprends pas cette histoire  de bus bi-directionnel de double largeur. Du 1024-bit sur le R600 (qui n'en serait pas vraiment) ?
 
La raison pour laquelle le R600 a été retardé  vient semble t-il que ATI a rencontré un bug étrange avec du silicium A0 ..
 
Sinon :  
 

Citation :

but the company is gunning for 700 to 800MHz clock for the GPU


 
Cela fait sans doute suite à la news d'avant hier concernant les modèles déjà livrés mais qui ne sont pas encore cadencées aux fréquences finales.
 
On parle aussi de 24 ROPs à 575MHz ce qui équivaut à 13.8 M/pixels et de 16 ROPs à 750MHz  soit 12.0 M/pixels. On nous précise que ATI devrai revoir ces chiffres à la hausse d'ici la sortie, et qu'il ne s'agit pas de chiffre définitifs.
 
Concernant le nombre de shaders, on nous prévient à une simple guerre des ventes ici. Nvidia ayant 128 unités de Shader, alors que le R600 sur le papier en a "seulement" 64. Cependant, le R600 n'offriera pas, comme on peut le penser la moitié de l'exécution du G80. En fait, la news nous annonce que devrions être surpris ..
 
Le R600 d'ATI comporte 64 unités de Shader 4-way SIMD. C'est donc une approche très différente et complexe comparée aux unités relativement simples du G80 de Nvidia.  
Car, le "R600 SIMD Shader" peut calculer le résultat de quatre unités, il rapporte donc l'exécution de 256 unités, tandis que Nvidia n'a que 128 "vraies" unités.
 
Nous nous dirigeons vers des résultats très intéressants dans l'exécution DX10, puisque les développeurs comptent sur la rapidité des instructions simples et le R600 excellera dans cette arène complexe.  
 
On nous annonce que d'une certaine manière, on pourrait comparer le R600 et le G80 comme l'Athlon XP contre le Pentium 4, d'un coté on effectuait plus de travail dans une "single clock", alors que l'autre employait une fréquence d'horloge plus élevée pour réaliser l'exécution égale.
 
Désolé pour ma traduction plus qu'approximative  :sarcastic:
 
Ou sinon :
 

Citation :

First of all, the GPU is a logical development that started with the R500Xenos, or Xbox GPU, but without the 10MB eDRAM part. Unlike the Xbox GPU, the R600 has to be able to support a large number of resolutions and, if we take a look at today's massive 5Mpix resolutions, it is quite obvious that R600 should feature at least five times more eDRAM than Xbox 360 has.
 
DAAMIT kept the RingBus configuration for the R600 as well, but now the number has doubled. The External memory controller is a clear 512-bit variant, while internally you will be treated with a bi-directional bus double the width. The 1024-bit Ringbus is approaching.
 
Since the company believes this is the best way to keep all of the shading units well-fed, the target is to have 16 pixels out in every clock, regardless of how complex the pixel might be. But, don’t think for a second that R600 is weaker than G80 on the account of ROP units alone.
 
We also learned the reason why the product was delayed for so long. It seems that ATI encountered yet another weird bug with the A0 silicon, but this one did not lock the chips at 500MHz, but rather disabled the Multi-sampling Anti-aliasing (MSAA). At press time, we were unable find out if the A1 revision still contains the bug or not. Retail boards will probably run A2 silicon.
 
R600 isn't running on final clocks yet, but the company is gunning for 700 to 800MHz clock for the GPU, which yields pixel a fill rate in the range of G80's or even a bit more. In terms of shading power, things are getting really interesting.
 
Twenty-four ROPs at 575MHz equals 13.8 billion pixels per clock, while 16 ROPs at 750MHz will end up at 12.0 billion pixels. At the same time, expect ATI to far better in more complex Shader-intensive applications.
 
Regarding the number of shaders, expect only marketing wars here. Nvidia has 128 Shader units, while the R600 on paper features "only" 64. However, don't expect ATI's own 64 Shaders to offer half of the performance. In fact, you might end up wildly surprised.
 
ATI's R600 features 64 Shader 4-way SIMD units. This is a very different and complex approach compared to Nvidia's relatively simple scalar Shader units.
 
Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units - while Nvidia comes with 128 "real" scalar units. We are heading for very interesting results in DX10 performance, since game developers expect that NV stuff will be faster in simple instrucions and R600 will excel in complex shader arena. In a way, you could compare R600 and G80 as Athlon XP versus Pentium 4 - one was doing more work in a single clock, while the other was using higher clock speed to achieve equal performance.
 
Regardless of your brand of preference, both G60 and R600 are extremely complex products which deliver hundreds of gigaflops of processing power and addressing wide range of usage models, from games to HDTV broadcasting and new baby named GPGPU usage

Message cité 1 fois
Message édité par --faithnomore-- le 15-11-2006 à 14:04:37
n°5169817
sasuke87
Posté le 15-11-2006 à 14:46:18  profilanswer
 

http://uk.theinquirer.net/?article=35708 c'est la deuxième partie (à lire absolument), même si je ne l'acheterai pas je suis quand même impatient de voir ce qu'il a dans le ventre :love: ATI va peut être nous refaire le coup de la Radeon 9700pro :love:


Message édité par sasuke87 le 15-11-2006 à 14:47:20
n°5169932
--faithnom​ore--
The Real Thing
Posté le 15-11-2006 à 15:55:33  profilanswer
 

Cette fois je vais attendre la traduction theinquirer.fr :)  
Tout cela semble impressionnant ..
 
L'actualité arrive enfin   :ange:


Message édité par --faithnomore-- le 15-11-2006 à 15:57:59
n°5169962
cbo
Posté le 15-11-2006 à 16:11:13  profilanswer
 

en fait on revient aux premières rumeures
 
64 pipelines de shaders
16 pipelines de textures / de ce coté la on sait pas trops ça porait être 24 ou 32
16 rops


Message édité par cbo le 15-11-2006 à 16:20:50
n°5169981
aliss
Rhyme the Rhyme Well
Posté le 15-11-2006 à 16:22:44  profilanswer
 

Viennent s'ajouter celles d'une carte aux dimensions plus petites qu'une 8800GTX, et d'une consommation plus ou moins proche de cette dernière ce qui serait 2 bons points.
 
Ainsi qu'une date de sortie qui coïnciderait avec celle de Vista...

mood
Publicité
Posté le 15-11-2006 à 16:22:44  profilanswer
 

n°5170229
Gigathlon
Quad-neurones natif
Posté le 15-11-2006 à 18:19:33  profilanswer
 

--faithnomore-- a écrit :

Citation :

The External memory controller is a clear 512-bit variant, while internally you will be treated with a bi-directional bus double the width. The 1024-bit Ringbus is approaching.


 
Bus mémoire 512-bit qui semble être confirmé un peu partout d'ailleurs. Par contre je ne comprends pas cette histoire  de bus bi-directionnel de double largeur. Du 1024-bit sur le R600 (qui n'en serait pas vraiment) ?


 
C'est simple pourtant si tu lis les articles sur les R5xx :o
 
En interne, 2 bus parallèles et fonctionnant en sens inverse sont utilisés pour réduire la latence, lesquels sont reliés à 4 contrôleurs mémoire distincts.

n°5170640
sapphire a​depte xd
Posté le 15-11-2006 à 20:32:17  profilanswer
 

Gigathlon a écrit :

C'est simple pourtant si tu lis les articles sur les R5xx  :o

 

En interne, 2 bus parallèles et fonctionnant en sens inverse sont utilisés pour réduire la latence, lesquels sont reliés à 4 contrôleurs mémoire distincts.

 


ah sa éclaircit, merci gigathlon  ;)  
 
Mais sinon si le r600 excèlerait ( comme il le disent ) en DX10 , biensur il excèlerait aussi en DX9 ?
 
Vous pensez qu'on peut donc dire que le G80 est plus basé sur DX9 alors que le R600 l'est plus sur DX10 ( ce qui serait logique puisqu'il sort avec vista) ?
 
merci  ;)

n°5170717
god is dea​d
Demain, j'arrête de poster.
Posté le 15-11-2006 à 20:50:36  profilanswer
 

Un g80 est ce qui ce fait de mieux sous dx9, ce sera idem pour le r600.
Le g80 est entièrement dx10 et va même au-delà des spéc dx10, je vois pas en quoi il serait + dx9.  
On ne connait rien encore rien des perfs réelles sous dx10, donc pour l'instant on ne peut rien dire.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5170759
sapphire a​depte xd
Posté le 15-11-2006 à 20:58:10  profilanswer
 

 
 
oki merci  :jap:

 

n°5171571
billos
Posté le 16-11-2006 à 10:15:25  profilanswer
 

Dites-moi,
 
Il ya une chose que je n'ai pas comprise à propos du R600 : ils parlent d'un nouveau connecteur 4 broches (en plus du 6 pci-expr classique) pour être en accord avec la norme pci-express2.0. Or sur nos alims classiques, nous n'avons que des alims de type molex,sata ou pci-express 6 broches.
 
Qq'un saurait-il ce que c'est ?
 

n°5172753
lonely
Posté le 16-11-2006 à 20:32:02  profilanswer
 

La carte utiliserait un circuit imprimé très complexe à 16 couches et un contrôleur mémoire 512 bits. Chaque puce mémoire serait reliée au RingBus via sa propre interface 32 bits. La bande passante mémoire oscillerait entre 115 et 140 Go/s en fonction du type de mémoire utilisée : de la DDR3 cadencée à 1 800 MHz comme sur la GeForce 8800 GTX ou encore de la GDDR4 à 2 200 MHz. De plus, elle embarquera 1 ou 2 Go de mémoire vidéo.
 
Côté dimensions, la version définitive devrait être aussi grande qu'une Radeon X1950XTX voire une GeForce 7900GTX et par conséquent plus petite qu'une GeForce 8800 GTX. Le processeur R600 sera refroidi par un ventirad composé de quatre caloducs. Enfin, selon nos confères, cette carte graphique sortira aux alentours du 30 janvier, une date qui semble relativement optimiste.
 
Source initiale The Inquirer
 
http://www.matbe.com/actualites/co [...] /?page=1#1

n°5172860
_JbM
_Dense comme la brique
Posté le 16-11-2006 à 21:03:13  profilanswer
 

Amusant, dans l'article original, il y avait 12 couches :sarcastic:

n°5172959
sapphire a​depte xd
Posté le 16-11-2006 à 21:33:23  profilanswer
 

 
ils rajoutent une couche a chaque site reprenant la news, sa a comencé ou ? à 6couches ?  :lol:  
 
 
nan perso je trouve ces spécifiations énormes, mais si c'est vrai sa va etre une bombe...  :D

 

n°5173473
Profil sup​primé
Posté le 17-11-2006 à 03:13:19  answer
 

Mais bon source de The Inquirer...............................................................................

n°5174233
Gigathlon
Quad-neurones natif
Posté le 17-11-2006 à 15:30:35  profilanswer
 

_JbM a écrit :

Amusant, dans l'article original, il y avait 12 couches :sarcastic:


 
Nettement plus réaliste d'ailleurs.
 
J'imagine même pas le coût de fabrication d'une carte avec un pcb à 16 couches :lol:
 
Pour ce qui est de la RAM rien de neuf également puisque c'est ce qui se fait sur les R5xx, mais ça demanderait un ring bus non plus de 1024 mais 2048 bits si ils conservent une largeur de 32 bits (on en arrive d'ailleurs à une liaison en étoile plus qu'en anneau avec ce système, comme chez K8).
 
Explication:
 
- 32*8=256 -> on fait 2 anneaux 256 bits de façon à avoir une latence minimale (max 2 portions)
- 32*16=512 -> si on fait 2 anneaux 512bits, on arrive à un maximum de 4 tronçons empruntés et non plus 2
 
Après, AMTDI a peut-être amélioré la gestion des threads grâce à l'unification des shaders, ça pourrait expliquer cette "marche arrière"...


Message édité par Gigathlon le 17-11-2006 à 16:01:36
n°5174282
god is dea​d
Demain, j'arrête de poster.
Posté le 17-11-2006 à 15:53:32  profilanswer
 

D'après Tridam il est dur de départager le g80 du R600 au vue de spéc :/

n°5174290
M16
Posté le 17-11-2006 à 15:58:28  profilanswer
 

god is dead a écrit :

D'après Tridam il est dur de départager le g80 du R600 au vue de spéc :/


 
raaaaaaaaah le salopiot il doit en avoir une sous le coude..

n°5174432
Profil sup​primé
Posté le 17-11-2006 à 17:25:28  answer
 

Je pense que le R600 risque d'etre très proche du G80 en performance, comme d'ab quoi....

n°5174940
Wilfried28​28
Posté le 17-11-2006 à 21:35:07  profilanswer
 


 :non:  il va le doubler  :D


---------------
Devise de la poste : Coliéco = ColiPerdu !
n°5175226
sasuke87
Posté le 18-11-2006 à 00:04:00  profilanswer
 

D'aprés The Inquirer (des pincettes, tout ça ...) le R600 serait le GPU le plus complexe que sortirait ATi.
Pour le R700, ATi prévoirait un cluster de plusieurs GPU's de plus petite taille ce qui présente des avantages de conception évidents (plus modulable, plus extensible, moins cher à fabriquer ...).
L'analogie employée est celle du Lego, si l'on désire une carte bas de gamme on n'aura qu'un chip sur le PCB, 4 chips pour le modéle milieu de gamme, 16 chips pour le ultra haut de gamme etc ...
Il s'agirait donc de la fin des mono-GPU's ultra complexes (plus de transistors qu'un CPU) puisque NVidia penserait à la même optique pour son G90 toujours d'aprés The Inq.
 
Le R600 n'est même pas encore sortie que The inq a déjà des info sur la R700  :lol:!! Ils sont vraiment trop fort chez the inq :lol:

n°5175229
sasuke87
Posté le 18-11-2006 à 00:06:06  profilanswer
 

god is dead a écrit :

D'après Tridam il est dur de départager le g80 du R600 au vue de spéc :/


 
Si la différence est comme celle entre la x1950xtx et 7900GTX, je trouverais ça largement suffisant.

n°5178594
sapphire a​depte xd
Posté le 19-11-2006 à 19:50:44  profilanswer
 

sasuke87 a écrit :

Si la différence est comme celle entre la x1950xtx et 7900GTX, je trouverais ça largement suffisant.

 


ben sa dépend, lors de sa sortie la x1900xtx était plus proche de la 7900gtx car drivers pas top, mais après quelques mois l'écart s'est creusé.. c'est vrai.
 
Non, moi je suis pret a mettre ma main au feu que le R600 va bouffer le g80. après ce n'est que mon avis...et qu'une spéculation  :D

n°5179912
--faithnom​ore--
The Real Thing
Posté le 20-11-2006 à 14:31:00  profilanswer
 

Citation :

Non, moi je suis pret a mettre ma main au feu que le R600 va bouffer le g80. après ce n'est que mon avis...et qu'une spéculation


 
Idem pour moi, même si mon implication dans la création de ce Topic doit ébranler considérablement mon objectivité pour certains.
 
Sinon :
 

Citation :

Notre confrère taïwanais DigiTimes rapporte de ses sources locales que la dernière génération de cartes vidéo de chez NVIDIA ne se vend pas autant que souhaité. Les dernières Geforce 8800GTX et GTS, basées sur le nouveau GPU G80 du Caméléon, sont peut-être arrivées trop tôt, un paradoxe pour une industrie qui affectionne une évolution rapide des technologies.
 
Certains fabricants de cartes graphiques taïwanais ont expliqué que les Geforce 8800 n'ont pour l'instant pas réussi à tirer la demande vers le haut, malgré l'avance technologique significative que représente leur compatibilité DirectX 10.
 
Toujours selon les sources du DigiTimes, le G80 étant réservé au très haut de gamme, l'industrie attend plutôt les prochaines révisions du GPU destinées à l'entrée et au milieu de gamme : le G84 et le G86. Prévus pour le premier trimestre 2007, ces deux GPU coïncideront plus avec l'arrivée de Vista, qui ouvrira l'ère DirectX 10.

NVIDIA pourrait donc proposer une gamme complète de cartes G80 lors du lancement de la nouvelle génération de GPU R600 par ATI. Un atout, face à une offre initiale certainement coincée dans le haut de gamme chez le concurrent Canadien. L'avance technologique du caméléon est donc peut être trop importante aujourd'hui, mais elle sera plus profitable lors du premier trimestre prochain, face au très haut de gamme R600 d'ATI.


 
Conclusion : L'achat d'une CG début 2007 semble être le meilleur compromis, comme tant de personnes l'ont maintes et maintes fois redis ..
 
Début 2007 :
 
- R600 ( :jap: )
- Arrivée des G84 et G86
- Baisse de prix des G80
 
Il n'y a absolument aucun interêt de s'acheter un G80 maintenant, sauf bien sûr pour ceux qui ont claqué leur CG hier (quoique une 6200 Turbocache en attendant) :D

Message cité 1 fois
Message édité par --faithnomore-- le 20-11-2006 à 14:37:22
n°5180021
haleylys
Posté le 20-11-2006 à 15:27:46  profilanswer
 

--faithnomore-- a écrit :

Citation :

Non, moi je suis pret a mettre ma main au feu que le R600 va bouffer le g80. après ce n'est que mon avis...et qu'une spéculation


 
Idem pour moi, même si mon implication dans la création de ce Topic doit ébranler considérablement mon objectivité pour certains.
 
Sinon :
 

Citation :

Notre confrère taïwanais DigiTimes rapporte de ses sources locales que la dernière génération de cartes vidéo de chez NVIDIA ne se vend pas autant que souhaité. Les dernières Geforce 8800GTX et GTS, basées sur le nouveau GPU G80 du Caméléon, sont peut-être arrivées trop tôt, un paradoxe pour une industrie qui affectionne une évolution rapide des technologies.
 
Certains fabricants de cartes graphiques taïwanais ont expliqué que les Geforce 8800 n'ont pour l'instant pas réussi à tirer la demande vers le haut, malgré l'avance technologique significative que représente leur compatibilité DirectX 10.
 
Toujours selon les sources du DigiTimes, le G80 étant réservé au très haut de gamme, l'industrie attend plutôt les prochaines révisions du GPU destinées à l'entrée et au milieu de gamme : le G84 et le G86. Prévus pour le premier trimestre 2007, ces deux GPU coïncideront plus avec l'arrivée de Vista, qui ouvrira l'ère DirectX 10.

NVIDIA pourrait donc proposer une gamme complète de cartes G80 lors du lancement de la nouvelle génération de GPU R600 par ATI. Un atout, face à une offre initiale certainement coincée dans le haut de gamme chez le concurrent Canadien. L'avance technologique du caméléon est donc peut être trop importante aujourd'hui, mais elle sera plus profitable lors du premier trimestre prochain, face au très haut de gamme R600 d'ATI.


 
Conclusion : L'achat d'une CG début 2007 semble être le meilleur compromis, comme tant de personnes l'ont maintes et maintes fois redis ..
 
Début 2007 :
 
- R600 ( :jap: )
- Arrivée des G84 et G86
- Baisse de prix des G80
 
Il n'y a absolument aucun interêt de s'acheter un G80 maintenant, sauf bien sûr pour ceux qui ont claqué leur CG hier (quoique une 6200 Turbocache en attendant) :D


 
bien sur  :lol:  surtout que les g84 et 86 vont voir leurs frequences a la baisse  :D  
 
 
 

n°5180190
--faithnom​ore--
The Real Thing
Posté le 20-11-2006 à 17:03:32  profilanswer
 

Citation :

bien sur  :lol:  surtout que les g84 et 86 vont voir leurs frequences a la baisse  :D  


 
Et ?
 
 
Si je souhaite acheter une carte DX10 milieu de gamme, à pas cher comme tu dis ?
 
 :heink:


Message édité par --faithnomore-- le 20-11-2006 à 17:05:23
n°5180192
haleylys
Posté le 20-11-2006 à 17:04:30  profilanswer
 

tu sera obligé d'en mettre une autre pour jouer a crisys en direct 10 :)

n°5180197
ema nymton
Posté le 20-11-2006 à 17:06:31  profilanswer
 

V u comment c'est parti, le R600va etre  LE vaporehard de 2006/2007 ? ? :lol:

n°5180210
--faithnom​ore--
The Real Thing
Posté le 20-11-2006 à 17:11:15  profilanswer
 

Citation :


Début 2007 :
 
- R600 ( :jap: )
- Arrivée des G84 et G86
- Baisse de prix des G80


 

Citation :

tu sera obligé d'en mettre une autre pour jouer a crisys en direct 10 :)


 
Alors je mettrais un R600 ou un G80 (ou autre prochain dérivé du G80 à sortir d'ici là, ainsi que d'une baisse de prix du G80 de surcroit) et voilà :)
 
De toute évidence, la concurrence jouera en notre faveur. Si je m'apperçois (ce dont je doute) que le R600 n'apporte pas d'évolution majeure face au G80, je choisierai ce dernier. Dans tous les cas je serai gagnant face à quelqu'un qui achète son G80 aujourd'hui.
 
Au prix ou coûtent ces ptites bêtes, je me laisse le temps de la reflexion.
 
(Je devais m'acheter une carte pour les fêtes de fin d'année, j'ai repoussé l'achat début 2007)


Message édité par --faithnomore-- le 20-11-2006 à 17:16:05
n°5181333
haleylys
Posté le 21-11-2006 à 00:13:40  profilanswer
 

bah une carte haut de game que ce soit ati ou nvidia coute env 600 euros ,il y a 6 mois et dans 6 mois aussi d'ailleurs

n°5181769
Gigathlon
Quad-neurones natif
Posté le 21-11-2006 à 11:52:29  profilanswer
 

De toute façon le R600 est surtout attendu au tournant pour sa conso...
 
Contrairement à ce que j'ai pu lire, le G80 n'est aucunement "à peine plus gourmand qu'un R580" vu que ça c'est en charge... en 2D la conso est tout bonnement monstrueuse, ce qui est inadmissible.
 
Si ATI sort une carte aussi puissante, consommant autant en mode 3D et moitié moins en mode 2D, c'est vite vu.

n°5181840
billos
Posté le 21-11-2006 à 12:15:17  profilanswer
 

Gigathlon a écrit :

.. en 2D la conso est tout bonnement monstrueuse, ce qui est inadmissible.


 
Source ? Chiffres ?
 
Même si le mode de fréquences 2D n'existe plus sur la 8800 (et encore, je n'en suis pas sur), il a été dit que des parties entières du chip étaient désactivés (donc ne consommant pas)

n°5181876
Gigathlon
Quad-neurones natif
Posté le 21-11-2006 à 12:29:20  profilanswer
 

billos a écrit :

Source ? Chiffres ?
 
Même si le mode de fréquences 2D n'existe plus sur la 8800 (et encore, je n'en suis pas sur), il a été dit que des parties entières du chip étaient désactivés (donc ne consommant pas)


 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018436.gif
http://www.hardware.fr/articles/64 [...] 0-gts.html
 
En français dans le texte:
 
- la 8800gtx consomme 6-7W de plus que la X1950XTX en 3D, c'est bien
- la 8800gtx consomme pas moins de 40w de plus que la X1950XTX en 2D, c'est médiocre
 
Quand on sait à quel point nVidia communique sur ses gpu mobiles "économes", ça fait sourire...

n°5181877
god is dea​d
Demain, j'arrête de poster.
Posté le 21-11-2006 à 12:30:34  profilanswer
 

D'ou l'intérêt de vite passer au 80nm :p
En même temps, je suis pas vraiment rassuré qd à la conso du r600 :/


Message édité par god is dead le 21-11-2006 à 12:31:46

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5183659
sapphire a​depte xd
Posté le 21-11-2006 à 23:31:18  profilanswer
 

moi non plus mais tant que sa ne dépasse pas celle du G80 sa peut aller. Disons que si le R600 consomme 20W de plus que le G80 tandis que en 2D le R600 ne consomme que la moitié de ce qu'il consomme en 3D alors que sa ne change pas pour le g80.... sa pourrait etre tout bénéf pour ceux qui auront prisla peine d'attendre ( notament toi god... une 7600gs c pas le top a long terme ^^)
 
Avantage c'est sur, mais c'est toujours les perfs qui définissent a court terme une CG, pas une conso... Enfin je veux dire que c'est mieux vu pour l'instant , je pense, d'avoir plus de FPS que de consommer moins....
 

n°5183664
aliss
Rhyme the Rhyme Well
Posté le 21-11-2006 à 23:35:30  profilanswer
 

sapphire adepte xd a écrit :

moi non plus mais tant que sa ne dépasse pas celle du G80 sa peut aller. Disons que si le R600 consomme 20W de plus que le G80 tandis que en 2D le R600 ne consomme que la moitié de ce qu'il consomme en 3D alors que sa ne change pas pour le g80.... sa pourrait etre tout bénéf pour ceux qui auront prisla peine d'attendre ( notament toi god... une 7600gs c pas le top a long terme ^^)
 
Avantage c'est sur, mais c'est toujours les perfs qui définissent a court terme une CG, pas une conso... Enfin je veux dire que c'est mieux vu pour l'instant , je pense, d'avoir plus de FPS que de consommer moins....


 
J'ai conjugué les 2 en passant d'un xfire de x1800 à une GTS  ;)  
 
J'attends également un effort de la part d'ati AMD dans ce domaine avec le r600

n°5183734
o_BlastaaM​oof_o
Posté le 22-11-2006 à 00:21:22  profilanswer
 

aliss a écrit :

J'ai conjugué les 2 en passant d'un xfire de x1800 à une GTS  ;)  
 
J'attends également un effort de la part d'ati AMD dans ce domaine avec le r600


L'effort est plutôt à attendre sur la génération suivante à mon avis, le passage au 65 nm et le nécessaire changement de politique énergétique aidant.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)