Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3157 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  89  90  91  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5391123
@chewie
Posté le 02-03-2007 à 11:21:28  profilanswer
 

Reprise du message précédent :

aliss a écrit :

Oui je tout à fait d'accord, je suis d'ailleurs curieux de voir la gueule du ventirad prévu pour la version commerciale, mais j'en déduis qu'avec un système alternatif en ac ou wc, il est probable que la carte prenne moins de place qu'une GTX.
 
Sinon sur hardocp ils confirment la conso de 300w (juste la carte, pas l'intégralité du système)...
 
http://hardocp.com/news.html?news= [...] mV3cywsLDE


 
ATI is stating that a SINGLE R600 high end configuration will require 300 watts of power (+/-9%) and a DUAL R600 "CrossFire" high end configuration will require, as you might guess, 600 watts of power (+/-9%).
 
 
Faut apprendre à lire ;)
 
Machine complète. Donc tout à fait normal.

mood
Publicité
Posté le 02-03-2007 à 11:21:28  profilanswer
 

n°5391128
Gigathlon
Quad-neurones natif
Posté le 02-03-2007 à 11:22:41  profilanswer
 

aliss a écrit :

Je crois pas non malheureusement, celà n'a pas l'air d'une supposition.
 
We have been able to confirm some other R600 news that is not good. ATI is stating that a SINGLE R600 high end configuration will require 300 watts of power (+/-9%) and a DUAL R600 "CrossFire" high end configuration will require, as you might guess, 600 watts of power (+/-9%). Compare that to a single GeForce 8800 GTX that will pull 150 to 180 watts. Add in a CPU to that mix and you overtake most power supplies’ peak ratings on the retail shelves today.


 
En gras, la contradiction avec leurs propres propos.
 
Configuration = machine complète.
150-180w le G80gtx, non seulement c'est faux (~130w), mais en prime c'est pas comparable.

n°5391135
dami1stm
Eco-coco φ
Posté le 02-03-2007 à 11:24:29  profilanswer
 

@chewie a écrit :

ATI is stating that a SINGLE R600 high end configuration will require 300 watts of power (+/-9%) and a DUAL R600 "CrossFire" high end configuration will require, as you might guess, 600 watts of power (+/-9%).
 
 
Faut apprendre à lire ;)
 
Machine complète. Donc tout à fait normal.


 
Ca change tout alors, c'est même plutot bon.  :o  
 
Mais comment passer de 300W avec config complete @ 600W avec un carte en CF suplementaire [:maxooo]


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5391140
Gigathlon
Quad-neurones natif
Posté le 02-03-2007 à 11:26:18  profilanswer
 

300w = conso réelle estimée à +/-9% d'une config avec 1 R600.
600w = conso estimée par TheInquirer ou autre avec la précieuse aide du chapeau haut de forme.


Message édité par Gigathlon le 02-03-2007 à 11:39:12
n°5391145
@chewie
Posté le 02-03-2007 à 11:27:34  profilanswer
 

dami1stm a écrit :

Ca change tout alors, c'est même plutot bon.  :o  
 
Mais comment passer de 300W avec config complete @ 600W avec un carte en CF suplementaire [:maxooo]


Ouis c'est vrai que ya un truc qui cloche :D
 
MAis de toute façons, avec deux connecteurs PCI express plus le port lui meme, on est quand meme limité à 225 watt. Donc 300 watt, c'est impossible.

n°5391156
aliss
Rhyme the Rhyme Well
Posté le 02-03-2007 à 11:31:52  profilanswer
 

@chewie a écrit :

Ouis c'est vrai que ya un truc qui cloche :D
 
MAis de toute façons, avec deux connecteurs PCI express plus le port lui meme, on est quand meme limité à 225 watt. Donc 300 watt, c'est impossible.


 
Plusieurs trucs en fait , déjà ils parlent de mauvaise nouvelle pour ATI, et ensuite ils comparent ces chiffres à la conso d'une GTX, pas d'un système.
 
Peut-être qu'ils font allusion à la carte haut de gamme, les 300w c'était la rumeur l'année passée, puis c'est passé à 230-250, mais le système complêt à 300w je n'y crois pas, je vois mal un tel monstre consommer moins qu'un système hdg avec une GTX.
 
A la fin, ils disent encore de rajouter le reste de la config pour se faire une idée de l'alim nécessaire.
 
Pour les deux connecteurs, le fait q'un des deux aie 8pin ne change pas la limitation ?

Message cité 1 fois
Message édité par aliss le 02-03-2007 à 11:46:04
n°5391217
Genevrex1
Posté le 02-03-2007 à 12:00:31  profilanswer
 

Vous avez fait attention a la quantité de cuivre utilisé? elle doit vraiment chauffer! Si je vais chez mon forgeron avec elle il me la reprend pour plus de 600euro. Lol
 
Il y a des infos si la ventilation inspire ou expire l’aire ? sur la vertion EON


Message édité par Genevrex1 le 02-03-2007 à 12:01:04
n°5391275
sasuke87
Posté le 02-03-2007 à 12:21:03  profilanswer
 

300 watts pour une seule carte!!! j'y crois pas une seconde... et d'ailleurs pourquoi cette news serait plus crédible que les autres???

n°5391278
Gigathlon
Quad-neurones natif
Posté le 02-03-2007 à 12:24:34  profilanswer
 

aliss a écrit :

Plusieurs trucs en fait , déjà ils parlent de mauvaise nouvelle pour ATI, et ensuite ils comparent ces chiffres à la conso d'une GTX, pas d'un système.


AMD a annoncé 200w pour la version stream computing des dires d'un tech AMD, les 300w correspondraient donc à la conso d'une config complète équipée d'un R600xtx, les +/-9% correspondant pour leur part à différentes combinaisons possibles (X2 6000+: +9%, X2 3800+ EE: -9%)

Message cité 2 fois
Message édité par Gigathlon le 02-03-2007 à 12:25:41
n°5391280
dami1stm
Eco-coco φ
Posté le 02-03-2007 à 12:26:02  profilanswer
 

Gigathlon a écrit :

AMD a annoncé 200w pour la version stream computing des dires d'un tech AMD, les 300w correspondraient donc à la conso d'une config complète équipée d'un R600xtx, les +/-9% correspondant pour leur part à différentes combinaisons possibles (X2 6000+: +9%, X2 3800+ EE: -9%)


 
Ce me semble déjà plus correct et réaliste  :)


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
mood
Publicité
Posté le 02-03-2007 à 12:26:02  profilanswer
 

n°5391291
Gigathlon
Quad-neurones natif
Posté le 02-03-2007 à 12:32:20  profilanswer
 

dami1stm a écrit :

Ce me semble déjà plus correct et réaliste  :)


Et bien sûr, les 600w en CF sont sortis du haut de forme, la tournure de la phrase à elle seule suffit à le comprendre... :whistle:  
 
Le lien pour les 200w: http://www.beyond3d.com/forum/show [...] stcount=78
 

Citation :

We got three new facts yesterday. Facts, because they were stated by AMD. They are:
 
1). 200W power usage
2). 320 "multiply-accumulate units"
3). 1/2 teraflop math power


Message édité par Gigathlon le 02-03-2007 à 12:37:08
n°5391303
Profil sup​primé
Posté le 02-03-2007 à 12:44:02  answer
 

god is dead a écrit :

Faut bien donner une légitimité aux alims de 700w et +.
 
Heureusement que je ne joue plus, j'aurais vraiment l'impression de me faire entuber :/


 
 :pfff: on en a perdu un autre... :D :lol:  
 
 
plus serieusement....la puissance de calcul du r600 semble etre au rendez vous, mais le probleme c est qu il faut un bon language/programmation pour extraire le max de perf de cette puce.
 
je pense qu ati a mis la patate sur l elaborattion d une puce avec une architercture complexe, mais comme d hab ils n ont pas pense a en faire autant avec les pilotes ou creer une plateforme qui permet d exploiter facilement la puissance de culcul.
 
si on regarde bien le g80, comme toutes les puces nvidia, est base uniquement sur le fait de broyer du fps, je pense qu ati veut elargir son marche a d autres secteurs, pas seulement pour le jeux.
 
si c est le cas peu importe si ati a du retard car elle le recuperera sur d autres fronts.
elle y perd un peu en info mais y gagne dans d autres secteurs, donc revenir sur nvidia et y gagner meme des part de marchee, la ou nvidia ne peut rien faire....
 
conclusion, "la puissance n est rien sans le controle" s applique parfaitement a se cas de figure, niveau driver ati a encore du boulot a faire :o ...
 
:jap:  

Message cité 1 fois
Message édité par Profil supprimé le 02-03-2007 à 12:45:21
n°5391316
dami1stm
Eco-coco φ
Posté le 02-03-2007 à 12:48:17  profilanswer
 


 
 :whistle: :D


Message édité par dami1stm le 02-03-2007 à 12:49:40

---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5391319
god is dea​d
Demain, j'arrête de poster.
Posté le 02-03-2007 à 12:49:49  profilanswer
 

ATI/AMD est au courant de tout ça :o


Message édité par god is dead le 02-03-2007 à 12:50:13

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5391320
Gigathlon
Quad-neurones natif
Posté le 02-03-2007 à 12:49:53  profilanswer
 

ATI, ça n'existe plus en tant qu'entité, c'est devenu une marque commerciale d'AMD... :o
 
Et oui, AMD veut profiter du crénau "stream computing" et y coller le R600, tout simplement monstrueux de puissance mais pas vraiment rentable en tant que GPU grand public... En tant que carte dédiée calcul et à destination des pros, on change complètement de registre question prix, on passe à 4 chiffres significatifs si ce n'est 5.
 
D'autre part, CTM est justement un moyen de programmation simple, un assembleur pour processeur parallélisé on a pas fait mieux à ce jour (nVidia proposerait exactement la même chose avec CUDA, précompilé pour une utilisation en C...)

Message cité 2 fois
Message édité par Gigathlon le 02-03-2007 à 12:52:24
n°5391325
sasuke87
Posté le 02-03-2007 à 12:51:58  profilanswer
 

Toujours pas de photos de la "petite" version hein??? :o  elle existe vraiment?? :heink:

n°5391332
god is dea​d
Demain, j'arrête de poster.
Posté le 02-03-2007 à 12:53:25  profilanswer
 

Il vaut mieux qu'elle existe, sinon je vois pas comment la version "rocco siffredi" pourrait renter dans nos minables boitiers :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5391333
dami1stm
Eco-coco φ
Posté le 02-03-2007 à 12:53:26  profilanswer
 

sasuke87 a écrit :

Toujours pas de photos de la "petite" version hein??? :o  elle existe vraiment?? :heink:


 
Cebit, pas avant à mon avis...


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5391377
tuxerman12
Posté le 02-03-2007 à 13:18:25  profilanswer
 

sasuke87 a écrit :

Toujours pas de photos de la "petite" version hein??? :o  elle existe vraiment?? :heink:


 
C' est sûrement la même avec un autre ventirad , le PCB du R600 qu' on a vu est court contrairement au G80 ...

n°5391390
vlad drac
Posté le 02-03-2007 à 13:23:37  profilanswer
 

dami1stm a écrit :

Cebit, pas avant à mon avis...


 
Rocco au Cebit ?? [:al zheimer]  :pt1cable:
 
Ca vaut son pesant de cacahuètes  :whistle:


Message édité par vlad drac le 02-03-2007 à 13:25:44
n°5391395
glabouni
Posté le 02-03-2007 à 13:26:35  profilanswer
 

http://www.clubic.com/actualite-70 [...] hotos.html
 
 :hello:  
 
Une petite news de clubic, pour alimenter le débat.
 
Ca rentre comment dans un mini-boitier.  :pt1cable:

n°5391396
tuxerman12
Posté le 02-03-2007 à 13:28:15  profilanswer
 

Des photos dignes de ce nom ! [:huit]

n°5391514
aliss
Rhyme the Rhyme Well
Posté le 02-03-2007 à 14:23:13  profilanswer
 

Gigathlon a écrit :

AMD a annoncé 200w pour la version stream computing des dires d'un tech AMD, les 300w correspondraient donc à la conso d'une config complète équipée d'un R600xtx, les +/-9% correspondant pour leur part à différentes combinaisons possibles (X2 6000+: +9%, X2 3800+ EE: -9%)


 
Pourquoi dans ce cas adopter une nouvelle norme de connecteurs pci-e (permettant la gestion de 300w) ?
 
http://www.pcinpact.com/actu/news/ [...] 00-PCB.htm
 
Le texte est écrit de manière étrange j'en conviens, mais mis à part le point souligné par @chewie sur le "high end configuration" tout vas dans le sens de la conso du gpu uniquement.
 
C'est étonnant également de ne voir personne contredire le newser sur le thread dédié à cette nouvelle.
 
 
 

n°5391525
dami1stm
Eco-coco φ
Posté le 02-03-2007 à 14:29:23  profilanswer
 

aliss a écrit :

Pourquoi dans ce cas adopter une nouvelle norme de connecteurs pci-e (permettant la gestion de 300w) ?
 
http://www.pcinpact.com/actu/news/ [...] 00-PCB.htm
 
Le texte est écrit de manière étrange j'en conviens, mais mis à part le point souligné par @chewie sur le "high end configuration" tout vas dans le sens de la conso du gpu uniquement.
 
C'est étonnant également de ne voir personne contredire le newser sur le thread dédié à cette nouvelle.


 
Cette "news" date quand même du 13/11/06  :whistle:


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5391531
aliss
Rhyme the Rhyme Well
Posté le 02-03-2007 à 14:32:51  profilanswer
 

dami1stm a écrit :

Cette "news" date quand même du 13/11/06  :whistle:


 
Je sais, mais je parle uniquement de celà,
 
Cette nouvelle carte aura aussi deux connecteurs d'alimentation 4 broches supplémentaires, à côté du connecteur 6 broches d'origine. La carte adopterait ces deux nouveaux connecteurs pour se conformer à la dernière norme PCI-Express 225/300W du PCI-SIG.
 
Je ne vois pas son intérêt si la carte n'est pas si gourmande que celà.
 
Le connecteur 8 broches est bien présent sur les samples il me semble  :??:  
 
 

n°5391533
@chewie
Posté le 02-03-2007 à 14:34:44  profilanswer
 

aliss a écrit :

Pourquoi dans ce cas adopter une nouvelle norme de connecteurs pci-e (permettant la gestion de 300w) ?
 
http://www.pcinpact.com/actu/news/ [...] 00-PCB.htm
 
Le texte est écrit de manière étrange j'en conviens, mais mis à part le point souligné par @chewie sur le "high end configuration" tout vas dans le sens de la conso du gpu uniquement.
 
C'est étonnant également de ne voir personne contredire le newser sur le thread dédié à cette nouvelle.


J'ai pas trop suivis toutes les news sur ce connecteur 8 broches, mais ce n'est tout simplement un truc du genre : tant que les alims n'ont que des connecteurs 6 broches, il faut 2 connecteur six broches, dont un branché sur le 8.  
 
Et une fois que les alim avec les connecteurs 8 broches seront là, il ne faudra plus que connecter un seul connecteur 8 broches et rien sur le 6? Et donc il s'assure il comptabilité avec les futurs connecteurs.

n°5391539
tuxerman12
Posté le 02-03-2007 à 14:37:47  profilanswer
 

Non , le 8broches , c' est la future norme , je crois .

n°5391541
@chewie
Posté le 02-03-2007 à 14:39:36  profilanswer
 

tuxerman12 a écrit :

Non , le 8broches , c' est la future norme , je crois .


Heu vi, c'est ce que je dis non? :D

n°5391542
Marc
Chasseur de joce & sly
Posté le 02-03-2007 à 14:39:49  profilanswer
 

Ouh la ...
 
Le R600 est basé sur la pré-version de la spécification PCI Express x16 Graphics 300W-ATX :
 
- 75 watts via le PCI-E
- 75 watts via un connecteur 2x3 pins
- 150 watts via un connecteur 2x4 pins
 
Mais cela ne veut pas pour autant dire que cette consommation est atteinte (je n'y metterais pas ma main au feu mais bon). Le 8800 GTX peut monter jusque 225 watts vu sa connectique mais elle ne monte pas jusque là.

Message cité 1 fois
Message édité par Marc le 02-03-2007 à 14:40:44
n°5391547
@chewie
Posté le 02-03-2007 à 14:41:23  profilanswer
 

Marc a écrit :

Ouh la ...
 
Le R600 est basé sur la pré-version de la spécification PCI Express x16 Graphics 300W-ATX :
 
- 75 watts via le PCI-E
- 75 watts via un connecteur 2x3 pins
- 150 watts via un connecteur 2x4 pins
 
Mais cela ne veut pas pour autant dire que cette consommation est atteinte. Le 8800 GTX peut monter jusque 225 watts vu sa connectique mais elle ne monte pas jusque là.


Donc dans le cas où le R600 consommerait moins de 225W, un seul connecteur 8 broches suffirait non?

n°5391549
aliss
Rhyme the Rhyme Well
Posté le 02-03-2007 à 14:41:39  profilanswer
 

Donc pour les 300w de conso tu sembles dire que ce n'est pas impossible Marc ?

n°5391559
god is dea​d
Demain, j'arrête de poster.
Posté le 02-03-2007 à 14:46:06  profilanswer
 

Si c'est théoriquement possible ça veut tout dire, et rien à la fois.
300w max possible, après on verra en pratique.

Message cité 1 fois
Message édité par god is dead le 02-03-2007 à 14:46:26

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5391640
Anthx95
Posté le 02-03-2007 à 15:30:34  profilanswer
 

"Si votre ramage
Se rapporte à votre plumage,
Vous êtes le phénix des hôtes de ces bois"
 
 :pt1cable:  
 
Je pense que çà va envoyer sévère.
 
 
Avec une carte comme celle là, et mon athlon X2 3800+ est ce que mon CPU vat me limité pour jouer tout a font en 1680x1050 ? :??:

n°5391646
@chewie
Posté le 02-03-2007 à 15:37:17  profilanswer
 

Anthx95 a écrit :

"Si votre ramage
Se rapporte à votre plumage,
Vous êtes le phénix des hôtes de ces bois"
 
 :pt1cable:  
 
Je pense que çà va envoyer sévère.
 
 
Avec une carte comme celle là, et mon athlon X2 3800+ est ce que mon CPU vat me limité pour jouer tout a font en 1680x1050 ? :??:


oui pour les jeux que ton cpu limite déjà avec ta carte actuelle.
non pour les jeux que ton cpu ne limite pas avec ta carte actuelle.
 

n°5391677
Marc
Chasseur de joce & sly
Posté le 02-03-2007 à 15:58:36  profilanswer
 

god is dead a écrit :

Si c'est théoriquement possible ça veut tout dire, et rien à la fois.
300w max possible, après on verra en pratique.

Ahmha en pratique ce sera plutôt 220-240w la conso max, mais bon, w& see


Message édité par Marc le 02-03-2007 à 15:58:44
n°5391690
god is dea​d
Demain, j'arrête de poster.
Posté le 02-03-2007 à 16:03:10  profilanswer
 

Et ce sera déjà pas mal.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5391691
Profil sup​primé
Posté le 02-03-2007 à 16:03:12  answer
 

Gigathlon a écrit :

ATI, ça n'existe plus en tant qu'entité, c'est devenu une marque commerciale d'AMD... :o
 
Et oui, AMD veut profiter du crénau "stream computing" et y coller le R600, tout simplement monstrueux de puissance mais pas vraiment rentable en tant que GPU grand public... En tant que carte dédiée calcul et à destination des pros, on change complètement de registre question prix, on passe à 4 chiffres significatifs si ce n'est 5.
 
D'autre part, CTM est justement un moyen de programmation simple, un assembleur pour processeur parallélisé on a pas fait mieux à ce jour (nVidia proposerait exactement la même chose avec CUDA, précompilé pour une utilisation en C...)


 
ben si justement si tu as une puce super puisssante, ses declinaisons le seront aussi pour un cout de production peu eleve.  
 
mais comme ils ont deja du mal a exploiter le monstre initial, c est clair que ca aide pas pour le reste.

n°5391875
aeryon
à 300km/h
Posté le 02-03-2007 à 17:21:26  profilanswer
 

Gigathlon a écrit :


D'autre part, CTM est justement un moyen de programmation simple, un assembleur pour processeur parallélisé on a pas fait mieux à ce jour (nVidia proposerait exactement la même chose avec CUDA, précompilé pour une utilisation en C...)


hmmm il semblerait que certains ne soient pas d'accord avec la "simplicite" ...
http://www.hardware.fr/articles/65 [...] percu.html

Citation :

Si au départ nous avions une préférence pour l'approche d'AMD qui permet de connaître le GPU en détail et de l'exploiter d'une manière plus efficace, au fil de notre analyse de CUDA et de la CTM, notre avis a changé. D'une part à cause de la complexité importante du côté de la CTM. A temps de développement identique, il nous paraît évident que CUDA permettra d'obtenir de meilleurs résultats.


n°5391891
Anthx95
Posté le 02-03-2007 à 17:32:06  profilanswer
 

@chewie a écrit :

oui pour les jeux que ton cpu limite déjà avec ta carte actuelle.
non pour les jeux que ton cpu ne limite pas avec ta carte actuelle.


 :heink:  
En ce momment, je suis limité par mon SLI de 6600 GT. :D

n°5391894
god is dea​d
Demain, j'arrête de poster.
Posté le 02-03-2007 à 17:35:16  profilanswer
 

Un sli de 6600gt n'a rien de comparable à un r600 :o
Déjà qu'une 8800gtx vaut bien 8 6600gt...
 
Un x2 3800+ te limitera selon les jeux, mais j'imagine que tu vas jouer aux jeux les plus récents avec un r600 (si c'est pour jouer à q4 ou hl2...) dans ce cas t'as tout intérêt à passer au c2d :o


Message édité par god is dead le 02-03-2007 à 17:42:52

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5391956
angela-pcs
Posté le 02-03-2007 à 18:18:57  profilanswer
 

Les jeux dit "cpu limited " c'est le jeux solo avec Ia codé avec des palmes le reste ( jeux en ligne & co ) peu d'incidence ( bon pas de socket A quand meme ^^ )

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  89  90  91  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)