Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3583 connectés 

 

 

Allez-vous sauter sur une 6xxx ou bien attendre les 7xxx et le 28nm ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  23  24  25  ..  839  840  841  842  843  844
Auteur Sujet :

[Topic Unique] AMD Radeon HD 6800 et 6900 ; 40nm dx11

n°7515606
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 31-07-2010 à 14:14:08  profilanswer
 

Reprise du message précédent :

MEI a écrit :

J'vois pas le rapport avec un CPU, mais ATI clairement ne fait pas des GPU pour le GPGPU, sinon ils auraient pas une archi avec un rendement aussi aléatoire et une pénalité si grand en cas de branchements.

Si je travaillais pour AMD et que j'étais très haut dans l'organigramme, je proposerait ceci:
· 3 puces graphique AMD Radeon: BDG (2 cartes), MDG (2 cartes), HDG (2 cartes), THG = 2xHDG (1 carte).
  Archi conventionnelle avec SP, TMUs, ROPs, UVD, RAMDAC, ports HDMI/DVI/VGA/Etc, et tout le bazar.
· 2 puces arithmétique AMD "CalculaThor": MDG (2 cartes), HDG (2 cartes), THDG=2xHDG (1 carte).
  Archi dépourvue de TMUs, ROPs, UVD, RAMDAC, ports HDMI/DVI/VGA/Etc, et tout le bazar.
  On ne conserve que le Command Processor, le Dispatch Processor, le Shader Export, du cache global partagé.
  Le reste de la puce serait constitué à part égale de SP simples et de SP complexes regroupés en 4D.
 
http://i114.photobucket.com/albums [...] -GPGPU.png  
 
Pour une même taille on doublerait le nombre de SP, tout en passant de 4 ALU simples + 1 ALU complexe, à 2 ALU simples + 2 ALU complexes.
Les perfs seraient au minimum doublés, et pourrait même atteindre 4 fois la puissance de calcul complexe de la version GPU.
 
Évidemment, AMD pourrait remplacer les SP 5D ou 4D en un tout nouveau type de SP plus appropriés aux calculs génériques.
Mais ce qu'il faut comprendre c'est que pour les GPGPU, seuls les SP sont utiles, et le reste de la puce ne fait que consommer des Watts pour rien.
 
 :jap:

mood
Publicité
Posté le 31-07-2010 à 14:14:08  profilanswer
 

n°7515607
Invite_Sur​prise
Racaille de Shanghaï
Posté le 31-07-2010 à 14:15:29  profilanswer
 

Dommage, tu n'es qu'un simple fan-troll et tu n'as rien d'un ingénieur. Désolé ...
 
[:dantrax]

n°7515614
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 31-07-2010 à 14:21:30  profilanswer
 

MEI a écrit :

DX11.1 ça existe pas hein... :o

Tu crois que Microsoft se repose sur ses lauriers ?  ;)  

n°7515618
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 31-07-2010 à 14:27:59  profilanswer
 

Invite_Surprise a écrit :

Dommage, tu n'es qu'un simple fan-troll et tu n'as rien d'un ingénieur. Désolé ...[:dantrax]


Ne soit pas désolé Invite_Surprise, car je ne suis pas qu'un simple fan-troll... car en fait je suis... je suis...
 
"Invite_Surprise, je suis ton père !" http://www.pixeljoint.com/files/icons/darthemotes_love.gif

Message cité 2 fois
Message édité par Wirmish le 31-07-2010 à 14:28:23
n°7515620
Subar
La liberté n'a pas de prix !!!
Posté le 31-07-2010 à 14:29:28  profilanswer
 

Wirmish a écrit :


Ne soit pas désolé Invite_Surprise, car je ne suis pas qu'un simple fan-troll... car en fait je suis... je suis...
 
"Invite_Surprise, je suis ton père !" http://www.pixeljoint.com/files/ic [...] s_love.gif


 [:guepe]

n°7515640
Invite_Sur​prise
Racaille de Shanghaï
Posté le 31-07-2010 à 14:45:47  profilanswer
 

Wirmish a écrit :


Ne soit pas désolé Invite_Surprise, car je ne suis pas qu'un simple fan-troll... car en fait je suis... je suis...
 
"Invite_Surprise, je suis ton père !" http://www.pixeljoint.com/files/ic [...] s_love.gif


 
[:spartou]

n°7515659
MEI
|DarthPingoo(tm)|
Posté le 31-07-2010 à 14:57:39  profilanswer
 

Wirmish a écrit :

Tu crois que Microsoft se repose sur ses lauriers ?  ;)  


Encore une fois, c'est pas MS qui fait de fait les API, mais les constructeurs. MS ne fait que synthétiser les tendances.
En plus avec et le flop de DX10 et surtout celui de DX10.1, ils risquent de calmer le jeu quoiqu'il arrive.
 
D'autant plus que DX11 a tout ce qu'il faut pour qu'on soit pénard pour quelques temps. Plus ça va, moins on a de contraintes, donc moins on a besoin de lever les contraintes restantes.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7515679
wolfflyter
Posté le 31-07-2010 à 15:15:16  profilanswer
 

MEI a écrit :


Encore une fois, c'est pas MS qui fait de fait les API, mais les constructeurs. MS ne fait que synthétiser les tendances.
En plus avec et le flop de DX10 et surtout celui de DX10.1, ils risquent de calmer le jeu quoiqu'il arrive.
 
D'autant plus que DX11 a tout ce qu'il faut pour qu'on soit pénard pour quelques temps. Plus ça va, moins on a de contraintes, donc moins on a besoin de lever les contraintes restantes.


 
La tendance de quoi ?  :D  
 
Celle des drivers foireux ?  :o  
 
Clairement ils ont d"enormes difficultés avec les parties vidéo , les intervenants font tout et n'importe quoi.
 
 :)  


---------------
該反思的是,往往有幫助
n°7515683
MEI
|DarthPingoo(tm)|
Posté le 31-07-2010 à 15:18:31  profilanswer
 

Les tendances hardware. DX11 c'est qu'une API qui fait office d'HAL en gros... :spamafote:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7515826
Ze_Fab
Posté le 31-07-2010 à 18:21:23  profilanswer
 

MEI a écrit :

Les tendances hardware. DX11 c'est qu'une API qui fait office d'HAL en gros... :spamafote:


 
HAL ? Le Hardware Abstraction Layer sous GNU/Linux ?
 
Si c'était aussi simple et le cas, je ne vois pas pourquoi il y aurait besoin d'OpenGL sous Linux.

mood
Publicité
Posté le 31-07-2010 à 18:21:23  profilanswer
 

n°7515880
mini-mousa​ille
♡♥♡
Posté le 31-07-2010 à 19:24:05  profilanswer
 

c est la nouvelle génération de carte graphique ?  
 
(je suis l'actualité des CG de loin...)
 
 
comment s'appelle l'équivalent chez nVidia ?

n°7515887
canard rou​ge
coin coin
Posté le 31-07-2010 à 19:28:36  profilanswer
 

GF104, GF106, GF108.


---------------
Fait's comme les petits canards Et pour que tout l'monde se marre Remuez le popotin En f'sant coin-coin
n°7515893
barbare128
pas de koi se rouler par terre
Posté le 31-07-2010 à 19:33:51  profilanswer
 

Dans tous les cas aucune chance que ce soit du 28nm pour octobre, c'est bien trop court comme délai.
 
Au mieux c'est pour juin l'année prochaine.
 
L'option des 1920 shaders est à mon avis la plus proche des possibilités d'ATI.


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7516169
Activation
21:9 kill Surround Gaming
Posté le 01-08-2010 à 10:22:41  profilanswer
 

MEI a écrit :


J'vois pas le rapport avec un CPU, mais ATI clairement ne fait pas des GPU pour le GPGPU, sinon ils auraient pas une archi avec un rendement aussi aléatoire et une pénalité si grand en cas de branchements.


 
pour sur, un fondeur tel AMD ça ne cherche absolument pas à avoir de marge dans le milieu professionnel avec le gros marché des data center et la "bulle" du cloud computing
 
surtout que dans le secteur en face c'est intel pas Nvidia
 
mince alors avoir enfin une avance techno concrète (pour ça que ces processeurs vont ce transformer en APU) face à son concurrent de toujours et ne pas du tout en profiter (avec la bétise de intel de vouloir imposer des core x86 complexe là ou y en a pas besoin... alias laraLesboubouleLee )
 
ça lui coute quoi à AMD de remplacer une partie des unité FP32 par des FP64
 
purée faut débloquer des milliards en R&D pour faire ça sur son archi gpu actuelle  :o  
 
c'est un peu comme le fait que les windows serveur soit enfin only 64bits depuis le 2008 R2
 
pour sur on va absolument pas chercher à enfin débloquer ce que permet le x86-64 et resté à des bêtes petites opti only x86 (et du coup en rester à du 12% de perf en plus)
nop la prochaine gen. cpu (et donc apu) n'ambitionne pas (ou alors ils se sont vraiment vautré) un GAP bien plus significatif en x86-64
 
______________________
 
sinon pour l histoire des dx ... déjà que dx11 c'est tout au plus un dx10.3
alors un dx11.1 bouarf ....  
ils vont ajouter l intégration de kinect pour ce petit .1 ? ça peut pas se faire à même dx11 ... faut pas pousser
 
pour mériter un "up" du chiffre de la version de directx..... faudrait je sais pas ... standardisé des runtime pour opti les calculs lié à l'affichage stereoscopique
 
quand tu vois qu'il a fallut attendre 3ans pour que enfin les devs utilisent les geometry shader et par le fait les shader unifié qui sont là depuis dx10.0


Message édité par Activation le 01-08-2010 à 10:28:58
n°7516178
Activation
21:9 kill Surround Gaming
Posté le 01-08-2010 à 10:47:12  profilanswer
 

Wirmish a écrit :

Tu crois que Microsoft se repose sur ses lauriers ?  ;)  


 
certe MS ne se repose pas sur ces lauriers
 
le problème est tout autres... il s'écrase trop
 
d'un coté avec windows 7 il n'impose toujours pas le 64bits
 
alors que de l'autre il pose un pied à terre en ayant accepter des downgrade de XP 4ans de plus (jusqu'à octobre 2010)
 
débile
 
si MS avait eu un semblant de couille
 
ça aurait été WIN 7 64bits only
 
si tu veux du 32bits tu prend vista 32bits downgrade jusqu'en 2012
 
pourquoi 2012
 
simple:
1) si tu as une machine que tu veux updaté ton OS ... bah cas échéant tu up en vista 32 (si cpu pas compatible 32bits)
2) si tu change de machine  
soit elle te sera vendu avec un cpu 32/64bits donc Win7 64bits
soit elle tes vendu avec un cpu 32bits (genre surement les atom) et donc on peut te fournir au moins vista
 
et pourquoi encore 2ans de mou
 
simplement pour ne plus plier devant un intel ou amd qui fabriquerait encore des cpu only 32bits
2ans c'est la durée de vie d'une génération de cpu donc dans 2ans toute machine neuve se devra d'avoir un cpu 32/64
intel et amd rien à dire... ils aurait été prévenu 2ans avant
 
dans le même ordre d'idée avant même le lancement de Win7 j'aurais été MS j'aurais dit Windows 8 sera only compatible mobo avec UEFI
et que l upgrade Win7 vers Win8 ne pourra se faire sans cela
 
ptet que les fabricants de mobo serait un peu plus en train se bouger les doigts du cul
 
car quand on sait que windows est compatible UEFI depuis vista... des HP et DELL notamment on déjà leur ordi avec UEFI
 
mais alors asus et gigabyte ... faut surtout pas vous bouger le cul
 
alors oui MS se repose pas sur ces lauriers
 
mais alors qu' apple à une politique dictatoriale qui me dégoute
MS c'est le contraire .... d'un laxisme qui m'énerve car du coup fondeur et OEM pratique la politique du moindre effort ... tout ça pour nous faire changer le matos toujours plus souvent  
MS ferait pas mal de remonter qqs bretelles en interne et externe (à commencer par un certif whql moins laxiste également)


Message édité par Activation le 01-08-2010 à 10:48:26
n°7516179
MEI
|DarthPingoo(tm)|
Posté le 01-08-2010 à 10:47:14  profilanswer
 

barbare128 a écrit :

Dans tous les cas aucune chance que ce soit du 28nm pour octobre, c'est bien trop court comme délai.
 
Au mieux c'est pour juin l'année prochaine.
 
L'option des 1920 shaders est à mon avis la plus proche des possibilités d'ATI.


ATI a un budget transistor serré, il ne faut pas qu'ils partent dans le travers des GF100, sinon ils vont être la risée de tous (avec nous avoir bassiné les petits GPU ça rox ;)).
 
Donc franchement, plus de 1600 SP je parirais pas dessus, car améliorer le scheduler et augmenté le débit de la géométrie va couter pas mal. Et comme on peut supposer qu'ATI a de grande chance de proposer un bus 384 bits qui aura plusieurs intérêts :
- augmenter les ROP/TMU, et donc se rapprocher des GF100 pour certains opérations
- avoir 1,5Go de RAM et pas direct 2Go. (ce qui tant a rester dans un tarif "correct).
 
Le but des 6870 c'est en DX9/DX10 augmenter un peu les perfs (disont 25%), mais aussi améliorer ce qui est améliorable pour avoir un DX11 plus perfs, et donc améliorer le changement de contexte (PS/VS/GS/DC) et la tesselation...
 
Sinon, autant directement changer complètement d'archi, où attendre le 28nm pour augmenter drastiquement le nombre de SP.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7516283
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 01-08-2010 à 13:02:09  profilanswer
 

MEI a écrit :

ATI a un budget transistor serré, il ne faut pas qu'ils partent dans le travers des GF100...


En effet, AMD a un budjet transistors très serré. Non seulement AMD peine a recevoir assez de GPU Evergreen de la part de TSMC, voilà qu'il devra bientôt partager la production de GPU avec l'Ontario. Cela va diminuer, au minimum, du tiers, la quantité de GPU qui seront produit. La pénurie avec laquelle AMD doit composer va donc s'aggraver. Ce n'est donc pas le moment d'augmenter la taille de ses GPU. Même qu'on a appris dernièrement qu'AMD avait du sacrifier une partie de la production de GPU haut de gamme, pour lui permettre de produire plus de GPU bas et moyen de gamme. Cela a fait diminué son ASP, et donc sa marge de profit puisque AMD fait beaucoup moins de profit sur le bas et le moyen de gamme. Évidemment, c'est la nouvelle entente avec Apple qui est la cause de tout ça puisque ce dernier achète très peu de GPU HDG.
 
 

MEI a écrit :

ATI a de grande chance de proposer un bus 384 bits qui aura plusieurs intérêts :
- augmenter les ROP/TMU, et donc se rapprocher des GF100 pour certains opérations
- avoir 1,5Go de RAM et pas direct 2Go. (ce qui tant a rester dans un tarif "correct).


1. Y'a que les ROPs qui augmenteraient puisque les TMUs sont liés aux SIMD et que les ROPs sont liés aux contrôleurs mémoire.
2. En effet on peut voir dans certains jeux ou en haute réso + filtres que le 1.5 Go n'est pas sans intérêt.
 

Message cité 2 fois
Message édité par Wirmish le 01-08-2010 à 13:09:03
n°7516288
Activation
21:9 kill Surround Gaming
Posté le 01-08-2010 à 13:07:56  profilanswer
 

Wirmish a écrit :


En effet, AMD a un budjet transistors très serré. Non seulement AMD peine a recevoir assez de GPU Evergreen de la part de TSMC, voilà qu'il devra bientôt partager la production de GPU avec l'Ontario. Cela va diminuer, au minimum, du tiers, la quantité de GPU qui seront produit. La pénurie avec laquelle AMD doit composer va donc s'aggraver. Ce n'est donc pas le moment d'augmenter la taille de ses GPU.
 
 


 
en même temps déjà facile 4millions de GPU vendu sur génération HD5xxx c'est pas comme si tout le monde allait vouloir acheté une HD6xxx à son lancement
quand y a déjà une CG vieille de même pas 6mois dans l ordi
 
beaucoup achète de la HD57xx (bref perf d'une HD4870) donc les HD68xx vise tout de même pas mal les solutions multi screen dans l'idée du joueur moyen
pour qqun qui a un 22" (ecran standard pour une config neuve) y a pas non plus de quoi vouloir se jeter sur la dernière HD6xxx
 
les HD5xxx remplisse bien leur boulot rapport qualité/prix

Message cité 1 fois
Message édité par Activation le 01-08-2010 à 13:13:22
n°7516294
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 01-08-2010 à 13:13:46  profilanswer
 

Activation a écrit :

en même temps déjà facile 4millions de GPU vendu sur génération HD5xxx ...

Plutôt 17 millions de HD5xxx. [:alexmagnus]

n°7516297
MEI
|DarthPingoo(tm)|
Posté le 01-08-2010 à 13:15:08  profilanswer
 

Wirmish a écrit :


En effet, AMD a un budjet transistors très serré. Non seulement AMD peine a recevoir assez de GPU Evergreen de la part de TSMC, voilà qu'il devra bientôt partager la production de GPU avec l'Ontario. Cela va diminuer, au minimum, du tiers, la quantité de GPU qui seront produit. La pénurie avec laquelle AMD doit composer va donc s'aggraver. Ce n'est donc pas le moment d'augmenter la taille de ses GPU. Même qu'on a appris dernièrement qu'AMD avait du sacrifier une partie de la production de GPU haut de gamme, pour lui permettre de produire plus de GPU bas et moyen de gamme. Cela a fait diminué son ASP, et donc sa marge de profit puisque AMD fait beaucoup moins de profit sur le bas et le moyen de gamme. Évidemment, c'est la nouvelle entente avec Apple qui est la cause de tout ça puisque ce dernier achète très peu de GPU HDG.
 
 


Pas sur qu'AMD ai 2x plus de marge sur un GPU de 58xx que sur un GPU de 57xx, pourtant ce premier coute au moins 2x plus cher a produire (p'tet même un peu plus a cause de la fréquence un poil supérieure).


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7516301
Activation
21:9 kill Surround Gaming
Posté le 01-08-2010 à 13:17:22  profilanswer
 

Wirmish a écrit :

Plutôt 17 millions de HD5xxx. [:alexmagnus]


 
 
y en a ils disent 6 millions d autres 16 millions (sur la même periode avril)
 
alors à la fin on sait plus qui croire

n°7516335
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 01-08-2010 à 13:48:52  profilanswer
 

MEI a écrit :

Pas sur qu'AMD ai 2x plus de marge sur un GPU de 58xx que sur un GPU de 57xx, pourtant ce premier coute au moins 2x plus cher a produire...


AMD fait plus de marge sur le HDG, c'est clair comme de l'eau de roche :
1. La HD5770 se trouve à 145€ alors que la HD5870 est à 350€.
2. Le % du coût de la GDDR5 (~25€) vs le coût de la carte est plus important sur la HD5770.
3. La HD5770 mesure 166 mm² contre 334 mm² pour la HD5870.
4. TSMC grave 342 HD5770 par wafer contre 164 HD5870 par wafer.
5. Wafer = 5000€ : HD5770 = 14.62€/puce, HD5870 = 30.48€/puce.
6. HD5770 (145€) - 1 Go GDDR5 (25€) = 120€. 14.62€ / 120€ = 12.2%. Coût du GPU vs carte = 12.2%.
    HD5870 (350€) - 1 Go GDDR5 (25€) = 325€. 30.48€ / 325€ = 9.4%. Coût du GPU vs carte = 9.4%.
 
On peut constater que le coût du GPU d'une HD5770 représente 12.2% de la valeur de la carte (en excluant la GDDR5), alors que celui d'une HD5870 n'en représente que 9.4%, ce qui implique que la marge de profit est beaucoup plus grande sur cette dernière. Il ne faut pas perdre de vu que même avec une % identique, la HD5870 se vendant 2 fois plus chère, son % équivaudrait à 2 fois la valeur du % de la HD5770.
 

MEI a écrit :

(p'tet même un peu plus a cause de la fréquence un poil supérieure).


La fréquence est identique entre la HD5770 et la HD5870, ça n'a donc pas vraiment d'impact.
Le coût supérieur vient du fait que plus une puce est grosse, plus le yields diminue.

n°7516339
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 01-08-2010 à 13:53:22  profilanswer
 

Activation a écrit :

y en a ils disent 6 millions d autres 16 millions (sur la même periode avril)
 
alors à la fin on sait plus qui croire

Moi je dis 17 millions.  :p  
 
Clique ici et recherche "16".  :jap:  

n°7516413
MEI
|DarthPingoo(tm)|
Posté le 01-08-2010 à 15:09:05  profilanswer
 

Wirmish a écrit :


AMD fait plus de marge sur le HDG, c'est clair comme de l'eau de roche :
1. La HD5770 se trouve à 145€ alors que la HD5870 est à 350€.
2. Le % du coût de la GDDR5 (~25€) vs le coût de la carte est plus important sur la HD5770.
3. La HD5770 mesure 166 mm² contre 334 mm² pour la HD5870.
4. TSMC grave 342 HD5770 par wafer contre 164 HD5870 par wafer.
5. Wafer = 5000€ : HD5770 = 14.62€/puce, HD5870 = 30.48€/puce.
6. HD5770 (145€) - 1 Go GDDR5 (25€) = 120€. 14.62€ / 120€ = 12.2%. Coût du GPU vs carte = 12.2%.
    HD5870 (350€) - 1 Go GDDR5 (25€) = 325€. 30.48€ / 325€ = 9.4%. Coût du GPU vs carte = 9.4%.
 
On peut constater que le coût du GPU d'une HD5770 représente 12.2% de la valeur de la carte (en excluant la GDDR5), alors que celui d'une HD5870 n'en représente que 9.4%, ce qui implique que la marge de profit est beaucoup plus grande sur cette dernière. Il ne faut pas perdre de vu que même avec une % identique, la HD5870 se vendant 2 fois plus chère, son % équivaudrait à 2 fois la valeur du % de la HD5770.
 


Tu peux sortir tout ce que tu veux, mais les RV870 coute plus cher a ATI que de produire deux "5770". Donc on peut penser qu'un RV870 se vends aux OEM 2x plus cher qu'un "5770", mais rien n'est sur, loin de là. C'est pas parce que le %tage du prix de fabrication semble plus elevé qu'ATI le repercute forcement.
 
Ca dépends de la stratégie d'ATI sur ces marges, une marge fixe par GPU ou une marge en fonction du prix de vente du GPU. :spamafote:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7516432
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 01-08-2010 à 15:37:57  profilanswer
 

Citation :

AMD also reaffirmed plans to introduce the next-generation ATI Radeon HD 6000-series graphics processors in 2010. However, this time AMD did not say that it planned to refresh the whole lineup, but only promised to debut some of the novelties.

AMD ne prévoit donc plus renouveler toute sa gamme d'Evergreen.
On peut donc s'attendre au lancement d'un seul et unique GPU, comme ce fut le cas avec la HD4770.

n°7516797
m16
Posté le 01-08-2010 à 23:23:41  profilanswer
 

Wirmish a écrit :


·
 
 
Sinon y'a toujours la possibilité qu'AMD renomme ses cartes comme nVidia l'a fait : HD 5870 -> HD 6870.
Un petit 100 MHz de plus pour chaque puces et voilà une nouvelle génération de cartes qui aurait coûté que dalle en R&D
.


 
..plus je lis cette phrase,plus je crois que ca doit etre pas tout a fait faux.

n°7517052
barbare128
pas de koi se rouler par terre
Posté le 02-08-2010 à 11:20:03  profilanswer
 

M16> je veux juste te rappeler un truc, la 3870 et 4870 partagent le même processus de fabrication.
 
il y a juste une énorme différence de performance ...
 
Je pense pas qu'ATI pourra renouveler cet exploit, mais un bon 30% en plus serra tout à fait envisageable, je dirais même plus, le palier d'entrée des 6xxx.
 
ATI n'a pas vraiment amélioré ses shaders depuis longtemps. Le passage 4870->5870 était location de certifier les shaders 5.0, enfin il y a pas eu grand chose à modifier.
 
Actuellement ils sont architecturé suivant le procédé suivant : 4 simple + 1 complexe.
 
D'après le taux d'usage moyen, il n'y aurais aucune perte à passer en 3+1.
 
L'hypothèse des 1920 shaders est la plus plausible au vu des moyens techniques actuel que propose TSMC à ATI.
 
En 3+1D, cela ferais une augmentation de 50% du nombre de shaders. Sachant qu'en pratique on serra très proche de ce nombre entre 45 et 50. Oui, il y a 20% de shaders en plus, mais le fait de passer en 4D fait qu'on pourra casser 480x4 au lieu des 320x5 dans environ 400mm².
 
Ce qui est la taille que devrais atteindre les 68xx.
 
nvidia a peut être renommé ses cartes 8800 en 9800, mais ati a les moyen de faire peu de R&D pour un résultat plus qu'intéressant, et ne se privera pas.
 
Le changement plus radical s'opérera très certainement sur les 7xxxx qui seront en 28nm.
 
Et selon moi, les shaders, et le reste manque encore d'optimisation à la main, Oui les humains font encore mieux que les machines quand il s'agit de faire de l'architecture cpu/gpu. Les Radeons on bcp de puissance brute, mais nettement moins de puissance efficace. Bref ils ont encore bcp de boulot devant eux.


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7517089
MEI
|DarthPingoo(tm)|
Posté le 02-08-2010 à 11:45:28  profilanswer
 

Sauf que :
- Le RV670 était minuscule car rework complet du R600 dans le but justement d'éviter de se taper 2x la honte d'affilée.
- Le RV870 est déjà bien 2x plus gros que le RV670 a son époque... :D
- Le RV870 est déjà plus gros que le RV770.
 
ATI ne peut pas encore augmenter le nombre de SP. Non seulement en doublant au passage de RV770->RV870 on a pas doubler les perfs (le scheduler et les I/O interne/externe ne suivent sans doutes plus), mais en plus on sait tous que plus ons era proche de la taille du GF100 plus les pbs de NVIDIA rattraperons ATI.
 
Dans l'optique d'ATI ça colle pas du tout.
 
On sais aussi que les SP ne seront pas toucher. Toutes la refonte étant laissée pour la prochaine prochaine génération en 28nm.
 
Ce que l'on risque de voir arrivé c'est plus un RV890 qu'un RV970 hein... Et au vu du GF104 et des plus petits, le rework du scheduler et de la partie géométrie ne sera utile pour combattre NVIDIA que sur les 58xx, du coup on peut penser qu'on aura soit du renommage, soit simplement que des 6870 et 6970, et pas de gamme complète. (sauf p'tet a l'arrivé du 28nm pour préparer le terrain).
 
Le but d'ATI c'est quand même de continuer à surfer sur la vague on remonte la pente lentement et SUREMENT. ;)
 
Après je pense qu'ATI va tenter d'avoir plus d'écart entre 5870 et 6870 qu'entre 4870->4890 histoire de vendre les cartes facilement.
 
Le pb c'est qu'il est dur de quantifier le gain sur leur archi de passer de 256->384 bit (avec les ROP qui vont avec) et de 1 à 1,5Go de RAM du coup.
 
D'autant plus que chez NVIDIA la tendance est plus a réduire de le fillrate, donc je me demande si ça serait utile en pratique sachant que pour le coup ATI a plus de fillrate que NVIDIA désormais.
 
(Après on peut imaginer des améliorations sur l'AA/AF qualitativement, profiter des 6xxx pour officialisé le client OpenCL au sein des Catalyst, ajouter un meilleur support 3D, etc.)
 
EDIT : Ceci dit 6870 @ 1000/5000 en 384 bits ça doit déjà être suffisant pour gagner 25%, si on rajoute des optimisations de poil de cul par ci par là on peut atteindre 30-35% p'tet... :D Sachant que 4870->5870 c'est que 1,5x c'est pas si dégeux que ça pour une "demi-"génération.

Message cité 1 fois
Message édité par MEI le 02-08-2010 à 11:48:21

---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7517172
kaiser52
Posté le 02-08-2010 à 12:36:43  profilanswer
 

A voire.
 
Mais je pensais que l'augmentation de la fréquence mémoire (augmenter directement la bande passante) n'était pas tres utile sur les HD5000 ?  :heink:  
A quoi bon passer par du 384bit à part en compléxifiant la puce, et en augmentant taille, conso, chauffe et prix pour un résultat sans doute tres minime ? (Mis à part la standardisation des 1.5go de ram mini)
Ca casserait leur politique de petit bus mais mémoire rapid  :sweat:  
 
Le seul moyen c'est d'augmenter les SP et retravailler par si par la pour avoir une puce aussi équilibré que les actuels HD5000.
 
Je me suis toujours demandé pourquoi la mod d'aujourd'hui etait de vendre des puces avec des capacitée d'overcloking tel ?
Avec largement de quoi ouvrir un nouveau segment :jap:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7517177
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 02-08-2010 à 12:42:53  profilanswer
 

MEI a écrit :

...c'est pas si dégeux que ça pour une "demi-"génération.

Pourtant AMD parle de DEUXIÈME génération de GPU DX11.

Citation :

"We will start introducing the second-generation of our DX 11 products before the end of the year," said Mr. Meyer at the Q2 financial conference call.

Message cité 4 fois
Message édité par Wirmish le 02-08-2010 à 12:44:15
n°7517179
mrbebert
Posté le 02-08-2010 à 12:45:53  profilanswer
 

Wirmish a écrit :

Pourtant AMD parle de DEUXIÈME génération de GPU DX11.

Citation :

"We will start introducing the second-generation of our DX 11 products before the end of the year," said Mr. Meyer at the Q2 financial conference call.


Il s'adresse à des financiers, faut vendre le produit :o  

n°7517180
Invite_Sur​prise
Racaille de Shanghaï
Posté le 02-08-2010 à 12:47:53  profilanswer
 

Wirmish a écrit :

Pourtant AMD parle de DEUXIÈME génération de GPU DX11.

Citation :

"We will start introducing the second-generation of our DX 11 products before the end of the year," said Mr. Meyer at the Q2 financial conference call.



nVidia a bien lancé une deuxième génération de cartes DX10 qui ne changeait pratiquement rien. ATi ne peut pas en faire de même avec DX11 ?

n°7517182
kaiser52
Posté le 02-08-2010 à 12:48:42  profilanswer
 

Wirmish a écrit :

Pourtant AMD parle de DEUXIÈME génération de GPU DX11.

Citation :

"We will start introducing the second-generation of our DX 11 products before the end of the year," said Mr. Meyer at the Q2 financial conference call.



 
Une seconde generation de leur produit DX11.  
 
Ca peut tres bien dire "un nouveau numéro de produit sans réel modifications apparentes"  comme dire "une toute nouvelle puce".
 
Mais la ils parlent de produits, beaucoup trop abstrait pour en extraire quelque chose de concrêt.  :jap:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7517190
MEI
|DarthPingoo(tm)|
Posté le 02-08-2010 à 12:58:12  profilanswer
 

kaiser52 a écrit :

A voire.
 
Mais je pensais que l'augmentation de la fréquence mémoire (augmenter directement la bande passante) n'était pas tres utile sur les HD5000 ?  :heink:  
A quoi bon passer par du 384bit à part en compléxifiant la puce, et en augmentant taille, conso, chauffe et prix pour un résultat sans doute tres minime ? (Mis à part la standardisation des 1.5go de ram mini)
Ca casserait leur politique de petit bus mais mémoire rapid  :sweat:  
 
Le seul moyen c'est d'augmenter les SP et retravailler par si par la pour avoir une puce aussi équilibré que les actuels HD5000.
 
Je me suis toujours demandé pourquoi la mod d'aujourd'hui etait de vendre des puces avec des capacitée d'overcloking tel ?
Avec largement de quoi ouvrir un nouveau segment :jap:


Passer en 384 bits implique augmenter le nombre de ROP et donc directement le fillrate.
En plus jusqu'a présente c'est 256 bits GDDR5 vs 384/512 bits GDDR3. Là NVIDIA aussi est en GDDR5, donc pour continuer a voir une BP réelle équivalente, ATI devrait s'aligner.
Passer a 384-bits ça ne coute quasi rien en conso/transistors.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7517191
MEI
|DarthPingoo(tm)|
Posté le 02-08-2010 à 12:59:14  profilanswer
 

Wirmish a écrit :

Pourtant AMD parle de DEUXIÈME génération de GPU DX11.

Citation :

"We will start introducing the second-generation of our DX 11 products before the end of the year," said Mr. Meyer at the Q2 financial conference call.



Ils parlait sans doute aussi de 2e generation DX10 pour le RV670, alors que c'était un R600 débuggé limite moins puissant sur le papier. :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7517198
barbare128
pas de koi se rouler par terre
Posté le 02-08-2010 à 13:05:34  profilanswer
 

Juste un point que tu négliges MEI, le 3870 et le 4870 faisaient la même taille.
 
La suppression du ring bus dans le 3870 a laissé beaucoup de place pour un petit hub et beaucoup de nouveaux shaders.
 
C'est un point important à avoir en tête si on veut penser comme AMD pour essayer d'entre apercevoir ce qu'ils vont faire pour le 68xx.
 
Autre point important, la taille du die et en rapport avec la taille du bus. Ati a choisis une petite puce, et ne peut donc profiter d'un bus plus large. Oui chaque puce est limité en nombre de pins en fonction de sa taille.
 
Et le bus 384 bits n'est pas envisageable sur les 58xx et très peu de chance que ce soit utile et rentable sur 68xx. Donc Ati va très probablement sortir une 256bits avec une meilleure fréquence au niveau de la GDDR5. ( ce qui en passant est tout à fait possible et disponible chez les fabricants ).
 
Donc 1.5Go je dirais très peu probable. Par contre 1Go et 2Go pour la 6850 et 6870 me semble très probable. En fait je pense même qu'il est plus fort probable, que la 6870 soit 1Go et la 6880 ou 6890 soit 2Go afin d'avoir le pied à l'étrier dans toutes les gammes de prix.
 
Et le saut entre 5870 et 6870 serra limité du fait qu'ATi ne peut plus viré de ring bus pour gagner de la place sur le die et faire plus de shaders comme ils l'ont fait pour 3870->4870.
 
Les TMUs viennent justement de prendre une grosse update avec le 5870, donc le filtrage peut être qu'ATI va mettre l'AA16x et l'AF32x dispo dans les drivers, enfin j'espère bien, mais ce serra très limité.
 
En fait la nouvelle génération, est bien un nouveau jeu de puces, avec de meilleures performances, mais cela reste globalement la même chose. Cela ferra bientôt un an que le 5870 est en vente, et fin octobre ce ferra 13-14 mois.
 
Ati gère bien les timmings, en fait, ils sortent une carte pour faire patienter les clients, avec une mise à jour substantielle qui devrais faire un bond de 30% au niveau des perfs. ( L'effet 3+1D ).
 
Moins impressionnant que les autres bond, mais suffisant pour maintenir une avance raisonnable sur nvidia en attendant une véritable nouveauté en archi pour le 28nm.
 
D'après mes estimations, le GPU d'ATI 28nm devrais voir le jour fin juin début juillet, et fin juillet pour dispo en masse. ( 2011 ).
 
Il faudrait un gpu d'environ 420-450mm² à mon humble avis pour du 384bits. vu les avancée en terme de fréquence de la GDDR5, cela reste inutile.
 
Ce qui fait qu'ATI a pris le leadership c'est bien le fait d'avoir un très bon yield très vite, sur un produit performant, pas trop de consommation et moins cher.
 
nv a fait une boullette avec les GTX470 en refaisant la grosse puce. Le temps que le yields soit bon, il se passe 6 mois. Pendant ce temps ATI a le temps de faire du marketing, et des ventes.
 
TSMC maitrise le 40nm désormais. ATI a déjà fait fort avec le 5870, la taille de ce GPU est bien plus importantes que les précédentes, je vois très mal ATI aller à des tailles record compte tenu de leur politique de petit die.
 
334mm² pour 5870.
 
Soit au pire du pire 410mm² pour le 6870.


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7517202
kaiser52
Posté le 02-08-2010 à 13:11:43  profilanswer
 

Le ringbus à déjà réduit de moitier lors du passage HD 2900 => hd 3000.
Il n'y avait plus vraiment de différence de taille avec un bus standar nan ? :heink:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7517205
hocine21
La prog es un art .
Posté le 02-08-2010 à 13:13:49  profilanswer
 

Moi qui voulais acheter une saphire ati redeon 5830 à 160 € neuf :).J' attend les 6xxx ou j'achète ?
Sinon vous pensez que nvidia est en mesure de répliquer ?Elle a quand méme 6 mois de retard .Non ?  

n°7517208
barbare128
pas de koi se rouler par terre
Posté le 02-08-2010 à 13:15:34  profilanswer
 

kaiser52 a écrit :

Le ringbus à déjà réduit de moitier lors du passage HD 2900 => hd 3000.
Il n'y avait plus vraiment de différence de taille avec un bus standar nan ? :heink:


 
D'après toi comment ATI a pu caser dans la même taille de die 800 shaders au lieux de 320 avec la même de die et avec le même processus de fabrication.
 
C'est juste anodin non ?  :whistle:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7517215
barbare128
pas de koi se rouler par terre
Posté le 02-08-2010 à 13:20:37  profilanswer
 

hocine21 a écrit :

Moi qui voulais acheter une saphire ati redeon 5830 à 160 € neuf :).J' attend les 6xxx ou j'achète ?
Sinon vous pensez que nvidia est en mesure de répliquer ?Elle a quand méme 6 mois de retard .Non ?  


 
nvidia n'est pas en mesure de répliquer, niveau R&D c'est peu probable qu'ils puissent avoir eu le temps.
 
Vu que ATI doivent regagner le leadership, ce serra certainement plus cher et pas forcément meilleur prix/perf je pense ce serra un peu moins bon pendant 6 mois.
 
La 5830 est une bonne carte pour le moment.


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7517216
kaiser52
Posté le 02-08-2010 à 13:21:58  profilanswer
 

barbare128 a écrit :


 
D'après toi comment ATI a pu caser dans la même taille de die 800 shaders au lieux de 320 avec la même de die et avec le même processus de fabrication.
 
C'est juste anodin non ?  :whistle:


 
Pourtant on passe de 190mm^ (3870) a 256mm^ (4870).
C'est quand même pas identique en taille !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  23  24  25  ..  839  840  841  842  843  844

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topik Unik] Les AMD Radeon™ XFX HD 5870 ─ 587X ● mini BDD ● Sondage ●probleme d'affichage radeon 4870 : affichage surface réduite
[Topic Unique ?] Lian Li PC-8FI : Moyen tour 2010 !! Coming soon !![topic unique] Silverstone SG05 / SG06 / SG07
radeon 3650-3850-4650 agpATI 5750 ou 5770 ?
Probleme ATI HD 5850 POwercolor ati2dvag.dll 
Plus de sujets relatifs à : [Topic Unique] AMD Radeon HD 6800 et 6900 ; 40nm dx11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)