Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Aide | Shop Recherche
1697 connectés 

 


 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  33  34  35  ..  987  988  989  990  991  992
Auteur Sujet :

[Topic Unique] AMD Radeon R9/R7 200; HD 7000 Southern Islands (28nm)

n°7943945
Lyto
Posté le 17-06-2011 à 22:47:50  profilanswer
 

Reprise du message précédent :

MEI a écrit :


Pour moi le High Definition c'est pas que c'est une Radeon HD, juste que c'est une puce qui gère le 1080p ... :o
 


Oui mais comme le RV770 est capable de gérer le 1080p, on en revient au même point  :cry:


---------------
L'innovation, c'est extra :)
mood
Publicité
Posté le 17-06-2011 à 22:47:50  profilanswer
 

n°7943949
Zack38
Posté le 17-06-2011 à 22:51:46  profilanswer
 

La problématique là-dedans, c'est que le RV770 fût avant tout un GPU DX10.1.
 
Cela laisse donc supposer que la Wii U ne profitera pas des avantages indéniables de DX11, que sont notamment la tessellation et le multi-threading, entre autres...
Et donc que Nintendo va encore avoir un train de retard sur ses concurrents qui à coup sûr se doteront d'une telle technologie.
En gros, espérons que la nouvelle génération de consoles permettra au software d'évoluer plus sereinement sur PC...

n°7943957
sasuke87
Posté le 17-06-2011 à 23:05:00  profilanswer
 

Zack38 a écrit :

La problématique là-dedans, c'est que le RV770 fût avant tout un GPU DX10.1.
 
Cela laisse donc supposer que la Wii U ne profitera pas des avantages indéniables de DX11, que sont notamment la tessellation et le multi-threading, entre autres...
Et donc que Nintendo va encore avoir un train de retard sur ses concurrents qui à coup sûr se doteront d'une telle technologie.
En gros, espérons que la nouvelle génération de consoles permettra au software d'évoluer plus sereinement sur PC...


 
Le RV770 le peut aussi non? Même le GPU de la Xbox360 est équipé pour il me semble.

n°7943958
MEI
|DarthPingoo(tm)|
Posté le 17-06-2011 à 23:09:14  profilanswer
 

sasuke87 a écrit :


 
Le RV770 le peut aussi non? Même le GPU de la Xbox360 est équipé pour il me semble.


Dès le R600 y'a un Tesselateur chez ATI.
Puis c'est du dérivé, donc au pire a voir...
 
Ca restera toujours bien plus flexible que les DX9-class de la X360 et la PS3 et de l'antique GPU de la Wii.
Et niveau puissance etre genre 4 ou 5x plus perfs ça sera pas mal non plus.
 
Alors ça sera pas une console au top, mais elle aura je pense moins de retard que la Wii vis à vis des futur console MS/Sony
Et surtout au pire les moteurs tournerons sur ce GPU aussi et donc le multiplateforme sera Xbox3/PS4/Wii U/"PC-MAC" sans trop de soucis et c'est ça l'important.


---------------
| AMD Ryzen 7 3700X 8C/16T @ 3.6GHz - 32GB DDR4-3600 16-18-18 1T - AMD Radeon RX 5700 XT 8GB @ 2010MHz/14Gbps |
n°7944024
Activation
21:9 kill Surround Gaming
Posté le 18-06-2011 à 00:47:16  profilanswer
 

de toute façon si les prochaines consoles reste bridé par un hdmi 1.4a
 
faut au mieux du 1080p 60i/s ou 30i/s stéréoscopique
 
donc en puissance gpu j'ai envie de dire que les prochaine console ça va se taper au mieux du truc genre hd6870 1Go (partant de là il y aura minimum 2ans de retard techno à leur sortie si sortie 2012)
 
m'enfin comme il y a peu de chance qu'on ai des console ou il y ai plus de 512Mo dédié à l'affichage (on se situerait alors au niveau d'une HD5770, et la c'est facile déjà 3ans de retard techno à la sortie de la console "next" next" gen ... pour reprendre leur terme pompeux)
2Go de mémoire système serait déjà un minimum
 
nop car quand une "pauvre" tablet android à déjà 1Go de mémoire système
 
faudrait tout de même que des "console de salon" marque un peu plus le pas que des tablet ou des console portable quoi :o
 
après la remplaçante de la xbox360 se voudrait compatible technologiquement dx11 ne serait ce que pour simplifier la passerelle avec les sdk console/PC
 
sinon le processeur de la remplaçante de la xbox360 pourrait être quelque chose comme un dérivé de IBM POWER7, 6 ou 8 cores genre cadencé à 3.2/3.5Ghz
nop car bon un power7 vu la quantité de cache L3 serait étonnant que ça soit pas "castré" pour un usage console

Message cité 3 fois
Message édité par Activation le 18-06-2011 à 01:03:55
n°7944031
snakesolid​2
Premier de cordée
Posté le 18-06-2011 à 00:57:55  profilanswer
 

Activation a écrit :

de toute façon si les prochaines consoles reste bridé par un hdmi 1.4a

 

faut au mieux du 1080p 60i/s ou 30i/s stereoscopique

 

donc en puissance gpu j'ai envie de dire que les prochaine console ça va se taper au mieux du truc genre hd6870 1Go

 

m'enfin comme il y a peu de chance qu'on est des console ou il y ai plus de 512Mo dédié à l'affichage
2Go de mémoire système serait déjà un minimum

 

nop car quand une "pauvre" tablet android à déjà 1Go de mémoire système

 

faudrait tout de même que des "console de salon" marque un peu plus le pas que des tablet ou des console portable quoi :o

*

 


ce serait assez priceless que les smartphones qui sortent la même année que les nouvelles consoles de salon aient plus de ram que celles-ci  :D


Message édité par snakesolid2 le 18-06-2011 à 00:58:19

---------------
Pour aider la recherche sur le coronavirus mettez vos pc à contribution >>> https://foldingathome.org/
n°7944032
MEI
|DarthPingoo(tm)|
Posté le 18-06-2011 à 00:58:41  profilanswer
 

Activation a écrit :

de toute façon si les prochaines consoles reste bridé par un hdmi 1.4a
 
faut au mieux du 1080p 60i/s ou 30i/s stereoscopique
 
donc en puissance gpu j'ai envie de dire que les prochaine console ça va se taper au mieux du truc genre hd6870 1Go
 
m'enfin comme il y a peu de chance qu'on est des console ou il y ai plus de 512Mo dédié à l'affichage
2Go de mémoire système serait déjà un minimum
 
nop car quand une "pauvre" tablet android à déjà 1Go de mémoire système
 
faudrait tout de même que des "console de salon" marque un peu plus le pas que des tablet ou des console portable quoi :o


512Mo en 2005 c'est comme avoir 4Go aujourd'hui...
 
J'pense que les consoles auront au moins 4Go de RAM quand même.


---------------
| AMD Ryzen 7 3700X 8C/16T @ 3.6GHz - 32GB DDR4-3600 16-18-18 1T - AMD Radeon RX 5700 XT 8GB @ 2010MHz/14Gbps |
n°7944034
Activation
21:9 kill Surround Gaming
Posté le 18-06-2011 à 01:08:42  profilanswer
 

MEI a écrit :


512Mo en 2005 c'est comme avoir 4Go aujourd'hui...
 
J'pense que les consoles auront au moins 4Go de RAM quand même.


tout ce que je leur souhaite, m'enfin avec les nouvelle finesse pour les puce mémoire et la hausse de la taille mini de capacité proposé au catalogue de ces nouvelles puces
on va déjà tabler sur 2Go ça serait pas du luxe et un ENORME pas en avant comparé aux consoles "next vieille" actuelle


Message édité par Activation le 18-06-2011 à 01:25:47
n°7944036
snakesolid​2
Premier de cordée
Posté le 18-06-2011 à 01:14:19  profilanswer
 

J'ai une question :  
 
concrètement c'est quoi la différence entre la DDR classique et la GDDR, c'est juste le nom qui change ou les spécificités sont vraiment différentes ?  
 
merci  :jap:


---------------
Pour aider la recherche sur le coronavirus mettez vos pc à contribution >>> https://foldingathome.org/
n°7944038
MEI
|DarthPingoo(tm)|
Posté le 18-06-2011 à 01:16:52  profilanswer
 

snakesolid2 a écrit :

J'ai une question :  
 
concrètement c'est quoi la différence entre la DDR classique et la GDDR, c'est juste le nom qui change ou les spécificités sont vraiment différentes ?  
 
merci  :jap:


Hormis le fait qu'on est en "DDR4", c'est plus des différences pour l’interfaçage de tête (terminaison on-die, etc).


---------------
| AMD Ryzen 7 3700X 8C/16T @ 3.6GHz - 32GB DDR4-3600 16-18-18 1T - AMD Radeon RX 5700 XT 8GB @ 2010MHz/14Gbps |
mood
Publicité
Posté le 18-06-2011 à 01:16:52  profilanswer
 

n°7944062
barbare128
pas de koi se rouler par terre
Posté le 18-06-2011 à 05:47:07  profilanswer
 

snakesolid2 a écrit :

J'ai une question :  
 
concrètement c'est quoi la différence entre la DDR classique et la GDDR, c'est juste le nom qui change ou les spécificités sont vraiment différentes ?  
 
merci  :jap:


 
En fait la GDDR est optimisé débit, alors que la DDR est plus optimisé latence. ( en gros ).
 
C'est pour ça que de la GDDR5 ne serra jamais vu sur un CPU qui a besoin d'une latence faible plus qu'un débit brut, et le GPU a besoin d'un débit de brute
et il est plutôt tolérant en matière de latence.
 
En gros, c'est ça ...
 
Le GPU a besoin beaucoup de textures, et a très peu de branchements, alors que le cpu a beaucoup de branchements. d'où ces différences importantes.
 
Et la DDR3 n'a rien de comparable avec la GDDR3 sauf le numéro.
 
Au passage la DDR4 n'aura rien de comparable avec la DDR3 au niveau de sa connexion avec le CPU, je vous laisse lire la doc à ce sujet pour en savoir plus.  :jap:  
 
Merci MEI de ne pas être clair ;)
 


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7944128
Invite_Sur​prise
Racaille de Shanghaï
Posté le 18-06-2011 à 10:24:57  profilanswer
 

TSMC wins orders for 28nm GPU from AMD, says paper - DigiTimes
 

Citation :

AMD reportedly has completed the tape-out of its next-generation GPU, codenamed Southern Islands, on Taiwan Semiconductor Manufacturing Company's (TSMC) 28nm process with High-k Metal Gate (HKMG) technology, according to a Chinese-language Commercial Times report. The chip is set to expected to enter mass produciton at the end of 2011.
 
TSMC will also be AMD's major foundry partner for the 28nm Krishna and Wichita accelerated processing units (APUs), with volume production set to begin in the first half of 2012, the report said.
 
TSMC reportedly contract manufactures the Ontario, Zacate and Desna APUs for AMD as well as the Northern Island family of GPUs. All of these use the foundry's 40nm process technology.
 
TSMC was quoted as saying in previous reports that it had begun equipment move-in for the phase one facility of a new 12-inch fab (Fab 15) with volume production of 28nm technology products slated for the fourth quarter of 2011. The foundry previously said it would begin moving equipment into the facility in June, with volume production expected to kick off in the first quarter of 2012.


 
http://tof.canardpc.com/view/7b7512d2-e515-4941-9532-5a4a8d75f1bf.jpg

Message cité 1 fois
Message édité par Invite_Surprise le 18-06-2011 à 10:25:28
n°7944150
Zack38
Posté le 18-06-2011 à 11:05:40  profilanswer
 

MEI a écrit :


512Mo en 2005 c'est comme avoir 4Go aujourd'hui...

 

J'pense que les consoles auront au moins 4Go de RAM quand même.

 

Je tablerais plutôt sur une quantité de RAM entre 1 et 2Go.
Les constructeurs savent en effet très bien que les optimisations console peuvent faire merveille, même avec une config toute pourrie...
A moins d'être très titillant, le rendu est pas franchement dégueulasse sur X360 ni sur PS3, ça reste correct dans l'absolu. :spamafote:

 
MEI a écrit :


Hormis le fait qu'on est en "DDR4", c'est plus des différences pour l’interfaçage de tête (terminaison on-die, etc).

 

Hein ? :heink:
EDIT : barbare128 :D

Message cité 2 fois
Message édité par Zack38 le 18-06-2011 à 11:06:42
n°7944183
Activation
21:9 kill Surround Gaming
Posté le 18-06-2011 à 11:35:31  profilanswer
 

Zack38 a écrit :


 
Je tablerais plutôt sur une quantité de RAM entre 1 et 2Go.
Les constructeurs savent en effet très bien que les optimisations console peuvent faire merveille, même avec une config toute pourrie...
A moins d'être très titillant, le rendu est pas franchement dégueulasse sur X360 ni sur PS3, ça reste correct dans l'absolu. :spamafote:  
 


le petit miracle du "rescaling"  [:elfenyu]

n°7944188
Zack38
Posté le 18-06-2011 à 11:38:38  profilanswer
 

N'empêche que ça marche plutôt pas mal, les joueurs console en sont toujours satisfaits :spamafote:

 

Bref, j'arrête le HS ici. :o ²


Message édité par Zack38 le 18-06-2011 à 11:39:04
n°7944214
Gigathlon
Quad-neurones natif
Posté le 18-06-2011 à 11:56:51  profilanswer
 


La GDDR5 est de la "DDR4" tweakée :o

Message cité 1 fois
Message édité par Gigathlon le 18-06-2011 à 11:57:08
n°7944246
barbare128
pas de koi se rouler par terre
Posté le 18-06-2011 à 12:18:23  profilanswer
 

Gigathlon a écrit :


La GDDR5 est de la "DDR4" tweakée :o


 
mdr c'est la meilleure blague de l'année  :lol:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7944247
Zack38
Posté le 18-06-2011 à 12:18:47  profilanswer
 

Bon, alors, c'est quoi ? :D

n°7944257
barbare128
pas de koi se rouler par terre
Posté le 18-06-2011 à 12:23:00  profilanswer
 

Zack38 a écrit :

Bon, alors, c'est quoi ? :D

 

la GDDR5 c'est de la GDDR3 dépourvue de bien des choses inutiles en 3D. ( et d'un prefetcher doublé au passage ;) )

 

Bref les controleurs sont bien plus bourrin que ceux en GDDR3.

 

La DDR4 est une mémoire comparable à la XDR sur le principe,
qui est très différente de la DDR classique. :jap:.

 

Et comparer de la GDDR à de la DDR c'est comparer des choux de Bruxelles à des choux à la crême :jap:


Message édité par barbare128 le 18-06-2011 à 12:23:33

---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7944259
Gigathlon
Quad-neurones natif
Posté le 18-06-2011 à 12:23:50  profilanswer
 

barbare128 a écrit :

mdr c'est la meilleure blague de l'année  :lol:


Check le prefetch, c'est bien le cas.
 
Après, j'avoue ne pas avoir encore regardé les specs de la DDR4 finale, mais pour moi DDR = fréquence x2, DDR2 = x4, DDR3 = x8 et DDR4 = x16, le prefetch suivant cette même multiplication.

n°7944261
barbare128
pas de koi se rouler par terre
Posté le 18-06-2011 à 12:25:47  profilanswer
 

Gigathlon a écrit :


Check le prefetch, c'est bien le cas.
 
Après, j'avoue ne pas avoir encore regardé les specs de la DDR4 finale, mais pour moi DDR = fréquence x2, DDR2 = x4, DDR3 = x8 et DDR4 = x16, le prefetch suivant cette même multiplication.


 
il faudra expliquer en quelle langue, GDDR rien avoir avec DDR.
 
C'est pas la même chose  :o


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7944273
snakesolid​2
Premier de cordée
Posté le 18-06-2011 à 12:35:32  profilanswer
 

barbare128 a écrit :


 
En fait la GDDR est optimisé débit, alors que la DDR est plus optimisé latence. ( en gros ).
 
C'est pour ça que de la GDDR5 ne serra jamais vu sur un CPU qui a besoin d'une latence faible plus qu'un débit brut, et le GPU a besoin d'un débit de brute
et il est plutôt tolérant en matière de latence.
 
En gros, c'est ça ...
 
Le GPU a besoin beaucoup de textures, et a très peu de branchements, alors que le cpu a beaucoup de branchements. d'où ces différences importantes.
 
Et la DDR3 n'a rien de comparable avec la GDDR3 sauf le numéro.
 
Au passage la DDR4 n'aura rien de comparable avec la DDR3 au niveau de sa connexion avec le CPU, je vous laisse lire la doc à ce sujet pour en savoir plus.  :jap:  
 
Merci MEI de ne pas être clair ;)
 


 
Merci pour cette explication plus que claire  :D


---------------
Pour aider la recherche sur le coronavirus mettez vos pc à contribution >>> https://foldingathome.org/
n°7944315
Gigathlon
Quad-neurones natif
Posté le 18-06-2011 à 13:25:51  profilanswer
 

barbare128 a écrit :

il faudra expliquer en quelle langue, GDDR rien avoir avec DDR.
 
C'est pas la même chose  :o


La DDR4 a tout l'air de récupérer pas mal de concepts introduits avec les GDDR4 et GDDR5 au contraire...
 
- bank rolling
- data inverting
- parité
- CRC
- pseudo-open drain (ce que tu qualifies de ressemblance avec la XDR, jusque la DDR3 c'était du SSTL et dès la GDDR3 c'est passé à du POD)
 
Tout ça, c'est arrivé avec les GDDR.
 
Par contre, le prefetch est bien de 8 (DDR3 donc) contrairement à ce que j'avais en tête pour la GDDR5. Sachant que je n'ai toujours pas vu de specs finales pour la DDR4 je ne peux pas me prononcer là-dessus même si on peut supposer que ça sera du 16x.

n°7944403
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 18-06-2011 à 14:10:28  profilanswer
 

Invite_Surprise a écrit :

TSMC wins orders for 28nm GPU from AMD, says paper - DigiTimes
 

Citation :

AMD reportedly has completed the tape-out of its next-generation GPU, codenamed Southern Islands, on Taiwan Semiconductor Manufacturing Company's (TSMC) 28nm process with High-k Metal Gate (HKMG) technology, according to a Chinese-language Commercial Times report. The chip is set to expected to enter mass produciton at the end of 2011.
 
TSMC will also be AMD's major foundry partner for the 28nm Krishna and Wichita accelerated processing units (APUs), with volume production set to begin in the first half of 2012, the report said.
 
TSMC reportedly contract manufactures the Ontario, Zacate and Desna APUs for AMD as well as the Northern Island family of GPUs. All of these use the foundry's 40nm process technology.
 
TSMC was quoted as saying in previous reports that it had begun equipment move-in for the phase one facility of a new 12-inch fab (Fab 15) with volume production of 28nm technology products slated for the fourth quarter of 2011. The foundry previously said it would begin moving equipment into the facility in June, with volume production expected to kick off in the first quarter of 2012.


 
http://tof.canardpc.com/view/7b7512d2-e515-4941-9532-5a4a8d75f1bf.jpg


 
Merci je mettrais tous les topics à jour en début de semaine.
 
*********************
 
AFDS: L'architecture des futurs GPUs AMD !
 
http://www.hardware.fr/news/11648/ [...] s-amd.html
 
La première journée du Fusion Summit s'est terminée par une session surprenante durant laquelle Michael Mantor, Senior Fellow Architect, et Mike Houston, Fellow Architect, ont dévoilé la future architecture GPU d'AMD avec de très nombreux détails, ne laissant que quelques éléments spécifiques au rendu 3D de côté.
 
AMD travaille sur cette nouvelle architecture depuis près de 5 ans déjà et a pour objectif principal d'en simplifier le modèle de programmation pour convaincre un maximum de développeurs de se pencher sur la puissance de calcul offerte par les GPUs. Il s'agit également de la première architecture a avoir été influencée en profondeur par l'intégration d'ATI dans AMD et par le projet Fusion.
 
Cette architecture marque ainsi une rupture significative par rapport aux GPUs actuels en se débarrassant du modèle VLIW, qui repose sur l'exécution simultanée de plusieurs instructions indépendantes, au profit d'un fonctionnement scalaire du point de vue du programmeur. Le front-end, les processeurs de commandes et la structure des caches ont par ailleurs été entièrement revus pour proposer un mode compute plus performant et plus flexible ainsi que pour traiter efficacement le multitâche qui va devenir de plus en plus importants pour les GPUs.
 
Des Asynchronous Compute Engines (ACE) font ainsi leur apparition pour prendre en charge les tâches compute sans passer par la partie graphique. Cette dernière n'est cependant pas en reste puisque les unités de gestion de la géométrie et des pixels sont parallélisées, ce qui profitera à la tessellation. Contrairement à l'approche de Nvidia, la prise en charge de la géométrie n'est pas distribuée au niveau des blocs d'unités de calcul, mais reste découplée de celles-ci.
 
Les SIMDs actuels disparaissent au profit de Compute Units. Chaque CU dispose dorénavant d'une unité scalaire et de 4 petits SIMDs indépendants similaires à ceux des GPUs Nvidia. Grossièrement, un SIMD de Cayman peut exécuter une instruction vec4 sur 16 éléments à chaque cycle alors que chaque CU est capable d'exécuter 4 instructions sur 16 éléments issus de 4 groupes différents plus une instruction scalaire. La puissance de calcul d'une CU est donc similaire à celle d'un SIMD actuel mais devrait gagner nettement en efficacité.
 
AMD n'a pas voulu préciser quand cette architecture devrait être introduite et s'est contenté d'indiquer que le GPU de Trinity ne serait pas basé sur celle-ci mais bien sur l'architecture vec4 des Radeon HD 6900. Les bruits de couloir nous font cependant état d'une arrivée prévue dès cette année, voire même d'une démonstration du GPU qui l'inaugurera lors du keynote de clôture du Fusion Summit !
 
Il ne faudrait donc attendre que quelques mois pour voir ce qu'apportera en pratique cette nouvelle architecture prometteuse sur le papier. Si elle facilitera à terme l'optimisation du compilateur GPU, elle demandera cependant un effort important aux équipes chargées des pilotes compte tenu de la rupture avec les GPUs actuels. Concernant le coût de cette nouvelle architecture, AMD nous a indiqué qu'il n'était que légèrement plus élevé que celui des architectures actuelles, certaines parties étant plus complexe mais d'autres simplifiées. Elle ne devrait donc pas être un frein à l'augmentation du nombre d'unités de calcul.
 
Notez que cette architecture proposera plus de modularité qu'auparavant puisqu'en plus du nombre de CUs, AMD pourra faire varier le nombre d'ACEs, le nombre de pipelines dédiées à la géométrie ou aux pixels, la puissance de calcul en double précision (de 1/2 à 1/16)… De toute évidence, la première implémentation devrait être un GPU haut de gamme avec au moins 30 CUs, plusieurs ACEs et un calcul en double précision à demi-vitesse.
 
 
*************
 
 
AFDS: Retour sur le futur GPU d'AMD
 
http://www.hardware.fr/news/11656/ [...] u-amd.html
 
Lors du dernier keynote de l'AFDS, Eric Demers, Chief Technology Officer pour la partie GPU chez AMD, est revenu sur la future architecture GPU qui a été présentée avec de très nombreux détails cette semaine, de manière à en mettre en avant les grandes lignes d'une manière simplifiée. Il a également été confirmé qu'AMD espérait lancer cette architecture à la fin de l'année, si le procédé de fabrication 28nm n'entrave pas ces plans.
 
Eric a rappelé que l'évolution des GPUs ATI/AMD nous a fait passer d'une architecture au comportement vec4 + 1 vers une architecture vec5 à partir des Radeon HD 2900 puis enfin vers une architecture vec4 avec les Radeon HD 6900 qui sera déclinée dans de futurs GPUs milieu et bas de gamme ainsi que dans Trinity. Ces choix architecturaux s'expliquent par la présence de nombreuses opérations vec4 mais aussi scalaires dans le rendu graphique qui reste la tâche principale des GPUs. La flexibilité des unités de calcul de type MIMD/VLIW des derniers GPUs a permis de se passer du canal scalaire et de laisser le compilateur se charger de mixer toutes les opérations dans les 5 ou 4 canaux disponibles.
 
Avec sa future architecture, AMD a voulu conserver une organisation similaire. Si le modèle VLIW est abandonné, les blocs fondamentaux de ces GPUs vont garder ces 4 canaux, non pas pour exécuter des opérations vec4 mais pour conserver un ratio similaire et vu comme le plus adapté pour le graphique. Les tâches de type "compute" devenant de plus en plus importantes et affichant souvent une utilisation moindre des unités vec5 ou vec4, il fallait revenir à un modèle scalaire du point de vue du programmeur.
 
http://www.hardware.fr/medias/photos_news/00/32/IMG0032712_1.jpg
 
http://www.hardware.fr/medias/photos_news/00/32/IMG0032713_1.jpg
 
http://www.hardware.fr/medias/photos_news/00/32/IMG0032714_1.jpg
 
http://www.hardware.fr/medias/photos_news/00/32/IMG0032715_1.jpg
 
 
L'architecture proposée par AMD permet de combiner ces deux aspects en plaçant dans chaque Compute Unit non pas une grosse unité MIMD mais 4 plus petites unités SIMD indépendantes. Par ailleurs, AMD leur adjoint une unité scalaire qui sera destinée à éviter de monopoliser la puissance de calcul vectorielle par des opérations simples. Comme pour les blocs fondamentaux des GPUs actuels, chaque CU recevra 4 unités de texturing. Une CU est donc, sur le plan des unités d'exécution, très proche de ce qu'AMD appelle actuellement les SIMDs. C'est au niveau de l'exploitation de ces unités d'exécution que le changement est radical. Le GPU Cayman des Radeon HD 6900 peut d'ailleurs être vu comme une étape intermédiaire vers cette nouvelle architecture. Un côté hybride/prototype qui explique probablement son efficacité dsicutable.
 
Un autre aspect important de la nouvelle architecture est le multitâche puisque ces nouveaux GPUs seront capables de gérer différentes commandes simultanément ainsi que la priorité à donner à chacune d'elles. Tout ceci se passera au niveau du GPU et non au niveau du système d'exploitation.
 
Le cache L2 utilisable en lecture et en écriture est la troisième grosse évolution. Il permet également l'existence d'un espace cohérent entre toutes les CUs ainsi qu'avec le CPU, que ce soit à l'intérieur d'un APU ou avec une carte graphique dédiée.
 
Ce cache L2 généralisé, le fonctionnement scalaire des unités de calcul, le support de l'espace mémoire virtuel x86 et du C++ vont faire exploser l'intérêt du GPU computing. Notez cependant que sur certains de ces points, AMD ne fait que rattraper le retard pris sur Nvidia.
 
http://www.hardware.fr/medias/photos_news/00/32/IMG0032716_1.jpg
 
http://www.hardware.fr/medias/photos_news/00/32/IMG0032717_1.jpg
 
http://www.hardware.fr/medias/photos_news/00/32/IMG0032718_1.jpg
 
Une interrogation importante que nous avons par rapport à cette nouvelle architecture est son efficacité énergétique. Comme nous avons pu le voir avec les Radeon HD 6970, elle était quelque peu en baisse. Augmenter le rendement d'une Compute Unit va donc faire progresser sa consommation relative. Si le procédé de fabrication 28nm permettra d'en faire baisser la consommation absolue, la question reste importante.
 
Nous avons pu nous entretenir avec Eric Demers à ce sujet et selon lui il s'agit d'un faux problème. Dans l'architecture actuelle, quand certaines lignes des unités vec4 ou vec5 ne sont pas utilisées, elles restent alimentées. Leur consommation est moindre que quand elles sont exploitées, mais elles gaspillent malgré tout beaucoup d'énergie. Ce gaspillage va disparaître avec la future architecture. En d'autres termes, nous nous approcherons probablement plus souvent de la consommation maximale des Compute Units, mais leur rendement énergétique serait dans tous les cas supérieur.
 
Enfin, nous avons demandé au CTO d'AMD s'il envisageait d'inclure à l'avenir dans les GPUs plus de CUs que ne le permet le TDP, tout en sachant qu'ils ne pourraient pas tous être exploités en rendu 3D (limités par PowerTune par exemple), mais en supposant qu'ils pourraient l'être dans le mode compute qui n'exploite pas certaines parties du GPU très gourmandes telles que les unités de texturing. Eric Demers nous a répondu qu'AMD envisageait effectivement cela et qu'une telle possibilité pourrait éventuellement être retenue à l'avenir, si les simulations le justifiaient, notamment pour un GPU qui viserait le HPC.


Message édité par super_newbie_pro le 18-06-2011 à 14:15:12

---------------
~ PCINFOS.FR ; la maison des topics de super_newbie_pro ~
n°7944405
Activation
21:9 kill Surround Gaming
Posté le 18-06-2011 à 14:11:01  profilanswer
 

barbare128 a écrit :


 
il faudra expliquer en quelle langue, GDDR rien avoir avec DDR.
 
C'est pas la même chose  :o


si regarde :o ... y a DéDé dedans
 
http://dedelecochon.free.fr/images/dede.jpg

n°7945866
Jitech
Posté le 19-06-2011 à 18:45:13  profilanswer
 

Activation a écrit :

de toute façon si les prochaines consoles reste bridé par un hdmi 1.4a
 
faut au mieux du 1080p 60i/s ou 30i/s stéréoscopique
 
donc en puissance gpu j'ai envie de dire que les prochaine console ça va se taper au mieux du truc genre hd6870 1Go (partant de là il y aura minimum 2ans de retard techno à leur sortie si sortie 2012)


 
La PS3 a un GPU comparable au 7900 GTX, le haut de gamme des geforce 7. La PS3 est sortie au même moment que le 8800 GTX. Je pense donc que le GPU de la PS4 aura également une génération de retard. Les rumeurs parlent d'une sortie de la PS4 en 2013 voire 2014 donc elle embarquera au moins un HD 79xx.
Tu sembles dire que nous ne verrons jamais de jeux en 1080p plus beau que ceux que nous voyons aujourd'hui. Je ne suis pas de cet avis et 30i/s vsync on c'est déjà très bien. Les jeux consoles aujourd'hui c'est plutôt du 25fps et sans stéréoscopie http://www.youtube.com/watch?v=S-9_abmeikM.

n°7945952
Activation
21:9 kill Surround Gaming
Posté le 19-06-2011 à 19:36:47  profilanswer
 

je dis pas qu'on aura pas de jeux plus beau,  
mais les jeux consoles, l'antialiasing savent pas trop ce que c'est, et sur PC ça se perd malheureusement, vu que les devs préfère garder les doigts bien au chaud dans leur fondements
 
partant de là sans AA activé une HD5870 est déjà un monstre de puissance :o pour une carte qui a déjà 1,5ans et une xboite720 qui sortirait en 2012
 
on risque bien de voir 2gen de retard niveau gpu dans les prochaine console, pas qu'1 seule
et le pognon plus investi dans le cpu  
reste à voir si une xbox720 aura toujours un support DVD, MS semblant toujours pas chaud bouillant pour mettre une unité blu ray
d'ici qu'ils nous pondent un format à la con spécifique (un peu comme chez nintendo ou le UMD)  
 
quand à dire que la PS3 à un gpu comparable à une 7900gtx c'est absolument faux
il est bien en deçà d'une telle CG
sinon on pourrait avoir des jeux bien plus nombreux en 1080p et pas autant dire de façon systématique en 720p


Message édité par Activation le 19-06-2011 à 19:44:14
n°7945956
snakesolid​2
Premier de cordée
Posté le 19-06-2011 à 19:41:29  profilanswer
 

J'en profite pour poser une question qui n'avais pas eu d'écho sur le topic PS3 :  
 
Question technique  :o :  
 
sur wikipedia on peut lire ça à propos du RSX :  
 

Citation :

Le processeur graphique, baptisé RSX (Real Synthesizer), a été conçu par nVidia en collaboration avec Sony. Il est plus puissant que le Xenos de la Xbox 360 (mais moins modulable) et est basé sur l'architecture NV40 fonctionnant à 550 Mhz. Le processeur emprunte beaucoup des technologies de la génération G70 & G71 avec:
 
    24 unités de Pixel Shader (27 Flops par unités et par cycles - 356,4 Gflops)
    8 unités de Vertex Shader (8 Flops par unités et par cycles - 44 Gflops)
 
Bien que ses Shaders ne soient pas unifiés comme ceux du GPU de la Xbox 360, le RSX offre une grande puissance de calcul sur les Shaders avec 400,4 Gflops (dédié), contre 240 Gflops (unifié) pour le Xenos .
 
La puissance totale du système Playstation 3 est estimé à 2 Tflops (2000 Gflops) contre 1 Tflops pour la Xbox 360. Ce calcul théorique comprend les performances du Cell Broadband Engine ajouté au Shaders du RSX ainsi qu'aux pipelines fixes de vertex et de pixel qui bien que non modulable par les développeurs, sont plus puissantes que les Shaders car effectuent des taches prédéfinies.
 
    400,4 gflops Shaders RSX
    204,8 gflops Cell B.E (PPe + 7 SPe)
    1390 gflops env. Pipelines Fixes RSX
 
Au total : 2 Tflops


 
 
 
Sachant que le RSX est à peu près une 7900 gt, comment le RSX pourrait faire (1390 gflops env. Pipelines Fixes RSX + 400,4 gflops Shaders RSX) = 1,8 Tflops
 
Alors qu'une HD 5850 fait tout juste 2,04 Tflops, j'ai du mal à croire/comprendre qu'une carte graphique de 2006 ait la même puissance théorique.  
 
 
Du coup il n"y aurait pas une erreur dans l'article wikipedia, je m'interroge ?  
 
Merci pour toutes réponses ou si vous avez un article sympathique la dessus  :jap:


---------------
Pour aider la recherche sur le coronavirus mettez vos pc à contribution >>> https://foldingathome.org/
n°7945960
Activation
21:9 kill Surround Gaming
Posté le 19-06-2011 à 19:49:10  profilanswer
 

déjà si on pouvait jaugé un gpu in game, par son nombre de "flops" théorique ça se saurait depuis longtemps, on aurait même plus à se faire chier à lire des articles/dossier comparatif à chaque nouveau gpu

n°7945969
barbare128
pas de koi se rouler par terre
Posté le 19-06-2011 à 19:55:11  profilanswer
 

snakesolid2 a écrit :

J'en profite pour poser une question qui n'avais pas eu d'écho sur le topic PS3 :  
 
Question technique  :o :  
 
sur wikipedia on peut lire ça à propos du RSX :  
 

Citation :

Le processeur graphique, baptisé RSX (Real Synthesizer), a été conçu par nVidia en collaboration avec Sony. Il est plus puissant que le Xenos de la Xbox 360 (mais moins modulable) et est basé sur l'architecture NV40 fonctionnant à 550 Mhz. Le processeur emprunte beaucoup des technologies de la génération G70 & G71 avec:
 
    24 unités de Pixel Shader (27 Flops par unités et par cycles - 356,4 Gflops)
    8 unités de Vertex Shader (8 Flops par unités et par cycles - 44 Gflops)
 
Bien que ses Shaders ne soient pas unifiés comme ceux du GPU de la Xbox 360, le RSX offre une grande puissance de calcul sur les Shaders avec 400,4 Gflops (dédié), contre 240 Gflops (unifié) pour le Xenos .
 
La puissance totale du système Playstation 3 est estimé à 2 Tflops (2000 Gflops) contre 1 Tflops pour la Xbox 360. Ce calcul théorique comprend les performances du Cell Broadband Engine ajouté au Shaders du RSX ainsi qu'aux pipelines fixes de vertex et de pixel qui bien que non modulable par les développeurs, sont plus puissantes que les Shaders car effectuent des taches prédéfinies.
 
    400,4 gflops Shaders RSX
    204,8 gflops Cell B.E (PPe + 7 SPe)
    1390 gflops env. Pipelines Fixes RSX
 
Au total : 2 Tflops


 
 
 
Sachant que le RSX est à peu près une 7900 gt, comment le RSX pourrait faire (1390 gflops env. Pipelines Fixes RSX + 400,4 gflops Shaders RSX) = 1,8 Tflops
 
Alors qu'une HD 5850 fait tout juste 2,04 Tflops, j'ai du mal à croire/comprendre qu'une carte graphique de 2006 ait la même puissance théorique.  
 
 
Du coup il n"y aurait pas une erreur dans l'article wikipedia, je m'interroge ?  
 
Merci pour toutes réponses ou si vous avez un article sympathique la dessus  :jap:


 
C'est juste les specs de la PS3 qui sont exagéré, je pense que sony a grugé sur les chiffres c'est aussi simple que ça  :jap:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7945979
Gigathlon
Quad-neurones natif
Posté le 19-06-2011 à 20:07:02  profilanswer
 

snakesolid2 a écrit :

Sachant que le RSX est à peu près une 7900 gt, comment le RSX pourrait faire (1390 gflops env. Pipelines Fixes RSX + 400,4 gflops Shaders RSX) = 1,8 Tflops


Simple: tu considères toutes les opérations y compris le blending, le clipping, le rasterizing à proprement parler, le filtrage des textures...

n°7945981
snakesolid​2
Premier de cordée
Posté le 19-06-2011 à 20:08:57  profilanswer
 

barbare128 a écrit :


 
C'est juste les specs de la PS3 qui sont exagéré, je pense que sony a grugé sur les chiffres c'est aussi simple que ça  :jap:


 
 
Possible aussi que tous ces Flops soit bien présent mais inexploitable, donc en effet de la triche de la part de sony.


---------------
Pour aider la recherche sur le coronavirus mettez vos pc à contribution >>> https://foldingathome.org/
n°7946002
Zack38
Posté le 19-06-2011 à 20:25:54  profilanswer
 

Puissance théorique Vs Puissance pratique...

n°7946009
snakesolid​2
Premier de cordée
Posté le 19-06-2011 à 20:31:20  profilanswer
 

Zack38 a écrit :

Puissance théorique Vs Puissance pratique...


 
Quelle idée aussi de faire de architecture aussi exotique, sony à souvent de grande ambition, les développeurs sont beaucoup plus rationnel et ne peuvent pas se permettre de perdre du temps en optimisations  :D


---------------
Pour aider la recherche sur le coronavirus mettez vos pc à contribution >>> https://foldingathome.org/
n°7946017
Jitech
Posté le 19-06-2011 à 20:44:42  profilanswer
 

C'est bien le problème de Sony, une puissance théorique supérieure à celle de la X360 mais en pratique rare sont les développeurs qui en tirent partie.
C'est sur des jeux comme Uncharted 2 ou God Of War 3 que l'on voit le potentiel du hardware de la PS3. Dans le making of de God Of War 3 les développeurs nous apprennent qu'ils ont confié l'anti-aliasing au CPU et non au GPU d'où une très bonne fluidité et l'absence d'aliasasing.

n°7946065
hyksos_sow​o
Posté le 19-06-2011 à 21:31:20  profilanswer
 

Jitech a écrit :

C'est bien le problème de Sony, une puissance théorique supérieure à celle de la X360 mais en pratique rare sont les développeurs qui en tirent partie.
C'est sur des jeux comme Uncharted 2 ou God Of War 3 que l'on voit le potentiel du hardware de la PS3. Dans le making of de God Of War 3 les développeurs nous apprennent qu'ils ont confié l'anti-aliasing au CPU et non au GPU d'où une très bonne fluidité et l'absence d'aliasasing.


ça démontre surtout que les unités SPE du cell peuvent difficilement être utilisé sur autre chose que des calculs simple et répétitif, alors tant qu'a ne pas les utiliser aussi bien les utiliser pour faire du AA...

n°7946238
MEI
|DarthPingoo(tm)|
Posté le 19-06-2011 à 23:01:24  profilanswer
 

Jitech a écrit :

C'est bien le problème de Sony, une puissance théorique supérieure à celle de la X360 mais en pratique rare sont les développeurs qui en tirent partie.
C'est sur des jeux comme Uncharted 2 ou God Of War 3 que l'on voit le potentiel du hardware de la PS3. Dans le making of de God Of War 3 les développeurs nous apprennent qu'ils ont confié l'anti-aliasing au CPU et non au GPU d'où une très bonne fluidité et l'absence d'aliasasing.


La puissance est théorique, mais avec le peu de perf en VS c'est le drame.


---------------
| AMD Ryzen 7 3700X 8C/16T @ 3.6GHz - 32GB DDR4-3600 16-18-18 1T - AMD Radeon RX 5700 XT 8GB @ 2010MHz/14Gbps |
n°7946291
Gigathlon
Quad-neurones natif
Posté le 19-06-2011 à 23:43:52  profilanswer
 

MEI a écrit :


La puissance est théorique, mais avec le peu de perf en VS c'est le drame.


De toute façon certains chiffres sont totalement farfelus, genre les 8 Flops/clock pour chaque VS... c'est 5 ou 10, d'ailleurs le 44GFlops/s annoncé correspond à ces 10Flops/clock.

 

Idem pour les PS, sachant que c'est du MAD Vec4 donc 8/clock.

 

Rien que là on passe de 400.4 à 149.6GFlops/s, à condition de n'utiliser que du MAD et d'avoir un rapport PS/VS de 3:1.

 

Le problème dans ce raisonnement, c'est que le NV40 était encore franchement inspiré du NV30 et disposait d'unités PS vraiment space (doubles et utilisées pour le texturing).

Message cité 1 fois
Message édité par Gigathlon le 19-06-2011 à 23:45:35
n°7946303
snakesolid​2
Premier de cordée
Posté le 19-06-2011 à 23:59:16  profilanswer
 

Gigathlon a écrit :


De toute façon certains chiffres sont totalement farfelus, genre les 8 Flops/clock pour chaque VS... c'est 5 ou 10, d'ailleurs le 44GFlops/s annoncé correspond à ces 10Flops/clock.
 
Idem pour les PS, sachant que c'est du MAD Vec4 donc 8/clock.
 
Rien que là on passe de 400.4 à 149.6GFlops/s, à condition de n'utiliser que du MAD et d'avoir un rapport PS/VS de 3:1.
 
Le problème dans ce raisonnement, c'est que le NV40 était encore franchement inspiré du NV30 et disposait d'unités PS vraiment space (doubles et utilisées pour le texturing).


 
En gros la personne qui à écrit cette partie de l'article à sorti des chiffres complètement farfelu  :D


---------------
Pour aider la recherche sur le coronavirus mettez vos pc à contribution >>> https://foldingathome.org/
n°7946421
Activation
21:9 kill Surround Gaming
Posté le 20-06-2011 à 06:27:07  profilanswer
 

ou elle a écouté les berceuse de sony et huang et tout en comprenant pas que mélangé de la crème anglaise avec de la graisse de confit de canard c'est dégueulasse, et que faut être barge pour les additionner dans une même recette :o

Message cité 1 fois
Message édité par Activation le 20-06-2011 à 06:27:21
n°7946429
Zack38
Posté le 20-06-2011 à 07:21:29  profilanswer
 

Activation a écrit :

ou elle a écouté les berceuse de sony et huang et tout en comprenant pas que mélangé de la crème anglaise avec de la graisse de confit de canard c'est dégueulasse, et que faut être barge pour les additionner dans une même recette :o


 
 :D  
 
C'est pourtant comme ça que se calcule une puissance de calcul théorique :spamafote:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  33  34  35  ..  987  988  989  990  991  992

Aller à :
Ajouter une réponse
 

Sujets relatifs
AMD 6850 ou Nvidia gtx 460 ?Une question rapide pour l'achat d'un ssd+chip7 AMD
Choix alimentation (i5 760 et AMD HD6870) ?Radeon HD6870 vs Geforce 460 GTX vs GTX 470
Quel Radeon HD pour un 32" ?[Topic unique] LanBoy Air
radeon 6850Home Cinema : AMD / nVidia
ventilateur AMD Phenom II X2 555 Black...SSD sur contrôleur AMD, AHCI ou IDE, et quels pilotes ?
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9/R7 200; HD 7000 Southern Islands (28nm)


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite) / Groupe LDLC / Shop HFR