Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3277 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  84  85  86  ..  93  94  95  96  97  98
Auteur Sujet :

[Topic Unique] APU AMD Trinity & Richland • FM2 / 32nm

n°8731952
Punkenjoy
Posté le 24-05-2013 à 20:14:58  profilanswer
 

Reprise du message précédent :
Si elle sert de framebuffer pour le rendu différé par exemple, ça pourra servir.
 
Je me trompe peut être mais j'ai l'impression que les Dev n'auront pas besoin d'y accéder directement et la gérer. Ce risque plutôt d'être fait par l'OS et ce sera le buffer pour l'AA et autres effets. Les devs appliqueront certains effets dans le SDK qui prendront automatiquement en charge la mémoire... ou pas !
 
:D
 
La simplicité de developpement a pas mal toujours été un des principaux avantage des produits Microsoft. Il me semble donc peu probable qu'il fasse le chemin inverse avec la nouvelle XBOX.
 
Mais je peut me tromper évidemment.

mood
Publicité
Posté le 24-05-2013 à 20:14:58  profilanswer
 

n°8732016
Tahitiflo
éponge carré(e)
Posté le 24-05-2013 à 21:03:32  profilanswer
 

comme si ces faignaces de Devs allaient se casser le c*l a optimiser ,leur code pour chaque support.
comme d hab,il n y aura pas de différence entre les 2 consoles,seuls les jeux exclus seront opti.


---------------
Je ne sais pas si HFR rend fou, ou si c'est un asile de fou.©havoc_28    We are doomed
n°8733833
fire du 57
The futur is Fusion
Posté le 26-05-2013 à 18:46:18  profilanswer
 

maerens a écrit :


apparement l'APU de la XBOX one tire son avantage de différentes optimisations, permettant au GPU de chercher directement les infos ou elles sont disponibles... en Gros la RAM n'est pas forcément la ressource principale accessible...

 

donc la GDDR5 est moins utile d'autant plus que MS inclus 32Mo d'EDRAM ce qui vas en plus simplifier les accès... donc au final c'est une approche différente mais sur le papier ça donnera pareil...finis les jeux couloirs et finis les temps de chargements...
ils ont enfin compris qu'avoir un GROS GPU et un système de mémoire de merde ça ne servais à rien au final...

 

mais sur la papier la PS4 semble plus simple à programmer, pas trop de tour de passe passe pour optimiser ci et là. J'ai hâte d'en lire plus.

 

et pour LA GDDR5 j'imagine que non vu que le "GPU" est amené à avoir une place bien supérieure au "CPU", le "CPU" ne sera que secondaire... et c'est d'ailleurs une volonté d'AMD rendre le GPU prépondérant dans les APU.

 

De plus l'accès mémoire étant unifié, je doute que la GDDR5 ait un impact sur le CPU, les latences de la GDDR5 sont certes hautes mais on plafonne à 176Go/s ce qui est supérieur à la DDR3...

 

ce que je retiens -PS4 faibles latences bonne puissance théorique
                       -Xbox one très faible latences et faible puissance théorique.

 

cependant je tiens à nuancer car MS à intégré des DSP( gèrent les connexions audio entré sortie et les flux Vidéo), je ne sais pas si c'est des 32bits ou des 64bits mais soit, les dsp sont très spécialisés et font très bien ce qu'ils doivent faire.

 

il y a un processeur indépendant dans le kinect, il y a un processeur de traitement des sorties HDMI/USB... comme pour la PS2 de quoi décharger le CPU de tout calculs superflus... (5 milliars de trasistors bien justifiés... >1milliards pour l'EDRAM)

 

sony à une approche différente, il n'y a qu'un seul CPU dans la console.

 

apparement il y aura 5Go de disponibles pour les jeux dans la XBOX one(3Go windows 8, partage,kinect...) et 7Go chez sony(logiciel moins fournis).

 

Meric pour toutes les précisions !

 

Mais il y aussi quelques choses d'important à ne pas oublier toutes les Xbox One connectée à internet pourront améliorer de façon importante ou légère la qualité graphique de l'utilisateur grâce à l'utilisation du Cloud ;)
A partir de ce moment nul doute que la Xbox One sera minimum au niveau de la PS4 au niveau graphique ;)

Message cité 1 fois
Message édité par fire du 57 le 26-05-2013 à 18:46:58

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8733858
Fouge
Posté le 26-05-2013 à 19:07:08  profilanswer
 

fire du 57 a écrit :

Meric pour toutes les précisions !  
 
Mais il y aussi quelques choses d'important à ne pas oublier toutes les Xbox One connectée à internet pourront améliorer de façon importante ou légère la qualité graphique de l'utilisateur grâce à l'utilisation du Cloud ;)
A partir de ce moment nul doute que la Xbox One sera minimum au niveau de la PS4 au niveau graphique ;)

Ca je demande à voir :o

n°8733862
Marc
Chasseur de joce & sly
Posté le 26-05-2013 à 19:13:22  profilanswer
 

Clair, ça sort d'où ?
 
Soit tu confie tout le rendu à un serveur distant, soit rien. Et vue le niveau de puissance ça n'as pas vraiment d'intérêt de le faire, vu les contraintes inhérentes au cloud gaming.

n°8733868
Gigathlon
Quad-neurones natif
Posté le 26-05-2013 à 19:17:56  profilanswer
 

Marc a écrit :

Clair, ça sort d'où ?
 
Soit tu confie tout le rendu à un serveur distant, soit rien. Et vue le niveau de puissance ça n'as pas vraiment d'intérêt de le faire, vu les contraintes inhérentes au cloud gaming.


Je remarque qu'on s'éloigne de plus en plus des propos tenus dans l'annonce d'ailleurs... arriver à un clustering massif de consoles pour améliorer les perfs de chacune individuellement en partant d'une vague annonce de cloud computing pour apporter au gameplay, après être passés par le cloud gaming, vive le téléphone arabe [:yamusha]

n°8733883
fire du 57
The futur is Fusion
Posté le 26-05-2013 à 19:36:41  profilanswer
 

Marc a écrit :

Clair, ça sort d'où ?
 
Soit tu confie tout le rendu à un serveur distant, soit rien. Et vue le niveau de puissance ça n'as pas vraiment d'intérêt de le faire, vu les contraintes inhérentes au cloud gaming.


 
D'après ça :  
 
http://www.xboxgen.fr/xbox-one-jou [...] 28750.html
Ou ça :  
http://www.joystiq.com/2013/05/24/ [...] rocessing/
 

Citation :

"Avec une connexion à Internet, nous aurons accès au Cloud Azure qui bénéficiera de 300 000 serveurs dédiés et ces derniers ne seront pas exclusivement réservés à la sauvegarde de nos parties, mais permettront à la console d'externaliser les calculs les plus gourmands en ressources"


 

Citation :

"Selon Microsoft, chaque Xbox One connectée bénéficiera de trois machines virtuelles pour la suppléer dans les calculs complexes."


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8733890
Marc
Chasseur de joce & sly
Posté le 26-05-2013 à 19:41:22  profilanswer
 

:jap: deux liens qui link la même source tu aurais pu la donner ;) http://arstechnica.com/gaming/2013 [...] computing/
Ok donc ce sont pour des données utiles au rendu et pas pour le rendu. Franchement j'attends de le voir en vrai pour y croire, ça fait un peu usine à gaz tel que présenté.

Message cité 1 fois
Message édité par Marc le 26-05-2013 à 19:42:23
n°8733907
Invite_Sur​prise
Racaille de Shanghaï
Posté le 26-05-2013 à 19:50:08  profilanswer
 

1 XBOX = 3 VM qui tournent en arrière-fond sur le XBOX Live
 
M$ commence déjà à flipper des specs de la PS4 ou quoi ?  :lol:

n°8733955
Faxydre
Posté le 26-05-2013 à 20:20:05  profilanswer
 

trop bien, puis le jour ou passe à la xb4, tous les possesseurs de xbox one se prennent un gros downgrade sur leur jeux...

mood
Publicité
Posté le 26-05-2013 à 20:20:05  profilanswer
 

n°8734109
NoradII
Il y a 17 ans naquit un PC
Posté le 26-05-2013 à 22:35:07  profilanswer
 

[:ddr555] est-ce que ça parles toujours d'APU et en l'occurence d'AMD, là [:zaipetruredfadeiping]


---------------
valid.x86.fr/575505 /842925 /902578
n°8734165
titienzo18
Fight Fire With Fire
Posté le 26-05-2013 à 23:29:48  profilanswer
 

Non, depuis dix pages ils se tapent un trip sur le SoC de la new Xbox  :o
 [:+skaarj+]


---------------
Topic unique GTX 760MOD
n°8734818
fire du 57
The futur is Fusion
Posté le 27-05-2013 à 16:53:05  profilanswer
 

Marc a écrit :

:jap: deux liens qui link la même source tu aurais pu la donner ;) http://arstechnica.com/gaming/2013 [...] computing/
Ok donc ce sont pour des données utiles au rendu et pas pour le rendu. Franchement j'attends de le voir en vrai pour y croire, ça fait un peu usine à gaz tel que présenté.

 


Ce qui m'étonne le plus c'est l'énorme chiffre fournit par Microsoft... 300 000 serveurs , c'est un chiffre assez énorme et qui doit nécessiter un investissement colossal ! :jap: Difficile dit croire quand on y réfléchit bien !

Message cité 1 fois
Message édité par fire du 57 le 27-05-2013 à 16:53:35

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8735359
abw
Posté le 28-05-2013 à 07:06:50  profilanswer
 

Richland testé.... :)  
 
http://wccftech.com/amd-a10-6800k- [...] -unveiled/
 
 
 

fire du 57 a écrit :


 
 
Ce qui m'étonne le plus c'est l'énorme chiffre fournit par Microsoft... 300 000 serveurs , c'est un chiffre assez énorme et qui doit nécessiter un investissement colossal ! :jap: Difficile dit croire quand on y réfléchit bien !


 
Bof , des serveurs pas chers a 1000-2000$ ca ferait que 300-600 millions $ ,
une paille pour MS et ses 10-12 MILLIARDS de chiffre d affaire annuel. :o  

Message cité 1 fois
Message édité par abw le 28-05-2013 à 07:17:11
n°8735397
moyen_moin​s
chat réincarné
Posté le 28-05-2013 à 08:26:59  profilanswer
 

C'est pas leur CA, sinon, c'est faible...

 

Edit : ce test... 3d mark, CB (ou ça vaut un a2 x4 à 3,4GHz) et aida :/


Message édité par moyen_moins le 28-05-2013 à 08:31:58
n°8735509
abw
Posté le 28-05-2013 à 10:13:06  profilanswer
 

Erreur , c est leur benef les mauvaises annees..............

n°8735551
moyen_moin​s
chat réincarné
Posté le 28-05-2013 à 10:48:30  profilanswer
 

[:ddr555]

n°8735644
gliterr
Posté le 28-05-2013 à 11:49:17  profilanswer
 

Je ne sais pas si le bench mémoire d'AIDA est fiable, mais en tout cas, en débit, il y a parfois un net mieux.

n°8735972
Kisdra
Posté le 28-05-2013 à 16:19:45  profilanswer
 

Mouais, on attendra d'avoir du test plus en détail.

n°8736050
Gigathlon
Quad-neurones natif
Posté le 28-05-2013 à 17:21:30  profilanswer
 

gliterr a écrit :

Je ne sais pas si le bench mémoire d'AIDA est fiable, mais en tout cas, en débit, il y a parfois un net mieux.


Du mieux?
 
DDR3-2400 vs DDR3-1866 pour le 5800K (sans compter l'avantage en fréquence CPU qui a un impact), d'un coup, le soufflé retombe...

n°8736199
abw
Posté le 28-05-2013 à 19:44:59  profilanswer
 

Y a rien a faire en fin de compte , l IPC est trop faiblard et ca coince
meme les perfs du GPU.....

n°8736218
moyen_moin​s
chat réincarné
Posté le 28-05-2013 à 20:10:57  profilanswer
 

Et dire que ça reste malgré tout une "bonne" évolution de Llano [:ddr555]


Message édité par moyen_moins le 28-05-2013 à 20:11:11
n°8736235
luxy
le futur c'est ZEN et hydrogen
Posté le 28-05-2013 à 20:26:35  profilanswer
 

Trinity a bien progressé par rapport au Llano


---------------
O/C carte graphique Ati avec Ati Tray Tools
n°8736339
abw
Posté le 28-05-2013 à 22:04:45  profilanswer
 

Que en frequence , en IPC il en est loin , c est juste que Llano il lui
manque le SSE4.1 , 4.2 , AVX , FMA et j en passe , cest la seule raison
pour laquelle Trinity assure mieux , mais qd meme , 4.4Ghz pour ca...

n°8736400
moyen_moin​s
chat réincarné
Posté le 28-05-2013 à 22:47:31  profilanswer
 

Si déjà c'est un peu mieux à conso égale...

n°8736496
gliterr
Posté le 29-05-2013 à 00:07:15  profilanswer
 

Gigathlon a écrit :

Du mieux?

 

DDR3-2400 vs DDR3-1866 pour le 5800K (sans compter l'avantage en fréquence CPU qui a un impact), d'un coup, le soufflé retombe...


Je ne sais pas trop de quoi tu parles en fait.
J'ai trouvé des chiffres venant du test d'un 8350 içi précisément
http://www.xbitlabs.com/articles/c [...] 350_4.html

Message cité 1 fois
Message édité par gliterr le 29-05-2013 à 00:09:17
n°8736561
luxy
le futur c'est ZEN et hydrogen
Posté le 29-05-2013 à 01:39:03  profilanswer
 

abw a écrit :

Que en frequence , en IPC il en est loin , c est juste que Llano il lui
manque le SSE4.1 , 4.2 , AVX , FMA et j en passe , cest la seule raison
pour laquelle Trinity assure mieux , mais qd meme , 4.4Ghz pour ca...

il n'y a pas que ça, la puissance est doublée sous 3Dmark2011 (par exemple)


---------------
O/C carte graphique Ati avec Ati Tray Tools
n°8736573
Gigathlon
Quad-neurones natif
Posté le 29-05-2013 à 03:24:40  profilanswer
 

gliterr a écrit :

Je ne sais pas trop de quoi tu parles en fait.
J'ai trouvé des chiffres venant du test d'un 8350 içi précisément
http://www.xbitlabs.com/articles/c [...] 350_4.html


Des résultats RAM en progression marginale quand on utilise de la RAM plus rapide, c'est pas vraiment une progression, sans parler de la variabilité des tests en question.
 
Dans l'article sur le FX-8350, il y a même un vieux L2 Read foireux.

n°8736655
gliterr
Posté le 29-05-2013 à 09:20:23  profilanswer
 

Gigathlon a écrit :


Des résultats RAM en progression marginale quand on utilise de la RAM plus rapide, c'est pas vraiment une progression, sans parler de la variabilité des tests en question.

 

Dans l'article sur le FX-8350, il y a même un vieux L2 Read foireux.

 

Zut, j'avait rate la RAM j'etais persuade d'avoir vu 1866 pour les deux.
Le L2 read qui fait un gain enorme, oui, mais ca, tout le monde savait qu'il y avait un chtit soucis sur ce chiffre, donc j'en ai pas particulierement parle. Pour la variabiltie des tests, ma foi, c'etait bien la le but de ma question.


Message édité par gliterr le 29-05-2013 à 09:22:47
n°8737044
Profil sup​primé
Posté le 29-05-2013 à 14:27:20  answer
 

Jamais contents :o
Il va falloir se faire à l'idée que dorénavant, les APU vont devenir la norme (pas besoin de +)
Il faut noter aussi qu'intel fait de l'apu depuis des années sans que personne ne couïne à propos de son GPU ...

Message cité 1 fois
Message édité par Profil supprimé le 29-05-2013 à 14:27:36
n°8737294
moyen_moin​s
chat réincarné
Posté le 29-05-2013 à 17:10:19  profilanswer
 

Je serais curieux de voir la perf par watt de l'IGP d'IB vs celle de Trinity...

n°8737306
lapin
Posté le 29-05-2013 à 17:17:06  profilanswer
 


 
 
oui sauf que de la part d'AMD compte tenu des faiblesses de la partie CPU, ils auraient gagner à sortir du GNC et 600 SP et un nombre de ROPs suffisant pour jouer à des jeux Récent décemment  et cela aurai fait une réserve de puissance via GNC et Direct Comput et OpenCL même si les latences sont à chier question GPU Computing.
 
'fin d't'façon on verrai se que donne Kaveri qui devrait sortir au pire le 20 Décembre 2013, pour une dispo Janvier 2014, si tout vas bien et si pas de retard, mais ça me fout les boules.

n°8737339
moyen_moin​s
chat réincarné
Posté le 29-05-2013 à 17:41:34  profilanswer
 

Sans BP, tous les CU de la terre ne feront pas avancer plus vite les jeux récents.

n°8737349
lapin
Posté le 29-05-2013 à 17:50:23  profilanswer
 

et la DDR4 et du Triple Channel ou quadruple c'est pas fait pour les chiens non plus, mais perso je crois plus à la DDR4 au moins dans un premier temps, même si les tarifs seront prohibitifs au début.

n°8737375
Gigathlon
Quad-neurones natif
Posté le 29-05-2013 à 18:10:00  profilanswer
 

3-4 canaux c'est un sacré gâchis, c'est peut-être la raison même du GPU bizarre de la XBoîte1.
 
Il faut voir que les accès GPU sont pas tous les mêmes, et une "petite" quantité de RAM embarquée dans le die peut multiplier par 2 ou plus la bande passante pratique, tout en conservant une RAM centrale relativement lente mais ne stockant que les textures et données partagées entre CPU et GPU.

n°8737380
moyen_moin​s
chat réincarné
Posté le 29-05-2013 à 18:12:26  profilanswer
 

lapin a écrit :

et la DDR4 et du Triple Channel ou quadruple c'est pas fait pour les chiens non plus, mais perso je crois plus à la DDR4 au moins dans un premier temps, même si les tarifs seront prohibitifs au début.


DDR4, les 1er sample iront aussi vite que les dernières DDR3.
0 intérêt.

n°8737382
moyen_moin​s
chat réincarné
Posté le 29-05-2013 à 18:13:42  profilanswer
 

Gigathlon a écrit :

3-4 canaux c'est un sacré gâchis, c'est peut-être la raison même du GPU bizarre de la XBoîte1.
 
Il faut voir que les accès GPU sont pas tous les mêmes, et une "petite" quantité de RAM embarquée dans le die peut multiplier par 2 ou plus la bande passante pratique, tout en conservant une RAM centrale relativement lente mais ne stockant que les textures et données partagées entre CPU et GPU.


Je comprends pas trop alors les besoins de bus 256bits et de GDDR5 sur les gpus discrets alors.

n°8737409
Gigathlon
Quad-neurones natif
Posté le 29-05-2013 à 18:27:57  profilanswer
 

moyen_moins a écrit :

Je comprends pas trop alors les besoins de bus 256bits et de GDDR5 sur les gpus discrets alors.


Car jusqu'à présent c'était le meilleur compromis, sans compter qu'on a pas vraiment les mêmes caractéristiques.
 
Ceci dit, à chaque génération le budget transistors/surface alloué à chaque élément est réévalué, c'est d'ailleurs pour ça qu'on a maintenant des GPU à unités de calcul unifiées, et c'est aussi pour ça qu'on se dirige vers des archis plus flexibles du point de vue de la programmation, car c'est à court/moyen terme la meilleure solution pour résoudre les goulets d'étranglement existants.
 
Si en 20nm il devient plus judicieux d'intégrer 128Mo d'eDRAM que de passer à un bus de largeur double pour un gain similaire, ça sera la solution retenue.

n°8737513
moyen_moin​s
chat réincarné
Posté le 29-05-2013 à 19:41:23  profilanswer
 

On verra bien...

n°8737769
maerens
Posté le 29-05-2013 à 23:17:19  profilanswer
 

128Mo d'eDRAM , j'imagine même pas le nombre de transitors ni le prix du GPU...


Message édité par maerens le 29-05-2013 à 23:17:31

---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8737780
moyen_moin​s
chat réincarné
Posté le 29-05-2013 à 23:22:22  profilanswer
 

L'eDRAM, il n'y a pas autant de transistors vs. de la SRAM.
Moi, ce que je me demande, c'est la complexité d'utilisation.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  84  85  86  ..  93  94  95  96  97  98

Aller à :
Ajouter une réponse
 

Sujets relatifs
Intel cvs AMD? Where is a questionsSapphire AMD Radeon HD 6950 HS? SAV => des avis?
[Sondage] Quelle AMD HD 6970 OC choisir ?[HFR] Actu : AMD FX Next (Piledriver) sera FMA3
[HFR] Actu : AMD met la pression sur le 32nm[Résolu] [PC HP] M2N61-AR Le sort qui s'acharne...
Configuration INVENTOR 2012[HFR] Actu : AMD Catalyst 11.9
Plus de sujets relatifs à : [Topic Unique] APU AMD Trinity & Richland • FM2 / 32nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)