Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1232 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Auteur Sujet :

[HFR] Actu : PlayStation 4 : 100% AMD, comme prévu

n°8631505
raptor68
Pouet !
Posté le 21-02-2013 à 14:08:03  profilanswer
3Votes positifs
 

Reprise du message précédent :
moi je dis ça promet, curieux de voir ce que le jaguar peu donner dans un PC/notebook/MID.
 
Par contre, sony à parlé d'ouverture dans la conférence, et je pense que commercialement l'idée du x86 n'est pas si bonne. C'est sur va y'avoir des dizaines de titre et de nouveaux studios qui peuvent mettre à profit leur expérience du x86 (exemple blizzard). Mais c'est aussi une solution qui va faciliter le piratage des consoles.
 
Les possibilités vont être les mêmes que sur MAC os, une bidouille, un pilote recompilé, une décompression et un petit reverse d'un HV et hop n'importe quel PC exécute du contenu PS4 ...
 
quoi qu'il en soit, c'est bon pour le PC et de bonne augure pour AMD

mood
Publicité
Posté le 21-02-2013 à 14:08:03  profilanswer
 

n°8631534
mum1989
Posté le 21-02-2013 à 14:24:57  profilanswer
10Votes positifs
 

Zazardify a écrit :

Si le test processeur de Crysis 3 nous montre l'avenir, les mecs qui ont craqué pour AMD sont chanceux. °_°'


Non ils étaient juste des  brillant visionnaires  :sol:

n°8631541
jeremy_139
Posté le 21-02-2013 à 14:28:48  profilanswer
0Votes positifs
 

Si la ps4 n'a pas était présenté, c'est quel est en amélioration pour encore quelques mois. Entre aujourd'hui et sa sortie, il y a encore 8-9 mois.
 
L'intérêt, c'est qu'on parle de la PS4, sa donne envie même si sa critique, rien est sortie, que du ragot.

n°8631544
raptor68
Pouet !
Posté le 21-02-2013 à 14:30:26  profilanswer
1Votes positifs
 

jeremy_139 a écrit :

Si la ps4 n'a pas était présenté, c'est quel est en amélioration pour encore quelques mois. Entre aujourd'hui et sa sortie, il y a encore 8-9 mois.
 
L'intérêt, c'est qu'on parle de la PS4, sa donne envie même si sa critique, rien est sortie, que du ragot.


 
vous avez pas vue a la fin de la conférence le "holiday 2013" ?
 
je pense pas qu'il y'ai autant de temps que ça

n°8631561
bep
Posté le 21-02-2013 à 14:38:37  profilanswer
3Votes positifs
 

mon i7 (donc x86) et ma HD7870 est equivalent a une PS4 grosso modo :-D
 
oh chouette, vivement les nouveaux jeux PS3, avec leur port correct vers PC ^^

n°8631568
Badbeat
Posté le 21-02-2013 à 14:40:42  profilanswer
4Votes positifs
 

En rêvant un peu  :sleep:  on aura peut être droit à Uncharted 4 sur PC également, dans lequel les CPU AMD s'illustrent mieux que les Intel! Que du bon la sortie de cette console.


---------------
http://forum.hardware.fr/forum2.ph [...] ost=536044
n°8631569
bep
Posté le 21-02-2013 à 14:40:43  profilanswer
1Votes positifs
 

si elle doit sortir pendant l'ete, ca ne laisse que le temps de tester +/-. Il doit deja y avoir quelque chose qui ressemble tres fort a une PS4 dans les labo de Sony et deja dans les mains des developpeurs.

n°8631575
C_Wiz
Profil : Equipe HardWare.fr
Posté le 21-02-2013 à 14:44:19  profilanswer
5Votes positifs
 

Pour préciser, Holidays = thanksgiving/noel, donc novembre en gros ;)


Message édité par C_Wiz le 21-02-2013 à 14:44:29
n°8631598
pepes003
Loués soient les Or(d)i
Posté le 21-02-2013 à 14:57:25  profilanswer
2Votes positifs
 

bep a écrit :

mon i7 (donc x86) et ma HD7870 est equivalent a une PS4 grosso modo :-D
 
oh chouette, vivement les nouveaux jeux PS3, avec leur port correct vers PC ^^


 
Non, sur le papier, ton PC > à la future PS4 (8 cores pour tablettes/netbooks + HD7850 castrée (moins d'unités de traitements et probablement underclockée))
 
Vivement les benchs ingame des jeux de 2014/2015 sur plateforme AMD FX8xxx et Steamroller.


---------------
> Mon FEEDBACK <
n°8631604
Miky 2001
N'y pense même pas !!!
Posté le 21-02-2013 à 14:59:39  profilanswer
1Votes positifs
 

C'est pas parceque nos config actuelles sont proches des spé des nouvelles consoles, que l'on pourra faire tourner les jeux consoles sur PC... J'ai l'impression qu'a chaque générations c'est les mêmes discussions !!!
 
Déja avec la XBox (celeron à 730 et GForce 3,5) l'équivalent Pc est incapable de faire la même chose.
 
XBOX 360 (GPU = X1800XT) impossible de faire tourner skyrim avec une X1800XT en 720P détails mini alors que sur XBOX360 pas de soucis.
 
On aura donc la même chose avec cette génération, même si la conversion console vers PC sera facilité, on aura quand même droit à la lourdeur des API Windows, des drivers... sans compter sur les infini config que les développeurs doivent prendre en compte pour la programmation (et si j'ai un i5 et une nvidia GTX670 ? J'optimise comment par rapport à la PS4 ?)...

mood
Publicité
Posté le 21-02-2013 à 14:59:39  profilanswer
 

n°8631607
lsdYoYo
gravity powered
Posté le 21-02-2013 à 15:01:02  profilanswer
1Votes positifs
 

Il ne reste plus qu'à espérer que les rumeurs future XBox = AMD soient fausses. Sinon ce sera un coup dur pour l'optimisation des jeux PC + nVidia ! Surtout avec Microsoft dans la boucle avec XBox + Windows :/

n°8631622
raptor68
Pouet !
Posté le 21-02-2013 à 15:08:08  profilanswer
0Votes positifs
 

C_Wiz a écrit :

Pour préciser, Holidays = thanksgiving/noel, donc novembre en gros ;)


 
décu je suis ...
 
merci de l'info

n°8631644
oufouf84
Posté le 21-02-2013 à 15:15:48  profilanswer
5Votes positifs
 

sa lui feras les pieds a cette escro de nvidia et peux etre intel au passage :p , mais bon rien est jouer encore :D par contre je constate que je suis pas pret de changer mon i7 920 :/


Message édité par oufouf84 le 21-02-2013 à 15:16:29
n°8631655
jumorolo
Jouez pas aux cons
Posté le 21-02-2013 à 15:20:44  profilanswer
5Votes positifs
 

lsdYoYo a écrit :

Il ne reste plus qu'à espérer que les rumeurs future XBox = AMD soient fausses. Sinon ce sera un coup dur pour l'optimisation des jeux PC + nVidia ! Surtout avec Microsoft dans la boucle avec XBox + Windows :/


 
vu qu'nvidia ne propose pas d'apu équivalent y'a peu de chances que ça soit autre chose qu'un jaguar dedans.

n°8631730
3615Buck
53 ans de Belgitude...
Posté le 21-02-2013 à 16:09:30  profilanswer
12Votes positifs
 

oufouf84 a écrit :

sa lui feras les pieds a cette escro de nvidia et peux etre intel au passage :p , mais bon rien est jouer encore :D par contre je constate que je suis pas pret de changer mon i7 920 :/


Tu as tout à fait raison, tu as nettement plus besoin d'un dictionnaire et d'une grammaire que d'un nouveau CPU. :o

n°8631739
RickHunter​13
Ca marche pour moi
Posté le 21-02-2013 à 16:12:40  profilanswer
0Votes positifs
 

Marc a écrit :


 
Avoir de la GDDR5 en mémoire central n'a d'intérêt qu'avec un APU doté d'une partie GPU puissante, ce qui n'est pas le cas des APU proposés sur PC.
Avec une carte graphique additionnelle, qui elle dispose de mémoire vidéo GDDR5, nos CPU actuels ne seraient que faire de cette bande passante.
Bref, des cartes mères PC avec des barrettes de GDDR5, c'est proche du néant niveau intérêt en l'état actuel des choses ;)


 
J'aurai peut-être plus de chance ici.
 
Techniquement, la GDDR5 pourrait être utilisée à la place de la DDR3 dans nos PC actuels?
Qu'est-ce qui diffère entre les deux (latence, débits, optimisation particulières, prix)?

n°8631745
donkorn
Posté le 21-02-2013 à 16:15:55  profilanswer
6Votes positifs
 

à chaque nouvelle consoles, certains sont stupéfait de la différence technologique entre un pc et une console.  
 
Pourtant ce n'est pas bien dur à comprendre, ils ont un design qu'ils ne peuvent pas concevoir au dernier moment, ils ont des obligations thermique aussi ( ils ne peux pas y avoir 18 ventilos de 150mm dedans ), ils ne peuvent pas prendre le haut de gamme PC, c'est tout à fait normal et c'est comme ça depuis la nuit des temps ...
 
Donc oui le hardware des consoles est déjà dépasser avant même la sortie de la console. Mais c'est normal ... l'avantage de la console étant qu'elle est a une puissance unique ( la PS3 du voisin n'est pas plus puissante que la votre ... ) et donc les jeux sont totalement optimisé pour ce design.
 
Sur pc le développeur doit le faire fonctionner sur une multitude de configuration diférente ( d'ou une efficacité parfois moindre ... )
 
De toute façon le fait que ce soit une architecture x86 et AMD ce n'est que du positif pour le monde du PC...
 
Développement facilité, adaptabilité, nivellement par le haut ... car la PS3 et la Xbox nous bride vraiment beaucoup en ce moment ... et surtout, ça permettra à AMD de sortir la tête de l'eau financièrement parlant.

n°8631753
Miky 2001
N'y pense même pas !!!
Posté le 21-02-2013 à 16:18:19  profilanswer
3Votes positifs
 

RickHunter13 a écrit :


 
J'aurai peut-être plus de chance ici.
 
Techniquement, la GDDR5 pourrait être utilisée à la place de la DDR3 dans nos PC actuels?
Qu'est-ce qui diffère entre les deux (latence, débits, optimisation particulières, prix)?


 
C'est surtout le débit qui est important pour les GPU. Les données à récupérer sont volumineuse et leur acces tres prévisible, donc les latences sont peu importantes.
 
Contrairement à un CPU ou le débit est moins important (même si les besoins évolues avec le temps) mais les latences elles sont importantes car les accès mémoires sont bcp moins prévisibles (aujourd'hui les mémoires caches jouent bien leur rôle ce qui limite l'impact des latences).
 
Donc pour un CPU pas besoin des débits de fou engendré par l'utilisation de GDDR5. Se serait même "dommageable" ou sans impact sur les perfs à cause des latences plus lentes avec ce type de mémoire.
 
PS : marc avait parfaitement répondu à ta question au dessus...

Message cité 1 fois
Message édité par Miky 2001 le 21-02-2013 à 16:21:06
n°8631782
Singman
The Exiled
Posté le 21-02-2013 à 16:32:45  profilanswer
2Votes positifs
 

raptor68 a écrit :

Mais c'est aussi une solution qui va faciliter le piratage des consoles.


 
Tu as raté un paragraphe, la plupart des éditeurs vont dématérialiser leur jeux, tu va les acheter sur le Store, justement pour éviter le piratage "physique"... ou du moins essayer de le limiter.

n°8631835
JechtPurga​teur
Posté le 21-02-2013 à 16:53:27  profilanswer
5Votes positifs
 

mum1989 a écrit :

Zazardify a écrit :

Si le test processeur de Crysis 3 nous montre l'avenir, les mecs qui ont craqué pour AMD sont chanceux. °_°'


Non ils étaient juste des  brillant visionnaires  :sol:


 
Exactement !
D'ailleurs Crysis 2 nous montrais déjà l'avenir, mais y'a tellement de kikou fan d'intel que fallait surtout pas le dire si on voulait pas se faire insulter.
Ça donne envie de se prendre le fx 8320 tout ça, peut être le meilleur proco en jeu pour bientôt :)

n°8631841
RickHunter​13
Ca marche pour moi
Posté le 21-02-2013 à 16:56:14  profilanswer
0Votes positifs
 

Miky 2001 a écrit :


 
C'est surtout le débit qui est important pour les GPU. Les données à récupérer sont volumineuse et leur acces tres prévisible, donc les latences sont peu importantes.
 
Contrairement à un CPU ou le débit est moins important (même si les besoins évolues avec le temps) mais les latences elles sont importantes car les accès mémoires sont bcp moins prévisibles (aujourd'hui les mémoires caches jouent bien leur rôle ce qui limite l'impact des latences).
 
Donc pour un CPU pas besoin des débits de fou engendré par l'utilisation de GDDR5. Se serait même "dommageable" ou sans impact sur les perfs à cause des latences plus lentes avec ce type de mémoire.
 
PS : marc avait parfaitement répondu à ta question au dessus...


 
Ma première question était plutôt rhétorique.
Ca m"a surtout amené à la deuxième, ou tu as apporté des précisions  :jap:  
 
Sauf pour le prix, je n'arrive pas à trouver le rapport de prix entre DDR3 et GDDR5  :o

n°8631848
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-02-2013 à 17:02:09  profilanswer
0Votes positifs
 

Je n'ai pas les prix exacts mais 8 Go de DDR3 c'est dans les 40$ (juste les puces), 8 Go de GDDR5 je dirais 3 à 4x plus.

n°8631852
C_Wiz
Profil : Equipe HardWare.fr
Posté le 21-02-2013 à 17:04:48  profilanswer
3Votes positifs
 

RickHunter13 a écrit :


 
J'aurai peut-être plus de chance ici.
 
Techniquement, la GDDR5 pourrait être utilisée à la place de la DDR3 dans nos PC actuels?
Qu'est-ce qui diffère entre les deux (latence, débits, optimisation particulières, prix)?


La DDR3 est optimisée pour avoir une latence la plus faible possible, parce que les CPU passent leur temps a attendre après la mémoire pour continuer l'execution. La bande passante est par contre secondaire. D'ailleurs on le voit assez souvent dans nos tests, augmenter la bande passante de la DDR3, pour un CPU, ca n'a pas un impact fou : http://www.hardware.fr/articles/81 [...] ta-iv.html  
 
A l'inverse la GDDR5 a été créee pour maximiser la bande passante, parce que les GPU travaillent en général sur de gros blocs de données, et pas juste sur des petites valeurs éparpillées. La latence est moins importante. Résultat, augmenter la fréquence mémoire permet (quand le GPU ne bride pas) d'augmenter significativement les performances sur une carte graphique : parce qu'on augmente la bande passante.
 
En pratique ca veut dire des choses intéréssantes pour la PS4. D'abord Sony favorise le GPU (ce qui est sans nul doute une bonne idée) au détriment des CPU à première vue au niveau du choix de la mémoire (la rumeur veut que Microsoft fera l'inverse, SoC identique, mais DDR3). La question c'est de savoir ce que donnera la GDDR5 pour les coeurs Jaguar.  
 
Avoir une latence plus forte, c'est quelque chose que l'on peut (un peu) masquer avec une bonne architecture (prefetchers, etc, un sujet sur lequel AMD était un peu en retard ces derniers temps mais Jaguar est censé ramener les choses à niveau), mais pas totalement. Il y'a un tas d'applications PC ou un Jaguar avec GDDR5 serait super mauvais.  
 
Par contre quand il s'agit de jouer, et si l'on considère que l'on a surtout besoin d'accéder à de gros blocs de données dans les jeux, l'impact de la latence peut etre plus faible, parce que les jeux ont possiblement un profil d'utilisation de la mémoire différent de la majorité des autres applications (on voit que plus de bande passante profite bien a GTA IV ici http://www.hardware.fr/articles/81 [...] ta-iv.html , qui est certes particulier dans le monde PC, mais qui vient du monde console,et après tout on parle de console !).  
 
Donc de la GDDR5 pour booter Windows, probablement une mauvaise idée. Pour une utilisation jeu, c'est intriguant. Le succès ou pas va dépendre de l'interface mémoire et de comment elle fonctionne. Quelque part c'est un sujet super intéréssant mais je ne sais pas si l'on aura beaucoup de détails de la part d'AMD dessus.

n°8631888
tchou@happ​y
Posté le 21-02-2013 à 17:26:10  profilanswer
2Votes positifs
 

salut,
pour ma part je suis très agréablement surpris par ce choix technique.
 
et pourtant je suis clairement anti-sony .
j'ai une xbox 360 j'ai pas eut de ps3 et j'en aurai pas tout comme j'ai pas eut de ps2 mais une dreamcast .
 
 
le choix de composant est je trouve très judicieux, certes c'est pas ce qui se fait de mieux comparé aux pc mais pour une console c'est énorme comparé à celles actuelle .
 
les pro pc risquent de vite s'en rendre compte si l'architecture n'est pas trop dure à exploiter  :pt1cable:  
 
 
n'oubliez pas que une console c'est une architecture unique, ont optimise au max contrairement aux pc ou c'est le grand n'importe quoi pour pouvoir faire tourner sur une multitude de machine .
 
et ça sa fait toute la différence . :jap:  

n°8631891
RickHunter​13
Ca marche pour moi
Posté le 21-02-2013 à 17:27:28  profilanswer
0Votes positifs
 

Marc a écrit :

Je n'ai pas les prix exacts mais 8 Go de DDR3 c'est dans les 40$ (juste les puces), 8 Go de GDDR5 je dirais 3 à 4x plus.


 

C_Wiz a écrit :


La DDR3 est optimisée pour avoir une latence la plus faible possible, parce que les CPU passent leur temps a attendre après la mémoire pour continuer l'execution. La bande passante est par contre secondaire. D'ailleurs on le voit assez souvent dans nos tests, augmenter la bande passante de la DDR3, pour un CPU, ca n'a pas un impact fou : http://www.hardware.fr/articles/81 [...] ta-iv.html  
 
A l'inverse la GDDR5 a été créee pour maximiser la bande passante, parce que les GPU travaillent en général sur de gros blocs de données, et pas juste sur des petites valeurs éparpillées. La latence est moins importante. Résultat, augmenter la fréquence mémoire permet (quand le GPU ne bride pas) d'augmenter significativement les performances sur une carte graphique : parce qu'on augmente la bande passante.
 
En pratique ca veut dire des choses intéréssantes pour la PS4. D'abord Sony favorise le GPU (ce qui est sans nul doute une bonne idée) au détriment des CPU à première vue au niveau du choix de la mémoire (la rumeur veut que Microsoft fera l'inverse, SoC identique, mais DDR3). La question c'est de savoir ce que donnera la GDDR5 pour les coeurs Jaguar.  
 
Avoir une latence plus forte, c'est quelque chose que l'on peut (un peu) masquer avec une bonne architecture (prefetchers, etc, un sujet sur lequel AMD était un peu en retard ces derniers temps mais Jaguar est censé ramener les choses à niveau), mais pas totalement. Il y'a un tas d'applications PC ou un Jaguar avec GDDR5 serait super mauvais.  
 
Par contre quand il s'agit de jouer, et si l'on considère que l'on a surtout besoin d'accéder à de gros blocs de données dans les jeux, l'impact de la latence peut etre plus faible, parce que les jeux ont possiblement un profil d'utilisation de la mémoire différent de la majorité des autres applications (on voit que plus de bande passante profite bien a GTA IV ici http://www.hardware.fr/articles/81 [...] ta-iv.html , qui est certes particulier dans le monde PC, mais qui vient du monde console,et après tout on parle de console !).  
 
Donc de la GDDR5 pour booter Windows, probablement une mauvaise idée. Pour une utilisation jeu, c'est intriguant. Le succès ou pas va dépendre de l'interface mémoire et de comment elle fonctionne. Quelque part c'est un sujet super intéréssant mais je ne sais pas si l'on aura beaucoup de détails de la part d'AMD dessus.


 
Merci pour ces réponses intéressantes  :jap:  
 
Sur le topic next-gen, on apprend aussi qu'une mémoire unifiée accélère la communication CPU/GPU par rapport au PC.
 
Edit: on peut aussi penser que l'OS sera conçu pour "masquer" cette latence côté CPU.

Message cité 1 fois
Message édité par RickHunter13 le 21-02-2013 à 17:34:38
n°8631896
blazkowicz
Posté le 21-02-2013 à 17:28:59  profilanswer
0Votes positifs
 

Pour un Jaguar fonctionnant à seulement 1.6 ou 1.8GHz, la latence peut être vaguement acceptable. Enfin, tant pis :d
 

Marc a écrit :

Je n'ai pas les prix exacts mais 8 Go de DDR3 c'est dans les 40$ (juste les puces), 8 Go de GDDR5 je dirais 3 à 4x plus.


 
D'ailleurs la principale news c'est que Sony met 8Go de gddr5 plutôt que 4. Ca va leur coûter des centaines de millions, prix à payer pour ne pas être inférieur à la xbox sur la quantité de RAM.

n°8631910
ledesillus​ionniste
Posté le 21-02-2013 à 17:39:56  profilanswer
1Votes positifs
 

raptor68 a écrit :

moi je dis ça promet, curieux de voir ce que le jaguar peu donner dans un PC/notebook/MID.
 
Par contre, sony à parlé d'ouverture dans la conférence, et je pense que commercialement l'idée du x86 n'est pas si bonne. C'est sur va y'avoir des dizaines de titre et de nouveaux studios qui peuvent mettre à profit leur expérience du x86 (exemple blizzard). Mais c'est aussi une solution qui va faciliter le piratage des consoles.
 
Les possibilités vont être les mêmes que sur MAC os, une bidouille, un pilote recompilé, une décompression et un petit reverse d'un HV et hop n'importe quel PC exécute du contenu PS4 ...
 
quoi qu'il en soit, c'est bon pour le PC et de bonne augure pour AMD


Alors pourquoi les jeux xbox(x86 donc) ne tournent toujours pas sur pc? :)

n°8631918
C_Wiz
Profil : Equipe HardWare.fr
Posté le 21-02-2013 à 17:43:10  profilanswer
0Votes positifs
 

RickHunter13 a écrit :

Sur le topic next-gen, on apprend aussi qu'une mémoire unifiée accélère la communication CPU/GPU par rapport au PC.


Pour être précis il y'a sur les archi unifiées (type APU ou ce SoC) un seul contrôleur mémoire partagé en CPU et GPU. Ce qui a des avantages et des inconvénients.
 
Sur les APU actuelles, le GPU et le CPU qui sont dans l'APU ont un espace mémoire différent (en clair, une donnée placée physiquement à un endroit en RAM à deux adresses différentes en fonction de qui lui parle). Pour 2013 AMD devait lancer des espaces d'adresssages unifiés, cf cette roadmap :
http://www.hardware.fr/medias/photos_news/00/34/IMG0034924.jpg
Reste à voir si c'est le cas pour ces SoC, mais c'est probablement un bon endroit pour commencer.

n°8631921
C_Wiz
Profil : Equipe HardWare.fr
Posté le 21-02-2013 à 17:44:14  profilanswer
1Votes positifs
 

ledesillusionniste a écrit :


Alors pourquoi les jeux xbox(x86 donc) ne tournent toujours pas sur pc? :)


http://www.emulator-zone.com/doc.php/xbox/xeon.html ? ;-)

n°8631968
eightG4
Posté le 21-02-2013 à 18:15:31  profilanswer
2Votes positifs
 

Vous êtes incapables de faire la différence entre une utilisation PC et Console. Vous comprendrez jamais en etant borné comme ca c'est dingue comme les gens sont ignorants. Combien de fois il faudra le dire sérieusement?  
 
Avec un même hardware sur PC et console tu fait 2 a 3 fois mieux sur console! C'est simple, alors que l'architecture soit similaire au PC (et encore ya des tweaking qui n'existe pas sur pC présent sur console), ca ne change rien puisque seul le developpement compte.
 
La Ps3 et la X360 font déja tourné pratiquement aussi bien Crysis 3 que sur PC en high (allez voir tous la video sur gametrailers ya un comparatif).
Que vous êtes aveuglé par le monde PC, vous en oublié l'essentielle, à force de répondre au schéma imposé par les constructeurs de composants PC, vous en avez oublier que d'avoir la plus grosse ne veut pas dire avoir les meilleurs résultat puisque c'est surtout ce que vous en faite qui conditionnera le reste.

n°8631984
ledesillus​ionniste
Posté le 21-02-2013 à 18:25:14  profilanswer
0Votes positifs
 

C_Wiz a écrit :

ledesillusionniste a écrit :


Alors pourquoi les jeux xbox(x86 donc) ne tournent toujours pas sur pc? :)


http://www.emulator-zone.com/doc.php/xbox/xeon.html ? ;-)


Il ne fait tourner qu'un seul jeu et est abandonné comme tout les projets d'émulateur xbox alors quelque chose me dit que ce n'est pas si simple.
 
Un courageux continue http://shogun3d-cxbx.blogspot.be/


Message édité par ledesillusionniste le 21-02-2013 à 18:37:24
n°8632101
jellyboy74
Posté le 21-02-2013 à 19:48:08  profilanswer
2Votes positifs
 

Bla bla bla bla bla , moi je crois que ce que je vois . Démo de Killzone Shadow fall ca démembre n'importe quelle prod PC sur le plus puissant PC du monde . Point barre . Autrement avec la possibilité de streamer pour de vrai sur la Vita en wifi ( donc partout à la maison ) on peu dire adieux à la U .

n°8632118
Tannerkid
♫ Deadmau5 - Ghosts n Stuff
Posté le 21-02-2013 à 20:09:37  profilanswer
6Votes positifs
 

Quand j'ai vu la news sur la PS4 j'ai vraiment cru que vous alliez la démonter.
Mais franchement, mise à par quelques commentaires peu constructif, c'est surement le fil de discussion le plus intéressant que j'ai lu sur la PS4, avec plein d'informations technique donné par l'équipe de Hardware et d'autres membres, on est vraiment loin des clichés "Pro-PC" qu'on peut voir sur d'autres sites. :)

n°8632124
genesya
Posté le 21-02-2013 à 20:18:19  profilanswer
0Votes positifs
 

varlocke a écrit :

Par contre la RAM en GDDR5 me semble être le seul point intéressant et "en avance" sur cette machine.


 
C'est évident, très bonne remarque !
 
Actuellement la RAM en accès par un CPU est de 20Go/s Max en DDR3. et encore je suis large. Lorsqu'un CPU cause à 176Go/s,(facteur 8) cela doit bien aider !!!
 
Cette foutue RAM est un énorme goulot actuellement.  
 
Ma question pourquoi SONY peut faire tourner un CPU avec de la GDDR5 et pas les PC ? que foute les frabriquants ? j'avais posé la questions à l'epoque en demandant pourquoi on n'utilisait pas de la GDDR3 même si cela coute plus chère et on m'avait expliqué que c'etait de la mémoire graphique et qu'il était simplement impossible de l'utiliser pour un CPU ? des spécialistes pour répondre ?
 

n°8632128
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 21-02-2013 à 20:21:10  profilanswer
3Votes positifs
 

C_Wiz a écrit :


La DDR3 est optimisée pour avoir une latence la plus faible possible, parce que les CPU passent leur temps a attendre après la mémoire pour continuer l'execution. La bande passante est par contre secondaire. D'ailleurs on le voit assez souvent dans nos tests, augmenter la bande passante de la DDR3, pour un CPU, ca n'a pas un impact fou : http://www.hardware.fr/articles/81 [...] ta-iv.html  
 
A l'inverse la GDDR5 a été créee pour maximiser la bande passante, parce que les GPU travaillent en général sur de gros blocs de données, et pas juste sur des petites valeurs éparpillées. La latence est moins importante. Résultat, augmenter la fréquence mémoire permet (quand le GPU ne bride pas) d'augmenter significativement les performances sur une carte graphique : parce qu'on augmente la bande passante.
 
En pratique ca veut dire des choses intéréssantes pour la PS4. D'abord Sony favorise le GPU (ce qui est sans nul doute une bonne idée) au détriment des CPU à première vue au niveau du choix de la mémoire (la rumeur veut que Microsoft fera l'inverse, SoC identique, mais DDR3). La question c'est de savoir ce que donnera la GDDR5 pour les coeurs Jaguar.  
 
Avoir une latence plus forte, c'est quelque chose que l'on peut (un peu) masquer avec une bonne architecture (prefetchers, etc, un sujet sur lequel AMD était un peu en retard ces derniers temps mais Jaguar est censé ramener les choses à niveau), mais pas totalement. Il y'a un tas d'applications PC ou un Jaguar avec GDDR5 serait super mauvais.  
 
Par contre quand il s'agit de jouer, et si l'on considère que l'on a surtout besoin d'accéder à de gros blocs de données dans les jeux, l'impact de la latence peut etre plus faible, parce que les jeux ont possiblement un profil d'utilisation de la mémoire différent de la majorité des autres applications (on voit que plus de bande passante profite bien a GTA IV ici http://www.hardware.fr/articles/81 [...] ta-iv.html , qui est certes particulier dans le monde PC, mais qui vient du monde console,et après tout on parle de console !).  
 
Donc de la GDDR5 pour booter Windows, probablement une mauvaise idée. Pour une utilisation jeu, c'est intriguant. Le succès ou pas va dépendre de l'interface mémoire et de comment elle fonctionne. Quelque part c'est un sujet super intéréssant mais je ne sais pas si l'on aura beaucoup de détails de la part d'AMD dessus.


 
De rien.

n°8632130
genesya
Posté le 21-02-2013 à 20:21:23  profilanswer
0Votes positifs
 

Merci beaucoup.
 
Quel est le facteur en temps d'accès entre de la GGDR5 et de la DDR3 ?
 
Question idiote, y aurait il un interet coté puissance à faire un cache L1 de 2Mo + un cache L2 de 8Mo par coeur + un cache L3 de 8Go ?  
 
est-ce que le prix du CPU serait juste délirant ?
est-ce que les perfs seraient interessante ou non ?
 - j'imagine que ces caches on des temps d'accès interessant comparé à de la DDR3
 
Cordialement


Message édité par genesya le 21-02-2013 à 20:32:59
n°8632141
genesya
Posté le 21-02-2013 à 20:36:34  profilanswer
2Votes positifs
 

Vu l'archi un hack pour installer Windows ou Linux (avec Steam) est envisageable du coup :) est-ce que l'on peu se laisser aller à rever ?

n°8632160
jellyboy74
Posté le 21-02-2013 à 20:51:00  profilanswer
5Votes positifs
 

Pas encore sorti que certain réfléchissent déjà au hack .....

n°8632163
genesya
Posté le 21-02-2013 à 20:54:00  profilanswer
0Votes positifs
 

eightG4 a écrit :

Vous êtes incapables de faire la différence entre une utilisation PC et Console. Vous comprendrez jamais en etant borné comme ca c'est dingue comme les gens sont ignorants. Combien de fois il faudra le dire sérieusement?  
 
Avec un même hardware sur PC et console tu fait 2 a 3 fois mieux sur console! C'est simple, alors que l'architecture soit similaire au PC (et encore ya des tweaking qui n'existe pas sur pC présent sur console), ca ne change rien puisque seul le developpement compte.


 
Tu as raison, si certain l'ignore encore il manque une bonne occasion de se taire. Je me suis toujours posé la question si cela se resume au développement pourquoi les mecs ne developpes pas aussi amoureusement pour pc que pour console ? est-ce parce que le hardware est trop disparate alors que le hardware d'une console est figé ?
 
Les developpeurs pourraient faire des jeux très optimisés avec 4 version d'executables  :  
 
1 - intel + Nvidia Geforce
2 - intel + AMD Radeaon
1 - AMD + Nvidia Geforce
1 - AMD + AMD Radeaon
 
(comme à l'epoque sous dos on configurait CG + carte son, avant de lancer le jeu)
 
çà coûterait un peu plus cher en développement mais vu que les jeux coûte le meme prix qu'un film maintenant, ils pourraient se le permettre pour le gain de perfs :)

n°8632177
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-02-2013 à 21:09:14  profilanswer
1Votes positifs
 

eightG4 a écrit :

La Ps3 et la X360 font déja tourné pratiquement aussi bien Crysis 3 que sur PC en high (allez voir tous la video sur gametrailers ya un comparatif).

La comparaison pourrait être intéressante mais elle est fausse.
D'une, le niveaux de détails ne sont pas comparables, ça se voit même sur une video compressée
De deux, ce n'est pas non plus sur ce type de video qu'on peut apprécier la fluidité d'un rendu.
Crysis 3 tourne probablement mieux sur une console qu'un PC de même puissance théorique à réglage équivalent, mais il ne faut pas non plus pousser le bouchon trop loin ... ;)

n°8632180
jellyboy74
Posté le 21-02-2013 à 21:10:47  profilanswer
0Votes positifs
 

@genesya. Tout simplement parce qu'avant tu avais pentium et celeron , athlon et duron , 10 cartes é tout cassé et qu'aujourd'hui tu as du i3,5,7 de différentes gen , du pentium, du celeron . du fx. du phenom , du FM etc etc des 100 enes de cartes ....... Il est donc impossible d'optimiser un jeu sans sacrifier tout une partie des éventuels acheteurs PC qui en plus sont bien moins nombreux que sur console .


Message édité par jellyboy74 le 21-02-2013 à 21:11:37
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : Firmware 1.03 pour les Plextor M5P et M5S[HFR] Actu : AMD parle de Jaguar
[HFR] Actu : 11,5% de GPU additionnels en moins sur un anImpossible de démarrer AMD Vision Engine Control Center.
[HFR] Actu : Le Vertex 3 passe au 20nm 
Plus de sujets relatifs à : [HFR] Actu : PlayStation 4 : 100% AMD, comme prévu


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR