Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4916 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  88  89  90  ..  987  988  989  990  991  992
Auteur Sujet :

[Topic Unique] AMD Radeon R9/R7 200; HD 7000 Southern Islands (28nm)

n°8116547
Stydeo
Ad augusta per angusta
Posté le 13-11-2011 à 00:25:08  profilanswer
 

Reprise du message précédent :
Ce qui est suffisant pour jouer c'est un 2C/4T comme le i3 2e gen qui pete ton phenom 2 4C en perf  et qui oui est cpu limited des qu'on dépasse la 560 Ti, cf pc hardware cette fois ci...

mood
Publicité
Posté le 13-11-2011 à 00:25:08  profilanswer
 

n°8116548
mum1989
Posté le 13-11-2011 à 00:25:47  profilanswer
 

maerens a écrit :


ou pas marc n' a jamais testé de jeux en Full HD avant le FX 8150, 90% du web également, faut lire aussi, je parle de 1920*1080, les CG n'exploite pas les CPU à fond, alors quand j'attends je suis CPU limited avec un X4, je rigole.
 
oh tiens même en 1600* 1200 http://www.guru3d.com/article/amd- [...] ew-test/21


Je sais pas quoi te dire ouvre les yeux (c'est en 1920*1080), tu as aussi sur ce jeu par exemple ou le Phenom II montre ses limites(même si le jeu n'est pas du tout optimisé pour les quad et hexacores)
 
Donc pour simplifier il n'y a pas ou peu d'écart en 1920*1080 sur les jeux peu demandant niveau perf CPU (ex : Dirt3, COD4 etc...), mais pour certains jeux codés avec les pieds ou demandant niveau CPU (notamment singlethread, l'écart peut être assez important)

n°8116549
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 13-11-2011 à 00:25:52  profilanswer
 

Stydeo a écrit :

Pour toi aucun dif, mais pas pour les pros du canard qui tiennent le forum ou tu t'exprime actuellement et apres leur benchs de pros et pas leur observations a l'oeil nu ( les tiennes), leur constat est sans appel: AMD = a la rigueur ( pour la fin de ta phrase)= video/image et calcul mais SURTOUT PAS LE JEU !!!
CF PC UPDATE no 56 novembre/décembre 2011 5.90e en kiosque...
EDIT: ton message une fois édité est bien plus plaisant :-)


PC Update n'as rien à voir avec Hardware.fr :heink:

n°8116551
Stydeo
Ad augusta per angusta
Posté le 13-11-2011 à 00:28:14  profilanswer
 

Tu l'as le pc update de ce mopis ci ??? Ben regarde les configs de ref a la fin du canard, jouer en FULL HD...C quoi le proco ???
 
EDIT: désolé pour ma méprise, je croyais ;-DDD

Message cité 1 fois
Message édité par Stydeo le 13-11-2011 à 00:28:57
n°8116554
maerens
Posté le 13-11-2011 à 00:31:26  profilanswer
 

Stydeo a écrit :

Ce qui est suffisant pour jouer c'est un 2C/4T comme le i3 2e gen qui pete ton phenom 2 4C en perf  et qui oui est cpu limited des qu'on dépasse la 560 Ti, cf pc hardware cette fois ci...


qui pete mon Phenom II en perfs jeux, mais pas en MT ca faut pas raconter des couilles non Plus.


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8116555
seth-01
Posté le 13-11-2011 à 00:31:46  profilanswer
 

Stydeo a écrit :

Tu l'as le pc update de ce mopis ci ??? Ben regarde les configs de ref a la fin du canard, jouer en FULL HD...C quoi le proco ???
 
EDIT: désolé pour ma méprise, je croyais ;-DDD


donc pour toi jouer en FullHD = proco Intel + carte nVidia !  :whistle:

n°8116556
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 13-11-2011 à 00:33:09  profilanswer
 

Ca vous dirais de poursuivre votre hs en mp?

n°8116557
Stydeo
Ad augusta per angusta
Posté le 13-11-2011 à 00:33:49  profilanswer
 

pour l'instant oui seth, jusqua ce que ca change...

n°8116558
Stydeo
Ad augusta per angusta
Posté le 13-11-2011 à 00:34:27  profilanswer
 

ok Marc:-)


Message édité par Stydeo le 13-11-2011 à 00:35:10
n°8116559
maerens
Posté le 13-11-2011 à 00:35:16  profilanswer
 

mum1989 a écrit :


Je sais pas quoi te dire ouvre les yeux (c'est en 1920*1080), tu as aussi sur ce jeu par exemple ou le Phenom II montre ses limites(même si le jeu n'est pas du tout optimisé pour les quad et hexacores)
 
Donc pour simplifier il n'y a pas ou peu d'écart en 1920*1080 sur les jeux peu demandant niveau perf CPU (ex : Dirt3, COD4 etc...), mais pour certains jeux codés avec les pieds ou demandant niveau CPU (notamment singlethread, l'écart peut être assez important)


en gros l'écart faible ne justifie pas le changement de mon Ph II c'est ce que j'essaye de prouver d'une part.
 
 
 d'une autre part,Qu'est ce que j'ai dit à propos de Skyrim?Un intel est mieux, normal il est optimisé 2C, et il adore l'IPC et la fréquence, dans le cas d'u jeux opti 4t un nehalem n'est pas plus rapide qu'un PhII, je sais tès bien que sandy défonce mon Ph II même en Full moi je comparais l'archis précédante c'est tout.
 
 
fin du HS.


Message édité par maerens le 13-11-2011 à 00:43:00

---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
mood
Publicité
Posté le 13-11-2011 à 00:35:16  profilanswer
 

n°8116560
Stydeo
Ad augusta per angusta
Posté le 13-11-2011 à 00:36:48  profilanswer
 

Parler de Fuzion c'est HS ???
EDIT: oui c'est HS  :non:

Message cité 1 fois
Message édité par Stydeo le 13-11-2011 à 00:37:36
n°8116561
maerens
Posté le 13-11-2011 à 00:37:47  profilanswer
 

Stydeo a écrit :

Parler de Fuzion c'est HS ???
EDIT: oui c'est HS  :non:


oui


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8116563
Stydeo
Ad augusta per angusta
Posté le 13-11-2011 à 00:40:07  profilanswer
 

Ok, bonne soirée tout le monde, vivement que les 7k sortent, que la guerre reprenne  :hello:

n°8116564
moujet
Chef de Projet
Posté le 13-11-2011 à 00:40:23  profilanswer
 


avec le waterblock (100 roros de plus snifff!) qui va bien elle sera peut être mienne!
sinon on pourrait s'attendre à Des 7870 à 170 euros et des 7970 au dessus des 330 euros à la sortie (369 roros): effet nouveauté et rareté oblige...

n°8116567
maerens
Posté le 13-11-2011 à 00:43:55  profilanswer
 

moujet a écrit :


avec le waterblock (100 roros de plus snifff!) qui va bien elle sera peut être mienne!  
sinon on pourrait s'attendre à Des 7870 à 170 euros et des 7970 au dessus des 330 euros à la sortie (369 roros): effet nouveauté et rareté oblige...


j'ai comme l'impression que ca vas aller dans les 400€, mais rien n'est certain.


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8116568
moujet
Chef de Projet
Posté le 13-11-2011 à 00:47:44  profilanswer
 

juste que l'histoire de la rambus risque de renchérir leurs prix... ca y est comme l'an passé je suis en train de devenir foufou ^^
HD7970 un jour tu seras mienne! oh oui! un jour tu seras mienne!..

n°8116571
moujet
Chef de Projet
Posté le 13-11-2011 à 00:50:14  profilanswer
 

maerens a écrit :


j'ai comme l'impression que ca vas aller dans les 400€, mais rien n'est certain.


oui puisque 2x6870 vallait 400 euros... on verra bien... ca va encore nous couter des ronds pour assouvir notre passion...

n°8116572
Zack38
Posté le 13-11-2011 à 00:51:35  profilanswer
 

Il faut considérer que les futures cartes graphiques Radeon HD seront équipées de GDDR5 jusqu'à ce qu'on en apprenne davantage sur le sujet, car actuellement les chances qu'elles soient pourvues de mémoire XDR2 sont quasiment nulles, donc autant ne pas partir du principe qu'AMD a fait alliance avec RAMBUS.

n°8116584
moujet
Chef de Projet
Posté le 13-11-2011 à 01:19:03  profilanswer
 

Zack38 a écrit :

Il faut considérer que les futures cartes graphiques Radeon HD seront équipées de GDDR5 jusqu'à ce qu'on en apprenne davantage sur le sujet, car actuellement les chances qu'elles soient pourvues de mémoire XDR2 sont quasiment nulles, donc autant ne pas partir du principe qu'AMD a fait alliance avec RAMBUS.


Donc on ne peut pas être sûre d'une véritable révolution... hormis le 28nm

n°8116585
maerens
Posté le 13-11-2011 à 01:21:00  profilanswer
 

moujet a écrit :


Donc on ne peut pas être sûre d'une véritable révolution... hormis le 28nm


c'est pas la XDR 2 qui vas apporter une révolution , de la GDDR5 à 2Ghz c'est possible aussi.


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8116658
fire du 57
The futur is Fusion
Posté le 13-11-2011 à 09:44:44  profilanswer
 

Encore faudrait-il que l'on puisse la monter à 2Ghz...
Et c'est pas sur se topic que quelqu'un à dit que Cayman est limité par le débit de la GDDR5 ?...
 
Bref ça fait combien de temps que l'on a de la GDDR5 ? Et puis connaissant AMD si on a de la XDR 2 dans nos  futurs carte graphique c'est qu'ils ont du négocier pour avoir le prix le plus petit !


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8116700
Gigathlon
Quad-neurones natif
Posté le 13-11-2011 à 10:40:42  profilanswer
 

fire du 57 a écrit :

Encore faudrait-il que l'on puisse la monter à 2Ghz...
Et c'est pas sur se topic que quelqu'un à dit que Cayman est limité par le débit de la GDDR5 ?...


La GDDR5 a déjà été présentée à 8Gbps soit 2GHz, elle n'est juste pas produite en volume. Après, il faut voir pourquoi, car ça pourrait être une consommation démentielle... ou pas.
 
Concernant Cayman et la BP (et dans une moindre mesure Cypress), c'est surtout lié à une archi vraiment bancale qui fait beaucoup trop usage de la RAM. Au final, GCN pourrait bien avoir besoin de 2x moins de BP avec une tessellation bourrine.

n°8116703
maerens
Posté le 13-11-2011 à 10:42:44  profilanswer
 

Gigathlon a écrit :


La GDDR5 a déjà été présentée à 8Gbps soit 2GHz, elle n'est juste pas produite en volume. Après, il faut voir pourquoi, car ça pourrait être une consommation démentielle... ou pas.
 
Concernant Cayman et la BP (et dans une moindre mesure Cypress), c'est surtout lié à une archi vraiment bancale qui fait beaucoup trop usage de la RAM. Au final, GCN pourrait bien avoir besoin de 2x moins de BP avec une tessellation bourrine.


+1


Message édité par maerens le 13-11-2011 à 10:43:14

---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8116704
fire du 57
The futur is Fusion
Posté le 13-11-2011 à 10:47:02  profilanswer
 

Gigathlon a écrit :


La GDDR5 a déjà été présentée à 8Gbps soit 2GHz, elle n'est juste pas produite en volume. Après, il faut voir pourquoi, car ça pourrait être une consommation démentielle... ou pas.
 
Concernant Cayman et la BP (et dans une moindre mesure Cypress), c'est surtout lié à une archi vraiment bancale qui fait beaucoup trop usage de la RAM. Au final, GCN pourrait bien avoir besoin de 2x moins de BP avec une tessellation bourrine.


 
Ah , ok ! Merci pour cette "petite" explication !  ;)  
Si la GDDR5 a une consomation démentielle à 2Ghz alors la XDR 2 est un avantage , si AMD l'utilise et que le porte feuille n'en prendra pas plein dans sa tronche , alors c'est la solution !  :jap: !  
 
PS : Mais sa fait beaucoup de "si" :D


Message édité par fire du 57 le 13-11-2011 à 10:48:00

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8116715
Lestanquet
Posté le 13-11-2011 à 10:54:35  profilanswer
 

Si ça pouvait faire le même effet qu avec les séries 5 ça m irait bien !


---------------
Feedback et ventes http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°8116781
Kenshin011
Posté le 13-11-2011 à 11:43:15  profilanswer
 

moujet a écrit :

juste que l'histoire de la rambus risque de renchérir leurs prix... ca y est comme l'an passé je suis en train de devenir foufou ^^  
HD7970 un jour tu seras mienne! oh oui! un jour tu seras mienne!..


 
Wayne's World  :love:  :love:

n°8116803
ottilienne
Posté le 13-11-2011 à 12:01:17  profilanswer
 

beaucoup de si et si en plus le pci express 3 ramene sa tronche debut 2013 ca change tout non (tesselation  bourrine plus grosse bande passante = ? )

Message cité 1 fois
Message édité par ottilienne le 13-11-2011 à 12:02:39
n°8116807
fafarex
Posté le 13-11-2011 à 12:03:30  profilanswer
 

ottilienne a écrit :

beaucoup de si et si en plus le pci express 3 ramene sa tronche debut 2013 ca change tout non (tesselation  bourrine plus grosse bande passante = ? )


 
Le pci-e est déjà la sur les carte intel

n°8116810
ottilienne
Posté le 13-11-2011 à 12:05:18  profilanswer
 

pas sur la mienne (z68

n°8116818
Zack38
Posté le 13-11-2011 à 12:12:43  profilanswer
 

Il faut arrêter de penser "arrivée du PCIe 3.0 = GPU qui l'exploite", hein [:dream49]  
 
pour ça, il faudra attendre encore quelques années.

n°8116836
moujet
Chef de Projet
Posté le 13-11-2011 à 12:25:47  profilanswer
 

Kenshin011 a écrit :


 
Wayne's World  :love:  :love:


Ohhh tu dois être vieux comme moi toi  :lol: Méga teuf!!! Méga teuf!!!

n°8116839
moujet
Chef de Projet
Posté le 13-11-2011 à 12:27:29  profilanswer
 

Zack38 a écrit :

Il faut arrêter de penser "arrivée du PCIe 3.0 = GPU qui l'exploite", hein [:dream49]  
 
pour ça, il faudra attendre encore quelques années.


Dans le cadre d'un gros multi GPU (quad de 7970) ça doit bien avoir une utilité non?  :heink:

Message cité 2 fois
Message édité par moujet le 13-11-2011 à 12:28:42
n°8116840
fire du 57
The futur is Fusion
Posté le 13-11-2011 à 12:30:39  profilanswer
 

moujet a écrit :


Dans le cadre d'un gros multi GPU ça doit bien avoir une utilité non?  :heink:


 
Oui mais alors très très gros ! :P Car les multi-GPU tel qu'une GTX 590 n'arrive même pas à vraiment saturé un port x8 ( donc x4 sur le PCIe- 3  :whistle: ) Donc je crois que pour utiliser la totalité du port PCIe-3 x16 on vas avoir du mal :D
 
PS : Ta Edit :( xD
PS 2 : Et oui surement dans se cas la ;)


Message édité par fire du 57 le 13-11-2011 à 12:31:55

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8116855
Kenshin011
Posté le 13-11-2011 à 12:42:03  profilanswer
 

moujet a écrit :


Ohhh tu dois être vieux comme moi toi  :lol: Méga teuf!!! Méga teuf!!!


 
Pas tant que ça lol, mais ça ne m'empeche pas d'être un fan inconditionnel  ;)

n°8116884
Fouge
Posté le 13-11-2011 à 13:03:03  profilanswer
 

moujet a écrit :

Dans le cadre d'un gros multi GPU (quad de 7970) ça doit bien avoir une utilité non?  :heink:

Vu que chacun à son propre port PCIE 16x, non ça change rien.

n°8116911
Activation
21:9 kill Surround Gaming
Posté le 13-11-2011 à 13:27:48  profilanswer
 

toute façon qqpart le pb du bus PCIe c'est ptet qqpart qu'il soit bridé par sa fréquence de fonctionnement ?
 
en vient alors une question aussi que je me pose
lorsqu'on se trouve dans le cas ou une donnée nécessaire n'est pas présente en mémoire video, et qu'il va falloir allez peut être la chercher en mémoire vive, ou sollicité le cpu pour réaliser un traitement pour obtenir cette donnée
 
est il plus intéressant d'avoir 16 lignes PCIe ou 8 lignes PCIe 2 fois plus rapide
 
l'idée c'est: est ce que cette largeur "en augmentant le nombre de ligne" de Bus est elle plus fondée que la rapidité dans ce cas de figure
 
est ce que pour une carte graphique PCIe 3 ready
 
le temps de "rétablissement" lorsque la mémoire video est prise en défaut est plus court avec du PCIe 2.0 16x qu'avec du PCIe 3.0 8x
 
ptet qu'au final il sera plus intéressant pour la dite CG de travailler en 8x PCIe 3 quand 16x PCIe 2
 
le truc sympa c'est qu'on va pouvoir tester ça avec un ivy, le même processeur tu test d'un coté avec une mobo qui empêchera les 16lignes du ivy de fonctionner en version 3 (ça se vend encore, même si plusieurs mobo on déjà vu des modifs pour accepter ce fonctionnement)
et après tu test avec une mobo qui permet cette compatibilité vers v3
 
après pour mettre en défaut et regarder le comportement .... en gros je vois bien une gtx660/HD7870 sur un écran 30" en 2560*1600 sur une truc genre metro 2033 toutes options  à fond :D (et avec une CG n'ayant que 1Go :o )


Message édité par Activation le 13-11-2011 à 13:33:44
n°8117044
mum1989
Posté le 13-11-2011 à 15:18:33  profilanswer
 

HD 7100 à HD 7990 : les 13 déclinaisons desktop d'AMD dévoilées ?
 

Citation :

(...)allant de la 7100 à la 7550. Comme prévu, ces GPU seraient en fait basés sur l'ancienne architecture VLIW4. La gamme des cartes 3D de bureau serait, et là encore cela coïncide avec les dernières rumeurs en date, à séparer entre deux types de cartes : les 7570 à 7870 qui seraient finalement des "refresh" des actuelles HD 6000 mais avec un passage au 28nm tout de même, tandis que les HD 7900 inaugureraient la véritable nouveauté chez AMD grâce à Tahiti (Pro et XT) et sa version biGPU New Zealand.
Autre information qui serait intéressante si elle venait à être confirmée : AMD aurait dans l'idée de lancer ses HD 7850 et 7870 dès la fin de l'année, rappelant un peu les HD 6800 qui avaient aussi été lancées avant les HD 6900 Cayman. Les 7900 monoGPU suivraient en janvier à en croire notre inconnu... (Source : ATI Forum)


 
Donc des 7570 aux 7870 on aurait du réchauffé  :heink:    :??:  
Même pas d'amélioration d'archi ? juste la finesse de gravure qui change ?

n°8117054
Charles K
Posté le 13-11-2011 à 15:23:10  profilanswer
 

Bah rien qu'un shrink c'est pas mal, surtout que c'est de 40 à 28nm et pas de 40 à 32nm, et peut être que le vliw4 aura été aussi un peu amélioré par rapport à cayman étant donné qu'il est utilisé sur quasi toute la gamme, sinon quel intérêt par rapport au vliw5 de bart.


Message édité par Charles K le 13-11-2011 à 15:26:08
n°8117060
Profil sup​primé
Posté le 13-11-2011 à 15:26:29  answer
 

Le shrink est toujours attendu sur le terrain des processeurs d'AMD
Côté GPU, si c'est le cas, il va y avoir des jaloux ^^

n°8117076
fire du 57
The futur is Fusion
Posté le 13-11-2011 à 15:41:02  profilanswer
 

Euh....c'est quoi le "shrink" ? :D
C'est un "révision" de l'archi , non ?

Message cité 1 fois
Message édité par fire du 57 le 13-11-2011 à 15:44:58

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8117080
Zack38
Posté le 13-11-2011 à 15:45:18  profilanswer
 

En gros, un die-shrink, c'est quand tu prends une puce et que tu refais la même, mais avec un process plus avancé, dans le but de la réduire.

 

Ici, c'est passage du 40nm au 28nm, mais le GPU reste à peu près le même.
Sauf que du coup il consomme et chauffe moins, et il est plus petit...

Message cité 2 fois
Message édité par Zack38 le 13-11-2011 à 15:46:45
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  88  89  90  ..  987  988  989  990  991  992

Aller à :
Ajouter une réponse
 

Sujets relatifs
AMD 6850 ou Nvidia gtx 460 ?Une question rapide pour l'achat d'un ssd+chip7 AMD
Choix alimentation (i5 760 et AMD HD6870) ?Radeon HD6870 vs Geforce 460 GTX vs GTX 470
Quel Radeon HD pour un 32" ?[Topic unique] LanBoy Air
radeon 6850Home Cinema : AMD / nVidia
ventilateur AMD Phenom II X2 555 Black...SSD sur contrôleur AMD, AHCI ou IDE, et quels pilotes ?
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9/R7 200; HD 7000 Southern Islands (28nm)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)