Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1182 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  241  242  243  ..  539  540  541  542  543  544
Auteur Sujet :

[Topic Unique] AMD Polaris 10/11 : RX 480/470/460 (14nm FinFET)

n°9869893
krakoO
Posté le 06-07-2016 à 10:13:15  profilanswer
 

Reprise du message précédent :
@ Hive et Mei
 
Oui et c'est bien ça qui me parais bizarre
 
Crimson 16.6.2

Message cité 1 fois
Message édité par krakoO le 06-07-2016 à 10:14:15

---------------
Bien plus qu'hier mais bien moins que demain
mood
Publicité
Posté le 06-07-2016 à 10:13:15  profilanswer
 

n°9869903
FatAgnus
Posté le 06-07-2016 à 10:19:25  profilanswer
 

krakoO a écrit :

@ Hive et Mei
 
Oui et c'est bien ça qui me parais bizarre
 
Crimson 16.6.2


 
Tu le trouve dans jeux/paramètres généraux, pas dans les préférences.

n°9869911
aliss
Rhyme the Rhyme Well
Posté le 06-07-2016 à 10:23:50  profilanswer
 

Mini_BN a écrit :


 
1080p / 1440p éventuellement, pas de 4k.


 
Quoi qu'il en soit c'est pas vraiment "future proof".
 
Il ne faudrait pas que ce genre de cas se multiplie.
 
http://media.gamersnexus.net/images/media/2016/game-bench/me-catalyst/me-catalyst-bench-1080-hyper.png

n°9869914
Roms56
Posté le 06-07-2016 à 10:24:50  profilanswer
 

fabrs2_benchmark a écrit :

la gtx 1060 va sortir à 10$ plus cher que la rx 480 :whistle:
vu l'inflation la 1060 devrait sortir à 279€ contre 259€ pour la rx 480.


Si c'est ça alors, ça va être kifkif... 11 225 (1060) vs 12012 (480). C'est identique on va dire.
GTX1060 : http://img15.hostingpics.net/pics/4086041060gtx.png
RX480 : http://www.hardware.fr/articles/95 [...] trike.html

 

Si  elle sort avec 0 défauts dés le début, ça va être intéressant. Ca va se finir en préférence de marque si elles sont proches...
Mais je doute sincèrement sur le prix...

 

Vivement les tests sur cette 1060. Un topic unique serait bien sur celle-là non ?


Message édité par Roms56 le 06-07-2016 à 10:39:50
n°9869940
Mini_BN
Le Goujat est un fromage !
Posté le 06-07-2016 à 10:45:40  profilanswer
 

aliss a écrit :


 
Quoi qu'il en soit c'est pas vraiment "future proof".
 
Il ne faudrait pas que ce genre de cas se multiplie.
 
http://media.gamersnexus.net/image [...] -hyper.png


 
Oui effectivement, ça serait bien que les éditeurs de jeu arrêtent de coder leurs jeux avec les pieds, car une conso de + de 4Go en 1080p c'est juste à mourir de rire, d'autant plus que mirror edge est loin d'être le jeu le plus abouti graphiquement parlant.


---------------
OMEN by HP 15" | i5 7300HQ - 16Go DDR4 - GTX 1060
n°9869955
Lilleman
Posté le 06-07-2016 à 10:55:14  profilanswer
 

Mini_BN a écrit :


 
Oui effectivement, ça serait bien que les éditeurs de jeu arrêtent de coder leurs jeux avec les pieds, car une conso de + de 4Go en 1080p c'est juste à mourir de rire, d'autant plus que mirror edge est loin d'être le jeu le plus abouti graphiquement parlant.


 
C'est ce que je me disais en voyant le graph... Si le jeu à sa sortie ne tourne pas sur 90% des cartes du marché, on peut pas tout mettre sur le dos du matériel (ou des drivers qui vont avec).


Message édité par Lilleman le 06-07-2016 à 10:56:07
n°9869963
mazingerz
Posté le 06-07-2016 à 10:59:51  profilanswer
 

Mini_BN a écrit :


 
Oui effectivement, ça serait bien que les éditeurs de jeu arrêtent de coder leurs jeux avec les pieds, car une conso de + de 4Go en 1080p c'est juste à mourir de rire, d'autant plus que mirror edge est loin d'être le jeu le plus abouti graphiquement parlant.


 
c'est pas une histoire de codage  
 
a un moment si tu veux de plus grosse textures faut plus de ram c'est tout
 
ça s’appelle justement utiliser le plein potentiel du hardware
les dev vont pas s’embêter continuellement avec du vieux hardware
le mode ultra c'est pour le meilleur hardware  
 

Message cité 3 fois
Message édité par mazingerz le 06-07-2016 à 11:01:35
n°9869967
Lilleman
Posté le 06-07-2016 à 11:02:30  profilanswer
 

mazingerz a écrit :


 
c'est pas une histoire de codage  
 
a un moment si tu veux de plus grosse textures faut plus de ram c'est tout
 
ça s’appelle justement utiliser le plein potentiel du hardware


 
La taille des textures ne dépend pas de la vram, ça serait plutôt le nombre de textures que tu peux stocker qui augmente.
Et si les devs décident qu'ils faut TOUT charger en vram, c'est peut-être pas forcément bien optimisé...

Message cité 1 fois
Message édité par Lilleman le 06-07-2016 à 11:03:09
n°9869973
chriskenob​y
Que la force soit avec vous
Posté le 06-07-2016 à 11:06:05  profilanswer
 

News sur le driver, 16.7.1.....
 
http://www.tomshardware.fr/article [...] 60386.html

Message cité 1 fois
Message édité par chriskenoby le 06-07-2016 à 11:06:50

---------------
Les créateurs de l'Electro, c'est eux KRAFTWERK http://www.kraftwerk.com/concerts/ [...] _robo.html - Mes Cartes https://drive.google.com/drive/fold [...] 0-vZPkdfoi
n°9869975
Mini_BN
Le Goujat est un fromage !
Posté le 06-07-2016 à 11:06:41  profilanswer
 

mazingerz a écrit :


 
c'est pas une histoire de codage  
 
a un moment si tu veux de plus grosse textures faut plus de ram c'est tout
 
ça s’appelle justement utiliser le plein potentiel du hardware
les dev vont pas s’embêter continuellement avec du vieux hardware
le mode ultra c'est pour le meilleur hardware  
 


 
The Witcher 3 se joue en open world, c'est super joli (bien plus que Mirror Edge) et ça bouffe ... 2,7Go de Vram.
 
Quoi que tu en dises, à partir du moment ou on fait bien mieux pour un cout hardware bien moins grand, c'est qu'il y a une grosse couille qqpart, et que ça se situe du coté de la programmation du jeu. Utiliser le plein potentiel HW, c'est pas saturer 4Go, c'est au contraire être en mesure de sortir un jeu très joli pour un coup moins élevé sur le plan HW, alors que ce qu'il se fait avec un jeu comme Mirror Edge, c'est plutôt "on s'en branle, ils acheteront une CG avec 8Go de Vram et basta".


---------------
OMEN by HP 15" | i5 7300HQ - 16Go DDR4 - GTX 1060
mood
Publicité
Posté le 06-07-2016 à 11:06:41  profilanswer
 

n°9869976
krakoO
Posté le 06-07-2016 à 11:06:56  profilanswer
 

FatAgnus a écrit :


 
Tu le trouve dans jeux/paramètres généraux, pas dans les préférences.


 
lol ok merci je ne savais pas :D


---------------
Bien plus qu'hier mais bien moins que demain
n°9869982
frankletan​k
Posté le 06-07-2016 à 11:10:11  profilanswer
 


 
 
Bref go sapphire nitro  :bounce:  :bounce:  :bounce:

n°9869986
Moumoule
Posté le 06-07-2016 à 11:12:43  profilanswer
 

Lilleman a écrit :


Et si les devs décident qu'ils faut TOUT charger en vram, c'est peut-être pas forcément bien optimisé...


 
Gros +1
 
C'est cela qui fait défaut à une carte comme la Fury (X). L'utilisation de 4 Go en même temps, c'est mortel pour ce genre de carte. On a vu que (cette même Fury (x)) s'en sortait bien sur un jeu qui allouait bien plus que 4 Go mais qui n'utilisait pas ceux-ci en même temps (swap avec la mémoire centrale)
 
 

n°9869988
aliss
Rhyme the Rhyme Well
Posté le 06-07-2016 à 11:12:59  profilanswer
 

Mini_BN a écrit :

 

Oui effectivement, ça serait bien que les éditeurs de jeu arrêtent de coder leurs jeux avec les pieds, car une conso de + de 4Go en 1080p c'est juste à mourir de rire, d'autant plus que mirror edge est loin d'être le jeu le plus abouti graphiquement parlant.

 

Ce n'est pas vraiment le pourquoi qui est important mais le fait que si ces cas se multiplient, 4go pourraient être pénalisant d'ici quelques temps.

 

Rien n'empêche évidemment de baisser un peu le niveau de détail mais c'est gonflant de se dire qu'une Fury est aux fraises là ou une 390x offre un framerate raisonnable.

 


Message cité 2 fois
Message édité par aliss le 06-07-2016 à 11:14:37
n°9869995
Moumoule
Posté le 06-07-2016 à 11:18:31  profilanswer
 

aliss a écrit :


 
Ce n'est pas vraiment le pourquoi qui est important mais le fait que si ces cas se multiplient, 4go pourraient être pénalisant d'ici quelques temps.
 
Rien n'empêche évidemment de baisser un peu le niveau de détail mais c'est gonflant de se dire qu'une Fury est aux fraises là ou une 390x offre un framerate raisonnable.
 
 


 
Suis d'accord avec le niveau de détail.  
 
Le cas de Mirror's Edge est clairement un cas isolé, suffit de voir d'ou vient ce mode "Hyper" ;)

n°9870010
aliss
Rhyme the Rhyme Well
Posté le 06-07-2016 à 11:26:21  profilanswer
 

Bien entendu, j'étais d'ailleurs surpris que Dice/EA acceptent malgré leur lien avec AMD.

n°9870018
Mini_BN
Le Goujat est un fromage !
Posté le 06-07-2016 à 11:28:33  profilanswer
 

Toujours est-il que pour du 1080p / 1440p, une Fury à 325€ reste à mon avis un excellent deal.
 
Hate de voir si les RX 480 custom et OC viennent la titiller.


---------------
OMEN by HP 15" | i5 7300HQ - 16Go DDR4 - GTX 1060
n°9870025
MEI
|DarthPingoo(tm)|
Posté le 06-07-2016 à 11:30:52  profilanswer
 

aliss a écrit :


 
Ce n'est pas vraiment le pourquoi qui est important mais le fait que si ces cas se multiplient, 4go pourraient être pénalisant d'ici quelques temps.
 
Rien n'empêche évidemment de baisser un peu le niveau de détail mais c'est gonflant de se dire qu'une Fury est aux fraises là ou une 390x offre un framerate raisonnable.
 
 


 
Non mais qu'un jeu plante a cause de la conso RAM c'est pas acceptable point.
 
Que ça rame why not. Mais plante, non !
 
D'autant qu'avec la RAM système proche du PCIe et rapide de nos jour (on a de la DDR4 @ 3-3,5GHz en 128 bits/256 bits donc quand même "seulement" jusqu'à 28-56Go/s de BP centrale... donc débordé un peu dedans peux suffire à ne pas dégrader trop les perfs).


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9870026
nanaky
Posté le 06-07-2016 à 11:31:22  profilanswer
 

Citation :

Si c'est ça alors, ça va être kifkif... 11 225 (1060) vs 12012 (480). C'est identique on va dire.
GTX1060 : http://img15.hostingpics.net/pics/4086041060gtx.png
RX480 : http://www.hardware.fr/articles/95 [...] trike.html
 
 
Si  elle sort avec 0 défauts dés le début, ça va être intéressant. Ca va se finir en préférence de marque si elles sont proches...
Mais je doute sincèrement sur le prix...
 
 
Vivement les tests sur cette 1060. Un topic unique serait bien sur celle-là non ?


 
 
non,non,non petite correction ne pas confondre le graphics score et le score global
 
graphics score :
 
rx480= 12012
 
gtx 1060= 13215
 
 :)  :)  
 

n°9870033
Mini_BN
Le Goujat est un fromage !
Posté le 06-07-2016 à 11:35:19  profilanswer
 

Fury Sapphire commandée à l'instant, on va bien voir si la commande passe (j'étais au taquet sur la page matos.net :D )


---------------
OMEN by HP 15" | i5 7300HQ - 16Go DDR4 - GTX 1060
n°9870044
tridam
Profil : Equipe HardWare.fr
Posté le 06-07-2016 à 11:40:56  profilanswer
 

La news a été mise à jour pour info : http://www.hardware.fr/news/14703/ [...] e-maj.html
 

n°9870060
aeon-
Il dit qu'il a plus de genoux
Posté le 06-07-2016 à 11:47:37  profilanswer
 

Mini_BN a écrit :

Fury Sapphire commandée à l'instant, on va bien voir si la commande passe (j'étais au taquet sur la page matos.net :D )


 
 
 :??:  
 
J'ai loupé un truc ?


---------------
Le secteur Ouest c'est d'la balle !
n°9870065
frankletan​k
Posté le 06-07-2016 à 11:48:34  profilanswer
 

Toutes les fury sont déjà parti ^^

n°9870088
Xillendo
Posté le 06-07-2016 à 11:55:52  profilanswer
 

J'aime bien la façon dont AMD va régler le problème.
Charger plus de 75W sur le 6pin, c'est pas un problème, ce genre de câbles sont largement surdimensionnés,  sauf peut être sur des alims de très mauvaise qualité type Advance :D (j'aurais pas confiance dans un molex->6pins aussi)
 
Et le mode compatibilité est sympas, pour les gens qui veulent vraiment rester dans les limites des normes, dans toutes circonstance, au prix d'une baisse plus ou moins importante des perfs.
 
Bref, c'est bien fait (attendons de voir le test du driver quand même :o ), même si ça aurait pu être évité si ils avaient mit un connecteur 8 pin dès le début. :D

n°9870116
Moihey
Qui veut m'adopter ?
Posté le 06-07-2016 à 12:08:18  profilanswer
 

http://i.imgur.com/Tj0da6C.jpg
 
http://i.imgur.com/zAyDLdV.jpg


---------------
Vous vous levez tôt pour nous nourrir ©Macron 1 Mai 2023
n°9870119
testo06
B.net : KahMi#21448
Posté le 06-07-2016 à 12:09:45  profilanswer
 

ces professionnels :D

n°9870123
Lecutter
Posté le 06-07-2016 à 12:12:10  profilanswer
 

Je vois pas le problème de rename des 8 Go en 4 Go.  
Tant qu'on rename pas des 3.5 Go en 4 Go moi ça me va.

n°9870126
Roms56
Posté le 06-07-2016 à 12:13:56  profilanswer
 

Aprés, c'est con, mais ça évite le surcout  d'une autre boite pour changer simplement 1 chiffre !
Je vois pas le soucis franchement, ça évite de développer un autre PCB pour une autre carte au fonctionnement identique, simplement bridé. (cf voitures : bridages calculateurs tout ça tout ça ;))
J'appelle plus ça de l’intelligence.

 

Énormément de produits du commerces sont comme ça (téléphone aussi tiens).

 

Quand on dev un hardware avec plusieurs gammes/puissance. On fais plusieurs version de firmware, et un seul hardware. C'est beaucoup plus rentable ! (je sais de quoi je parle, ça fait parti de mon boulot)

Message cité 1 fois
Message édité par Roms56 le 06-07-2016 à 12:20:14
n°9870130
Moihey
Qui veut m'adopter ?
Posté le 06-07-2016 à 12:14:41  profilanswer
 

pas de problème, juste que j'ai pas encore vu de vrai version 4Go (pour l'instant)
 


---------------
Vous vous levez tôt pour nous nourrir ©Macron 1 Mai 2023
n°9870143
Hive
Posté le 06-07-2016 à 12:30:32  profilanswer
 

Roms56 a écrit :

Aprés, c'est con, mais ça évite le surcout  d'une autre boite pour changer simplement 1 chiffre !
Je vois pas le soucis franchement, ça évite de développer un autre PCB pour une autre carte au fonctionnement identique, simplement bridé. (cf voitures : bridages calculateurs tout ça tout ça ;))
J'appelle plus ça de l’intelligence.
 
Énormément de produits du commerces sont comme ça (téléphone aussi tiens).
 
Quand on dev un hardware avec plusieurs gammes/puissance. On fais plusieurs version de firmware, et un seul hardware. C'est beaucoup plus rentable ! (je sais de quoi je parle, ça fait parti de mon boulot)


Le soucis c'est qu'AMD a communiqué une MSRP de 199 USD et n'a quasiment fait de la promo QUE là dessus pour une carte... Qui n'existe vraissemblablement pas !

n°9870144
mazingerz
Posté le 06-07-2016 à 12:30:40  profilanswer
 

frankletank a écrit :

Toutes les fury sont déjà parti ^^


 
il y avais une promo spécial?

n°9870146
havoc_28
Posté le 06-07-2016 à 12:31:44  profilanswer
 

mazingerz a écrit :


 
il y avais une promo spécial?


 
350 € chez materiel.net

n°9870149
mazingerz
Posté le 06-07-2016 à 12:33:18  profilanswer
 

Mini_BN a écrit :


 
The Witcher 3 se joue en open world, c'est super joli (bien plus que Mirror Edge) et ça bouffe ... 2,7Go de Vram.
 
Quoi que tu en dises, à partir du moment ou on fait bien mieux pour un cout hardware bien moins grand, c'est qu'il y a une grosse couille qqpart, et que ça se situe du coté de la programmation du jeu. Utiliser le plein potentiel HW, c'est pas saturer 4Go, c'est au contraire être en mesure de sortir un jeu très joli pour un coup moins élevé sur le plan HW, alors que ce qu'il se fait avec un jeu comme Mirror Edge, c'est plutôt "on s'en branle, ils acheteront une CG avec 8Go de Vram et basta".


 
la tu nous donnes ton avis subjectif
 
pourquoi Witcher 3 tourne pas sur des carte 2 giga? y avais des jeux qui tournais sur des cartes avec 128 mo même... enculé savent plus coder  
bref le matos évolue et les jeux aussi  
 

n°9870164
Mini_BN
Le Goujat est un fromage !
Posté le 06-07-2016 à 12:51:10  profilanswer
 

mazingerz a écrit :


 
la tu nous donnes ton avis subjectif
 
pourquoi Witcher 3 tourne pas sur des carte 2 giga? y avais des jeux qui tournais sur des cartes avec 128 mo même... enculé savent plus coder  
bref le matos évolue et les jeux aussi  
 


 
T'es d'une mauvaise foi, c'est incroyable :x (sans compter que sur une carte à 2Go, le jeu il tourne).
 
Mais si t'es pas fichu d'admettre qu'un jeu qui tire au mieux parti du HW c'est un jeu qui offre un rendu magnifique pour un minimum de conso HW (Vram, GPU usage,...) et qu'un jeu qui est pas super joli et qui consomme beaucoup plus de ressources est un jeu optimisé avec les pieds... je pense sincèrement que personne ne pourra rien pour toi.

Message cité 1 fois
Message édité par Mini_BN le 06-07-2016 à 12:58:12

---------------
OMEN by HP 15" | i5 7300HQ - 16Go DDR4 - GTX 1060
n°9870170
hervai
Posté le 06-07-2016 à 12:54:31  profilanswer
 

J'ai une GTX580 1.5Go, le jeu tourne !

n°9870179
Mini_BN
Le Goujat est un fromage !
Posté le 06-07-2016 à 13:00:49  profilanswer
 

hervai a écrit :

J'ai une GTX580 1.5Go, le jeu tourne !


 
Le problème n'est pas ici hervai, et c'est même normal qu'un jeu de 2015 tourne sur une CG de 2010 qui offre des performances encore digne d'une carte casual gamer d'aujourd'hui (GTX 950 +/- ?). Le problème il tient bien au fait que certains jeux ne se lancent même pas sur du matos qui n'est pas encore obsolète.


---------------
OMEN by HP 15" | i5 7300HQ - 16Go DDR4 - GTX 1060
n°9870206
Roms56
Posté le 06-07-2016 à 13:29:20  profilanswer
 

Hive a écrit :


Le soucis c'est qu'AMD a communiqué une MSRP de 199 USD et n'a quasiment fait de la promo QUE là dessus pour une carte... Qui n'existe vraissemblablement pas !


 
La vache, si à chaque fois qu'un grand groupe (quel qu'il soit) fait une annonce marketing plus ou moins vraie vous vous sentez trahi, vous devez pas être loin de la dépression nerveuse ;) Ils le font tous ! Je suis pas surpris...

n°9870217
darkandy
?
Posté le 06-07-2016 à 13:35:56  profilanswer
 

Surtout que MSRP=Manufacturer's Suggested Retail Price
 
Donc après les revendeurs, distributeur & co font comme ils veulent au final...
 
Sans compter que le MSRP est uniquement pour les US.


---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9870221
Roms56
Posté le 06-07-2016 à 13:42:19  profilanswer
 

darkandy a écrit :

Surtout que MSRP=Manufacturer's Suggested Retail Price

 

Donc après les revendeurs, distributeur & co font comme ils veulent au final...

 

Sans compter que le MSRP est uniquement pour les US.

 

Si la 1060 sort à 100€ plus chère ça ne m'étonnerai pas. Pas de la faute de Nvidia, mais des revendeurs qui profitent de l'image de Nvidia. Par contre, entendra t-on autant de critiques ? C'est moins sûr ;)


Message édité par Roms56 le 06-07-2016 à 13:44:45
n°9870230
mazingerz
Posté le 06-07-2016 à 13:50:09  profilanswer
 

Mini_BN a écrit :


 
T'es d'une mauvaise foi, c'est incroyable :x (sans compter que sur une carte à 2Go, le jeu il tourne).
 
Mais si t'es pas fichu d'admettre qu'un jeu qui tire au mieux parti du HW c'est un jeu qui offre un rendu magnifique pour un minimum de conso HW (Vram, GPU usage,...) et qu'un jeu qui est pas super joli et qui consomme beaucoup plus de ressources est un jeu optimisé avec les pieds... je pense sincèrement que personne ne pourra rien pour toi.


 
ce que j'essaye de te faire réaliser justement c'est que toi tu es de mauvaise fois
 
des discours dans ton genre on a en a tout les 6 mois  
 
un certain bill gate a un époque disais que 64 Ko de ram c'était bien suffisant  
 

n°9870237
MEI
|DarthPingoo(tm)|
Posté le 06-07-2016 à 13:55:05  profilanswer
 

Xillendo a écrit :

J'aime bien la façon dont AMD va régler le problème.
Charger plus de 75W sur le 6pin, c'est pas un problème, ce genre de câbles sont largement surdimensionnés,  sauf peut être sur des alims de très mauvaise qualité type Advance :D (j'aurais pas confiance dans un molex->6pins aussi)
 
Et le mode compatibilité est sympas, pour les gens qui veulent vraiment rester dans les limites des normes, dans toutes circonstance, au prix d'une baisse plus ou moins importante des perfs.
 
Bref, c'est bien fait (attendons de voir le test du driver quand même :o ), même si ça aurait pu être évité si ils avaient mit un connecteur 8 pin dès le début. :D


Une alim, sauf cas exceptionnel et d'il y a 15 ans, est quasi tjrs monorail 12V. Donc si l'alim tiens pas c'est que t'as à peine une alim 300W. :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  241  242  243  ..  539  540  541  542  543  544

Aller à :
Ajouter une réponse
 

Sujets relatifs
GTX 750 Ti ou Radeon HD 7870[HFR] Actu : Pilotes AMD Catalyst 15.8 Beta
[AMD] FX 6300 surchauffeProblème d'affichage via carte AMD
[Topic Unique] Asus Z170-A socket 1151Crash Cg Sapphire Radeon HD7970 OC
[HFR] Actu : Les Radeon R9 370X disponibles en Chine[HFR] Actu : AMD annonce la Radeon R9 Nano
Remplacement d'une Radeon HD 5850 
Plus de sujets relatifs à : [Topic Unique] AMD Polaris 10/11 : RX 480/470/460 (14nm FinFET)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR