Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3098 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  144  145  146  ..  621  622  623  624  625  626
Auteur Sujet :

[Topic Unique] AMD Vega

n°10171479
cartemere
Posté le 22-06-2017 à 19:25:24  profilanswer
 

Reprise du message précédent :

havoc_28 a écrit :

 

Super confortable de jouer à 40 FPS sur un FPS multi. De toute façon en 4K à l'époque les Fury s'en sortaient déjà mieux, genre une bande passante bien plus élevée. En 1080P la 980 est toujours dans la course :whistle:. La personne qui a acheté une 980 de ref à la sortie pour 550 €, ça va en quasiment 3 ans il a eut un niveau de perf plus qu'acceptable (On peut dire la même chose pour les gens ayant acheté une 290X courant 2014 en version custom etc ).

 



+1
Finalement dans cette génération les cartes ont plutôt bien duré, aussi bien chez les verts que chez les rouges.

mood
Publicité
Posté le 22-06-2017 à 19:25:24  profilanswer
 

n°10171480
havoc_28
Posté le 22-06-2017 à 19:28:35  profilanswer
 

GrouikR7 a écrit :


 
40 ips cela se fait très bien avec des chutes à 35 ips, et cela s'améliore assez facilement. Alors que des chutes à 15 fps malgré certains réglages cela pique.
 
Oui oui elles étaient vendues au même prix, voilà pourquoi et aussi sur le retour d'expérience de certains qui osent benchmarker Hawaii et Kepler, ce GP104 ne m'inspire pas confiance.  
 
Reste seulement le GP102...et pourquoi le surcoût des 780Ti, 980 TI ne se reproduirait pas encore avec la 1080TI en terme de prix/perf face au Vega cutdown une fois de plus, d'autant plus alimenté par la politique commerciale agressive de RyZen face à Intel.
 
Non.... clairement non....je ne me risque pas à claquer un billet de 850 pour une 1080TI aujourd'hui et pourtant je sais lui reconnaître ses qualités, et ce n'est pas ses 300W qui me dérangerait à titre perso.


 
Non désolé je joue pas à un jeux de tir à la première personne à 35/40 image par seconde, ce n'est pas agréable, de plus tu crois vraiment qu'un utilisateur d'écran 4K pour le jeu en soit resté à une 980/Fury? La grande majorité a depuis acheté genre une 1080 ou mieux une 1080 TI.  
 
La 980 a bientôt 3 ans, elle est sortie 9 mois avant Fiji, et même si elle a perdu quelques % depuis sa sortie, avec de plus en plus de titre DX12, en 1080P elle reste largement performante. Celui qui a une 980 il peut même attendre Volta sans trop de problème pour du 1080P.  
 
Ryzen le DIE est plus petit/compact à nombre de cœurs équivalent que chez Intel ... Ce qui n'est pas le cas de V10 après on dire que c'est pas le même fondeur, mais y a l'histoire à nouveau de la HBM2 et de son interposer ... Donc spéculer sur le tarif de Vega agressif en fonction de Ryzen ...

n°10171485
salva52
Posté le 22-06-2017 à 19:34:12  profilanswer
 

Enfin on peut dire tous ce que l'on veut, le problème est qu'il faudrait que ce putain de dollar se casse la gueule et que cette daube d'euro remonte. Pour avoir du vrai pouvoir d'achat et pas se faire bananer avec la TVA en plus. Et là je crois qu'on serait tous d'accord.  :jap:


Message édité par salva52 le 22-06-2017 à 19:36:40
n°10171489
GrouikR7
Posté le 22-06-2017 à 19:37:13  profilanswer
 

Je joue en 4K avec la Fury, cela se passe très bien...et j'ai bien fait de ne pas mettre le même billet pour un GM204 980, aujourd'hui je peux profiter encore de mon investissement sans avoir eu à sortir un billet de 750 pour la même performance.
 
Tout cela s'analyse avec le retour d'expérience.

n°10171503
havoc_28
Posté le 22-06-2017 à 19:58:35  profilanswer
 

GrouikR7 a écrit :

Je joue en 4K avec la Fury, cela se passe très bien...et j'ai bien fait de ne pas mettre le même billet pour un GM204 980, aujourd'hui je peux profiter encore de mon investissement sans avoir eu à sortir un billet de 750 pour la même performance.
 
Tout cela s'analyse avec le retour d'expérience.


 
980 sorti 9 mois plus tôt et qui a n'a jamais eut vocation à faire tourner des jeux en 4K. Bref pour ceux qui sont en 1080p en quoi la 980 a été un mauvais investissement ? Et même si tu apprécies jouer à 35/40 image par seconde à jeu de tir à la première personne, est ce que c'est le cas pour tous le monde ?
 
Un jeu de stratégie temps réel , ou un tour par tours type Civilization 35/40 image par seconde ça ne me dérange nullement, un jeu de tir à la première personne style battlefield ? Non merci. Bref avec mon iris pro 6200 j'ai eut tout le loisir de tester des jeux dans des conditions relativement difficiles niveau image par seconde, et dans les jeux de tir si c'est pour jouer à 35/40 image par seconde autant ne pas jouer :D, mais bon chacun à ses exigences sur la question, tu es content de la Fury tant mieux.

Message cité 1 fois
Message édité par havoc_28 le 22-06-2017 à 20:00:34
n°10171515
couillesho​t
Les bouboules et la boubouche
Posté le 22-06-2017 à 20:18:18  profilanswer
 

GrouikR7 a écrit :

Je joue en 4K avec la Fury, cela se passe très bien...et j'ai bien fait de ne pas mettre le même billet pour un GM204 980, aujourd'hui je peux profiter encore de mon investissement sans avoir eu à sortir un billet de 750 pour la même performance.

 

Tout cela s'analyse avec le retour d'expérience.


Félicitations! On est tous très content pour toi  :)

 

C'est bon maintenant on peut passer à autre chose?
C'est à dire à un nouveau HS  :o

Message cité 1 fois
Message édité par couilleshot le 22-06-2017 à 20:18:32

---------------
:o :o :o
n°10171520
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-06-2017 à 20:24:31  profilanswer
 

Citation :

I’ve seen the specs of Vega RX. It needs a damn lot of power. We’re working on it, which is a start so launch is coming closer :)
MSI marketing director


 
http://videocardz.com/70465/msi-da [...] t-of-power
 
Si c'est le même TDP que la version AIO, c'est 375W.
J'espère qu'il y a de la perf derrière car c'est un peu fifou une telle conso.

n°10171524
havoc_28
Posté le 22-06-2017 à 20:28:07  profilanswer
 

Invite_Surprise a écrit :

Citation :

I’ve seen the specs of Vega RX. It needs a damn lot of power. We’re working on it, which is a start so launch is coming closer :)
MSI marketing director


 
http://videocardz.com/70465/msi-da [...] t-of-power
 
Si c'est le même TDP que la version AIO, c'est 375W.
J'espère qu'il y a de la perf derrière car c'est un peu fifou une telle conso.


 
Posté 2 pages avant :
 
http://forum.hardware.fr/hfr/Hardw [...] #t10171267

n°10171525
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-06-2017 à 20:30:17  profilanswer
 

Ah sorry my bad  :jap:

n°10171526
Bébé Yoda
Posté le 22-06-2017 à 20:30:38  profilanswer
 


Intéressant. J'espère que les versions grand public seront performantes aussi ... Au moins au niveau des 1080 .

mood
Publicité
Posté le 22-06-2017 à 20:30:38  profilanswer
 

n°10171527
cartemere
Posté le 22-06-2017 à 20:30:39  profilanswer
 

couilleshot a écrit :


Félicitations! On est tous très content pour toi  :)  
 
C'est bon maintenant on peut passer à autre chose?  
C'est à dire à un nouveau HS  :o


on devrait avoir un logo "un HS peut en cacher un autre" :D

n°10171530
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-06-2017 à 20:34:30  profilanswer
 

Si on est dans les 350W+, cela indique que le produit est déjà quasiment poussé au maximum d'entrée de jeu.

n°10171537
Vinz787
Posté le 22-06-2017 à 20:41:59  profilanswer
 

Invite_Surprise a écrit :

Si on est dans les 350W+, cela indique que le produit est déjà quasiment poussé au maximum d'entrée de jeu.


 
Pour un Fiji un peu custom en 14nm, ça me paraît presque évident qu'à 1600mhz on est déjà pas mal niveau poussage de l'archi  :o  C'est le créneau d'AMD depuis Polaris puis Ryzen.. si on tire 1700mhz de nos RX Vega faudra etre heureux.

n°10171539
couillesho​t
Les bouboules et la boubouche
Posté le 22-06-2017 à 20:42:23  profilanswer
 

Je comprends pas, on était pas censé continuer l’amélioration du perf/watt avec vega?  
Ou alors elle est loin devant le gp102 [:humanrage_2]


---------------
:o :o :o
n°10171540
GrouikR7
Posté le 22-06-2017 à 20:42:34  profilanswer
 

Invite_Surprise a écrit :

Si on est dans les 350W+, cela indique que le produit est déjà quasiment poussé au maximum d'entrée de jeu.


 
350/300 c'est 50W  ou 17% de différence par rapport à une 1080TI.  
 
Qu'est-ce qui te fait dire que le produit est poussé au maximum ?
 :ouch:  

n°10171541
havoc_28
Posté le 22-06-2017 à 20:43:51  profilanswer
 

Vinz787 a écrit :


 
Pour un Fiji un peu custom en 14nm, ça me paraît presque évident qu'à 1600mhz on est déjà pas mal niveau poussage de l'archi  :o  C'est le créneau d'AMD depuis Polaris puis Ryzen.. si on tire 1700mhz de nos RX Vega faudra etre heureux.


 
Non ça va pour Ryzen ils sont cadencés pile poile au palier du dessous avant que ça grimpe fortement niveau consommation, après on a plus une sorte de mur lié au process qu'à l'architecture. C'est SKL-X chez intel qui semble avoir franchi le mauvais palier conso/chauffe :p.  
 
Et un V10 qui va plus que  doubler la puissance géométrique vs Fiji on est loin du Fiji légèrement custom en 14nm car si c'était un Fiji légèrement custom celui si ferait plus dans les 350/400 mm² que 500/550 mm².

Message cité 1 fois
Message édité par havoc_28 le 22-06-2017 à 20:48:51
n°10171542
GrouikR7
Posté le 22-06-2017 à 20:44:13  profilanswer
 

havoc_28 a écrit :


 
980 sorti 9 mois plus tôt et qui a n'a jamais eut vocation à faire tourner des jeux en 4K. Bref pour ceux qui sont en 1080p en quoi la 980 a été un mauvais investissement ? Et même si tu apprécies jouer à 35/40 image par seconde à jeu de tir à la première personne, est ce que c'est le cas pour tous le monde ?
 
Un jeu de stratégie temps réel , ou un tour par tours type Civilization 35/40 image par seconde ça ne me dérange nullement, un jeu de tir à la première personne style battlefield ? Non merci. Bref avec mon iris pro 6200 j'ai eut tout le loisir de tester des jeux dans des conditions relativement difficiles niveau image par seconde, et dans les jeux de tir si c'est pour jouer à 35/40 image par seconde autant ne pas jouer :D, mais bon chacun à ses exigences sur la question, tu es content de la Fury tant mieux.


 
Le temps et l'instant. :jap:  
 
 

n°10171550
drey19
Posté le 22-06-2017 à 20:51:05  profilanswer
 

Le contenu de ce message a été effacé par son auteur

Message cité 1 fois
Message édité par drey19 le 22-06-2017 à 20:54:50
n°10171551
Vinz787
Posté le 22-06-2017 à 20:52:03  profilanswer
 

havoc_28 a écrit :


 
Non ça va pour Ryzen ils sont cadencés pile poile au palier du dessous avant que ça grimpe fortement niveau consommation, après on a plus une sorte de mur lié au process qu'à l'architecture. C'est SKL-X chez intel qui semble avoir franchi le mauvais palier conso/chauffe :p.  
 
Et un V10 qui va plus que  doubler la puissance géométrique vs Fiji on est loin du Fiji légèrement custom en 14nm car si c'était un Fiji légèrement custom celui si ferait plus dans les 350/400 mm² que 500/550 mm².


 
Y'avait un  :o  ...  :o  
 
Pour Skylake X je trouve surtout qu'ils poussent le foutage de gueule trop loin avec leur pâte 0,00000000000000001 W/m·K tu refourgues pas ça sur des procos à 1000 balles qui chauffent leur race je suis désolé. Le coup du 7700K qu'on doit pas OC à côté c'était gentil.

n°10171553
havoc_28
Posté le 22-06-2017 à 20:55:34  profilanswer
 

Vinz787 a écrit :


 
Y'avait un  :o  ...  :o  
 
Pour Skylake X je trouve surtout qu'ils poussent le foutage de gueule trop loin avec leur pâte 0,00000000000000001 W/m·K tu refourgues pas ça sur des procos à 1000 balles qui chauffent leur race je suis désolé. Le coup du 7700K qu'on doit pas OC à côté c'était gentil.


 
 
A la base intel pour SKL-X ne tenait pas compte de Ryzen. Genre sur LGA 2066 on aurait eut uniquement les variantes basés sur le DIE de 10C et c'est tout. Avec des fréquences turbos plus basses que celles qu'on a au final. A stock la pâte thermique faisant office de joint entre l'IHS et le DIE n'aurait pas posé de soucis.
 
C'est pour ça aussi que les ES envoyés aux testeurs US du I9 7900X sont estampillés i7 :D.
 
Ah et j'oubliais qu'intel en à strictement rien à foutre des gens qui font de l'oc, les versions K c'est juste un modèle avec plus de feature qu'ils font payés plus chère, que ça monte mal ou pas en OC c'est pas leurs problèmes vu qu'ils ne garantissent pas l'oc  :whistle: .  
 
AMD bénéfice du laxisme de ces dernières années d'Intel, mais vs Nvidia, cela semble plus compliqué vu le haut niveau de performance du GP102. La tache ne sera pas aisée pour le V10 ...


Message édité par havoc_28 le 22-06-2017 à 20:57:57
n°10171565
GrouikR7
Posté le 22-06-2017 à 21:16:07  profilanswer
 

drey19 a écrit :


 
Me semble que la HBM 2 consomme moins que la GDDR5x.
 
Après il me semble avoir lu qu'AMD ne communique pas avec le même calcul que Nvidia.


 
Tu es sérieux ?  :lol:

n°10171575
neodammeru​ng
Posté le 22-06-2017 à 21:39:20  profilanswer
 

Bébé Yoda a écrit :


Intéressant. J'espère que les versions grand public seront performantes aussi ... Au moins au niveau des 1080 .


 
mdr... "au moins au niveau des 1080". Si c'est ça, le fiasco que cela va être...

n°10171580
GrouikR7
Posté le 22-06-2017 à 21:46:48  profilanswer
 

neodammerung a écrit :


 
mdr... "au moins au niveau des 1080". Si c'est ça, le fiasco que cela va être...


 Personne ne le croit sincèrement, à part ceux qui se base sur l'affrontement GM204-Fidji au lancement avec des pilotes non mature....et on sait tous lequel a mieux vieilli.
 
Mine de rien une 1080 (hors hausse liée au minage bien que la 1080 soit au final assez épargnée du fait de sa faiblesse) est surcotée en prix pour un si petit GPU en 2017.

n°10171594
havoc_28
Posté le 22-06-2017 à 22:17:44  profilanswer
 

GrouikR7 a écrit :


Mine de rien une 1080 (hors hausse liée au minage bien que la 1080 soit au final assez épargnée du fait de sa faiblesse) est surcotée en prix pour un si petit GPU en 2017.


 
La 1080 ou tout ce qui utilise de la GDDR5X n'est pas adapté au minage de certaines monnaies dont l'ethereum à cause de certaines latences de la GDDR5X qui sont contre productives pour certains algorithmes de ces applications.
 
A voir ce qu'il en sera de la HBM2 même si c'est peu probable qu'on ait le même cas de figure qu'avec la GDDR5X.


Message édité par havoc_28 le 22-06-2017 à 22:18:47
n°10171601
Bébé Yoda
Posté le 22-06-2017 à 22:27:15  profilanswer
 

Je ne parle pas de minage de crypto-monnaies mais de deep learning, c'est pas vraiment la même chose il me semble.

 

Sur tous les sites deep learning que je croise tout le monde ne jure que par NVIDIA et les benchs montrent que AMD est vraiment à la ramasse pour le moment.
Donc revenir au niveau de la 1080 ça serait déjà un énorme progrès pour moi. Attention je ne parle pas des performances en jeu.
On pourrait avoir une carte équivalent 1080Ti en jeu et 1080 en deep learning....

n°10171613
Zurkum
Posté le 22-06-2017 à 22:49:15  profilanswer
 

Activation a écrit :

Le pb avec fidji c'est un un addition de chtit truc relou

 

Y a eu la grosse vague de gtx970 custom qui offrait des perf tres appréciable pour un rapport qualité prix incroyable pour du nvidia

 

Ensuite on etait encore dans des reso tres 1080p
Meme si ça commencait à causer plutot autour des ecran 21 : 9 1440p pas trop ultrahd

 

Le fait aussi que fidji etait à la ramasse niveau moteur video pour la dite ultrahd (hdcp etc...)

 

Un autre truc tres con les fan amd qui crachait à la gueule des 3,5Go + 512Mo de la gtx970 et à coté un fidji avec only 4Go

 

Et le dernier petit truc, pour des anti AIO comme moi... Un AIO sur les fury X

 

Bah mit bout à bout ça pèse quand même dans la balance

 

Pour vega l aspect moteur video c est corrigé, c est le cas dans polaris
Au vu des protos aperçu, amd nevdevrait pas faire la meme bourde d un aio sur une carte grand public
Y a 8GB
Et enfin AMD c est sorti les doigts et le remplacant de GCN est pour ce qui est annoncé enfin des registres modulable/affinable à la manière des unité SM chez nvidia

 

Non franchement je suis confiant enfin sur une archi chez amd (apres si leur dire c est du pipo comme les powerpoint de polaris recouvert de logo "new" partout)

 

MON gros soucis avec vega... Bah c'est la date de lancement, bien trop tardive
Qui laisse une bonne opportunité à nvidia de degainer peu de mois apres la sorti de vega

 

Amd a vachement remonté la pente niveau drivers
Alors que nvidia ne fait que pourrir les siens avec son gpexperiencechit et la lenteur de son interface pourtant ultra austere dignevde windows xp/windows 2000


Tout ça + un GPU beaucoup plus gros j'ai envie de croire au lead d'AMD sur les performances gamer :O

Message cité 1 fois
Message édité par Zurkum le 22-06-2017 à 23:03:28
n°10171626
Vinz787
Posté le 22-06-2017 à 22:58:49  profilanswer
 

Zurkum a écrit :


Tout ça + un GPU beaucoup plus j'ai envie de croire au lead d'AMD sur les performances gamer  :O


 
Beaucoup plus quoi ?  :o  

n°10171627
Zurkum
Posté le 22-06-2017 à 23:01:40  profilanswer
 

Gros*
C'est la taille qui compte de toute manière  [:kede]

n°10171645
drey19
Posté le 22-06-2017 à 23:24:58  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par drey19 le 22-06-2017 à 23:51:45
n°10171649
Zurkum
Posté le 22-06-2017 à 23:38:34  profilanswer
 

La HBM ça a pour but de baisser la conso et l'encombrement tout en augmentant la bande passante :jap:

n°10171696
mogana
Posté le 23-06-2017 à 02:21:30  profilanswer
 

Invite_Surprise a écrit :

Si on est dans les 350W+, cela indique que le produit est déjà quasiment poussé au maximum d'entrée de jeu.


 
+1
j'espère juste que leur copie de la technique nvidia avec leur Tile-based Rasterization apportera quand même quelque chose en plus de brancher les unité de pixels au cache l2  
mais je doute que cela soit suffisant, correct probablement mais pas suffisant
ils ont surtout investi dans zen et c'est probablement un meilleur calcul pour l'avenir
il faudra attendre plus de r&d pour concurrencer nvidia donc attendre de meilleurs jours ou que les devs de jeux utilisent plus shader intrinsic amd pour combler le retard
mais sait-on jamais  

n°10171706
ol1v1er
Posté le 23-06-2017 à 07:24:12  profilanswer
 

Comme pour Ryzen, je pense qu'il faudra attendre la V2 de ces cartes.
Lancement un peu "précipité" :o tout ça :o²

n°10171714
aliss
Rhyme the Rhyme Well
Posté le 23-06-2017 à 08:00:59  profilanswer
 

GrouikR7 a écrit :


 
350/300 c'est 50W  ou 17% de différence par rapport à une 1080TI.  
 
Qu'est-ce qui te fait dire que le produit est poussé au maximum ?
 :ouch:  


 
Si on part du principe que l'on compare à une 1080Ti en mode "uber" ou une custom effectivement mais il y a également un gap supplémentaire sur le plan des performances à prendre en compte.
 
Dans le cas contraire une Ti de ref avec son système d'économie d'énergie par défaut ça consomme 230w.

n°10171744
albatar197​6
Posté le 23-06-2017 à 08:51:33  profilanswer
 

Parler de rapport qualité prix/perf quand on vise le haut de gamme  [:clooney8]


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°10171748
cartemere
Posté le 23-06-2017 à 08:58:08  profilanswer
 

GrouikR7 a écrit :

 

350/300 c'est 50W ou 17% de différence par rapport à une 1080TI.

 

Qu'est-ce qui te fait dire que le produit est poussé au maximum ?
:ouch:


Ah... D'après les tests hfr c'est 220W en charge pour une 1080 Ti FE
La même conso qu'une RX580 Nitro+.

 

Et on approche des 300W en version "Uber"

 

source : http://www.hardware.fr/articles/95 [...] tique.html

Message cité 1 fois
Message édité par cartemere le 23-06-2017 à 09:32:34
n°10171757
cartemere
Posté le 23-06-2017 à 09:10:10  profilanswer
 

Bébé Yoda a écrit :

Je ne parle pas de minage de crypto-monnaies mais de deep learning, c'est pas vraiment la même chose il me semble.

 

Sur tous les sites deep learning que je croise tout le monde ne jure que par NVIDIA et les benchs montrent que AMD est vraiment à la ramasse pour le moment.
Donc revenir au niveau de la 1080 ça serait déjà un énorme progrès pour moi. Attention je ne parle pas des performances en jeu.
On pourrait avoir une carte équivalent 1080Ti en jeu et 1080 en deep learning....


Mais ça c'est parce que Nvidia propose un kit d'API pour le départ learning justement, non ?

n°10171762
Bébé Yoda
Posté le 23-06-2017 à 09:15:29  profilanswer
 

Oui ils ont les librairies qui vont bien, mais il me semblait qu'il y avait aussi une question de Hardware.... J'ai pas bien saisi à vrai dire :/

n°10171763
Bébé Yoda
Posté le 23-06-2017 à 09:15:46  profilanswer
 
n°10171771
GrouikR7
Posté le 23-06-2017 à 09:35:36  profilanswer
 

cartemere a écrit :


Ah... D'après les tests hfr c'est 220W en charge pour une 1080 Ti FE
La même conso qu'une RX580 Nitro+
 
source : http://www.hardware.fr/articles/95 [...] tique.html


 
Oui oui c'est bien 300W en mode Uber soit une augmentation de 30% en consommation pour un gain moyen de 12% de performance.
 
 http://www.hardware.fr/articles/95 [...] ences.html

n°10171772
Vinz787
Posté le 23-06-2017 à 09:35:41  profilanswer
 


 
C'est tomshardware, ils font que de reprendre l'info dont on parle depuis hier en ajoutant des petits suspens du style "AMD VEGA, un TDP gigantesque ?", du grand journalisme.

n°10171780
drey19
Posté le 23-06-2017 à 09:48:16  profilanswer
 

Le contenu de ce message a été effacé par son auteur

Message cité 2 fois
Message édité par drey19 le 23-06-2017 à 09:48:49
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  144  145  146  ..  621  622  623  624  625  626

Aller à :
Ajouter une réponse
 

Sujets relatifs
Meilleure CG sans alimentation 80 euros max ?[Topic Unique] Asus ROG STRIX X99 Gaming (2011-V3)
Overclocker le GPU d'un AMD AM1.changer AMD Radeon 6800HD Series
demande d'info aux specialistes AMD ( FX-6300 )[HFR] Actu : Pilotes AMD Radeon Software 16.9.2 pour Forza 3
AMD vers NVIDIA[Topic Unique] Phanteks ECLIPSE P400S
AMD Radeon R9 490 et autres nouveautés.. (?)[HFR] Actu : Pilotes AMD Radeon Software 16.9.1
Plus de sujets relatifs à : [Topic Unique] AMD Vega


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR