Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2960 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Page Suivante
Auteur Sujet :

[HFR] Focus : MSI Radeon R9 390X Gaming 8 Go en test

n°9534203
The_Balrog
Et là, c'est le drame...
Posté le 24-06-2015 à 19:46:45  profilanswer
0Votes positifs
 

Reprise du message précédent :
Sur Fermi (logique, donc)
ton "match" 7990/690, la 690 consomme moins ;)
oh...  http://www.hardware.fr/articles/89 [...] tique.html
m'enfin bon...1 ligne relevée. Allé hop!

mood
Publicité
Posté le 24-06-2015 à 19:46:45  profilanswer
 

n°9534438
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 24-06-2015 à 22:23:57  profilanswer
0Votes positifs
 

Bon pour la 690, mais ça change pas le fait qu'avant c'était AMD qui s'en sortait le mieux niveau conso.
 
Mais depuis, nVidia a passé devant AMD car ce dernier n'a plus assez d'argent pour offrir une vraie compétition avec le caméléon.

n°9534489
ockiller
Posté le 24-06-2015 à 23:01:40  profilanswer
0Votes positifs
 

cocto81 a écrit :


Bon alors, à propos des pilotes "adaptés" il faut remarquer que AMD adapte nettement moins et que les jeux "sans adaptation" tournent bien là où chez Nvidia c'est nécessaire. Sur Witcher par exemple, le jeu utilise visiblement, pour favoriser Nvidia Maxwell, des textures inutilement gonflées (donc sensiblement plus petites compressées - une fonction présente sur toutes las Maxwell) et Nvidia adapte en plus,dès la sortie du jeu par ses pilotes, le rendu selon la définition réelle de la texture (c'est à dire nettement inférieur). Bref, c'est comme en 2003, mais en nettement plus subtile. Et le pire c'est que c'est AMD qui conseille, avec une honnêteté béate, pour pas sortir de patch bidon, de rabaisser certains effets qui n'ont aucun impact sur le jeu (que de le ralentir) qui se fait accuser de tricherie... C'est ce genre de procédé chez Nvidia que je trouve très désagréable, et qui masque la réalité des vraies performances de leurs cartes. On a l'impression (qui est démontrée par les ralentissements inexpliqués sur leur ancienne gamme récemment abandonnée) que Nvidia revoit une partie du jeu dans ses pilotes pour faire un score, ce qui ne peut marcher en fait que dans les jeux (faut pas rêver). Que se passe-t-il quand ils n'adaptent plus ? On le voit avec leur ancienne gamme. C'est la ramasse ! Ce qui arrive à l'ancienne gamme Nvidia, c'est qu'elle ne fait que montrer la réalité de ses vraies performances.


Ce qu'il s'est passé pour The Witcher 3 est un remake de ce qu'il s'est passé pour Crysis 2. À l'époque les Geforce étaient plus à l'aise pour traiter plein de petits triangles que les Radeon, et nVidia a graissé la patte de Crytek pour qu'ils mettent en place un niveau de tesselation délirant (et pas très utile) sur certains objets pour profiter à fond de leur avantage. Depuis l'écart s'est bien resseré sur ce point, sauf depuis Maxwell où nVidia en remet un coup, et du coup rebelote avec Hairworks dans TW3, où on peut pousser les détails géométriques à un niveau bien au delà de l'utile et du visible. C'est ça qui explique pourquoi les Kepler ont aussi du mal.
 

cocto81 a écrit :

Je me demande ce qu'il va advenir de Maxwell dans 1 an et le passage au 14nm, alors que visiblement (selon les déclaration des dirigeants Nvidia), Nvidia a volontairement fait "un gros coup" en gravure 28nm en faisant l'impasse sur de nombreuses fonctions "sérieuses" des GPU pour n'orienter leur carte que sur le jeu adapté dans les pilotes.
Mon avis c'est que les utilisateurs de Maxwell seront les premier à devoir racheter une carte pour rester dans le coup.


Là comme ça il n'y a rien qui laisse supposer que les Maxwell souffriront de vieillissement prématuré. On trouve même tout un tas de petites fonctionnalités qui permettent d'accélérer certaines tâches un peu partout dans le pipeline (projection multiple de la géométrie sans passer par les geometry shaders, nouveau mode "pass through" qui rend ces derniers bien moins inefficaces, rastérisation conservative, multi-sampling très flexible, filtrage min/max pour éjecter rapidement des objets non visibles, etc.), et ils devraient être bien utiles pour accélérer certaines techniques de rendu (pour générer les cascades d'ombres, des cubemaps, VXGI aussi qui peut être implémenté sur tous les GPU DX11 mais qui profite pleinement de toutes les nouveautés des Maxwell, etc.). Faudra voir si tout ça sera vraiment utilisé, mais en attendant, côté fonctionnalités, les Maxwell ont l'air assez futur-proof. Manque la double précision mais ça ne concerne qu'une partie des applis pros. Le gros pari de nVidia est de ne pas proposer de nouveau GPU pour ceux qui font du gros calcul scientifique, laissant potentiellement le champ libre à AMD. Or il se trouve qu'AMD a fait exactement la même chose sur cette génération...


Message édité par ockiller le 24-06-2015 à 23:04:47
n°9535521
bjone
Insert booze to continue
Posté le 25-06-2015 à 16:43:36  profilanswer
0Votes positifs
 

cocto81 a écrit :

des textures inutilement gonflées (donc sensiblement plus petites compressées - une fonction présente sur toutes las Maxwell)


 
De ce que j'en ai compris, la compression de texture lossless de Maxwell ne joue que sur les données RAW, les formats lossy DXTC/BC ne sont pas impactables par la compression.
La compression lossless est là pour économiser de la bande-passante lors des pings/pongs avec des rendertargets re-samplées (post-pro ou autre).  
Je suppose que le ROP pack (/depack en cas de blend), l'unité de texture depack, mais les textures des assets restent en lossy à adressage déterministe.
 
Et d'autre part ces techniques lossless ont souvent un layout hiérarchique avec des tables d'infos qui bloquent en cumulatif plus de vram que les donneés raw.
Bref pas garanti que la conso vram d'un rendertarget compressée lossless sur maxwell soit plus petite que la même en raw.
 
Et ce sont les textures des assets qui font l'essentiel de la consommation vram, donc le packing lossless ne fait pas probablement gagner du budget vram.
 
---
 
Après effectivement tu peux imaginer jouer un jeu de con: faire un mode ultra-prout dans un jeu ou tu depack du DXTC/BC en raw, juste pour que la compression lossless raw puisse apparaitre comme un avantage, mais bon ça me parait peu probable pour les raisons précédentes.
 

Citation :

et Nvidia adapte en plus,dès la sortie du jeu par ses pilotes, le rendu selon la définition réelle de la texture (c'est à dire nettement inférieur)


 
lapin compris ; oui nvidia comme amd peuvent faire du shader replacement (ils le font beaucoup moins qu'avant), par contre ils profilent le buffering des commandes et l'usage des bus mémoires et jouent avec le layout mémoire et ce qu'ils peuvent entrelacer/réorganiser. (le driver a un côté frontend OOO que D3D12/Mantle/Vulkan déporteront sur le pipe de rendu du moteur)

Message cité 1 fois
Message édité par bjone le 26-06-2015 à 11:36:08
n°9535559
tridam
Profil : Equipe HardWare.fr
Posté le 25-06-2015 à 17:14:55  profilanswer
0Votes positifs
 

bjone a écrit :


Et d'autre part ces techniques lossless ont souvent un layout hiérarchique avec des tables d'infos qui bloquent en cumulatif plus de vram que les donneés raw.
Bref pas garanti que la conso vram d'un rendertarget compressée lossless sur maxwell soit plus petite que la même en raw.
 
Et ce sont les textures des assets qui font l'essentiel de la consommation vram, donc le packing lossless ne fait pas probablement gagner du budget vram.


 
Il n'y a pas de doutes à ce sujet en fait : ces techniques lossless augmentent toujours le budget vram même si c'est de peu. Le framebuffer doit toujours rester régulier et être prévu pour le cas où aucune compression n'est possible. Il ne peut jamais être plus petit que ce que ne serait un framebuffer sans technique de compression. Dans le plus simple des cas il faut ajouter une table de 1-bit par pixel, plus pour les techniques plus évoluées, pour pouvoir suivre quels pixels sont compressés et quelle partie du framebuffer doit alors être ignorée ou réinterprétée.

n°9535599
maxxximato​ze
Posté le 25-06-2015 à 17:37:09  profilanswer
0Votes positifs
 

Juste pour infos, le pcb de cette carte est bien le même que pour les R9 290X 4 et 8GB (que je possède) de la marque, mais en version 2.2 comme on peut la voir ici >> http://www.coolingconfigurator.com [...] 29-PCB.jpg
La 390X utilise la version 2.3 sans le switch dual bios, mais pour le reste c'est un copier coller...

n°9535634
tridam
Profil : Equipe HardWare.fr
Posté le 25-06-2015 à 18:09:29  profilanswer
0Votes positifs
 

Merci pour l'info, je vais préciser ça :)

n°9535650
Invite_Sur​prise
Racaille de Shanghaï
Posté le 25-06-2015 à 18:18:14  profilanswer
0Votes positifs
 

Gg67500 a écrit :


 
Surtout la 480 gtx [:ruxx]


 
C'est là où on voit la différence de pragmatisme entre nVidia et AMD.
 
nVidia a eu des problèmes de chauffe/conso avec Fermi -> Les prochaines archis sont axées efficacité énergétique
AMD rencontre des problèmes de chauffe/conso avec Tahiti/Hawaii -> On va en rajouter une couche, quitte à rajouter un WC AIO
 
Si AMD se ramasse sur le 16nm comme ils l'ont fait pour le 28nm, ils peuvent d'ores et déjà mettre la clef sous la porte.

n°9535656
cortexzehe​f
Posté le 25-06-2015 à 18:21:03  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

 

C'est là où on voit la différence de pragmatisme entre nVidia et AMD.

 

nVidia a eu des problèmes de chauffe/conso avec Fermi -> Les prochaines archis sont axées efficacité énergétique
AMD rencontre des problèmes de chauffe/conso avec Tahiti/Hawaii -> On va en rajouter une couche, quitte à rajouter un WC AIO

 

Si AMD se ramasse sur le 16nm comme ils l'ont fait pour le 28nm, ils peuvent d'ores et déjà mettre la clef sous la porte.

 

Kepler = GCN 1.0  :fou:
Puis l'AIO sur la R9 Fury, c'est pour les temp, par pour la conso folle, vu le peu d'écart entre nvidia et amd sur ce coup.

 

Puis c'est sur que si à chaque post on descend AMD, ils finiront à la trappe  :cry:

 

On est là à descendre AMD sur Tahiti toussa toussa, mais à l'époque, ils étaient bon niveau perf/watt, bien plus haut que nvidia, mais tout le monde disait que c'était trop cher pour une "révolution technologique", et que la conso on s'en fout... faut savoir ce qu'on veut les bobo nvidia :D

 

http://www.hardware.fr/medias/phot [...] 035378.gif


Message édité par cortexzehef le 25-06-2015 à 18:25:19
n°9536601
bjone
Insert booze to continue
Posté le 26-06-2015 à 12:07:12  profilanswer
0Votes positifs
 

Mon optique perso c'est que la conso on s'en fout, ce qui compte c'est les perfs après overclocking :D
Un truc qui consomme pas à la base, c'est un truc que tu peux o/c comme un sale pour remonter la conso au niveau de ce que tu as eu de pire dans ta tour :D
Après pour ce que je fais acheter aux autres, c'est toujours mieux si le truc est efficace. ( et critique pour les portables ;) )


Message édité par bjone le 26-06-2015 à 12:07:35
mood
Publicité
Posté le 26-06-2015 à 12:07:12  profilanswer
 

n°9537030
Xarios
Posté le 26-06-2015 à 16:31:39  profilanswer
0Votes positifs
 

Salut a tous,
A titre de comparaison j'ai bench Fire Stike (même version que celle du test) avec ma R9 290X 8Go de chez MSI, que j'ai OC aux même fréquences que la R9 390X MSI.  
Soit 1100Mhz GPU \ 1500Mhz VRM le tout a Vcore stock, limite conso énergétique au max
 
config:  
CM Asus formula Hero VI
G skill 2x8Go 2400Mhz
i7 4770k @ 4Ghz
SSD samsung Evo
Alim 850Watts 80+
 
Et bien même avec un proco moins véloce les résultats sont sans appel:
 
R9 390x : 13191 (comme indiqué dans le test)
 
R9 290x OC 1100/1500 : 13174
 
Soit moins de 20pts d'écart, le proco ni change rien, aux même fréquences c'est 2 CG sont donc belle et bien parfaitement identique en terme de performance.

n°9537737
vanloque
Someone broke my AT Field
Posté le 27-06-2015 à 09:50:33  profilanswer
0Votes positifs
 

Dites voir, Elle s'appelle Nitro mais c'est bel et bien le rad Tri-X hein ? :love:

 

http://www.materiel.net/carte-grap [...] 17009.html

 

Parce que alors là on a la Tri-X 390 8Go à 350€ !! :bave:
Si elle a un gros O/C : hop on baisse un peu le voltage et la fréquence avec leur soft TRIXXX et on retrouve une carte bien silencieuse :love:

 

Ensuite la Tri-X 390X est à 470€  :(


Message édité par vanloque le 27-06-2015 à 09:55:21

---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9545928
NEmergix
Lanceur d'Heden depuis 1854
Posté le 05-07-2015 à 11:24:35  profilanswer
0Votes positifs
 

On peut faire cuire un oeuf avec un CFX de 390X ?

n°9546572
oufouf84
Posté le 05-07-2015 à 23:15:21  profilanswer
0Votes positifs
 

si on suis la logique des series R 300 , la r9 380x serait elle un renommage de la 280x qui elle même et le renommage de la 7970 ghz qui elle meme est une légère amélioration de la 7970 ? car quand je vois que la r9 380 est le renommage de la 285 qui est le renommage de la 7950 v2 qui est une légère amélioration de la 7950 , et la R7 370x qui ne serait rien de plus qu'une 7870 , ça fait un peut peur tous ces refit 2012 made in AMD

Message cité 2 fois
Message édité par oufouf84 le 05-07-2015 à 23:20:33
n°9546578
McNulty
Posté le 05-07-2015 à 23:22:22  profilanswer
0Votes positifs
 

oufouf84 a écrit :

si on suis la logique des series R 300 , la r9 380x serait elle un renommage de la 280x qui elle même et le renommage de la 7970 ghz qui elle meme est une légère amélioration de la 7970 ? car quand je vois que la r9 380 est le renommage de la 285 qui est le renommage de la 7950 v2 qui est une légère amélioration de la 7950 ça fait un peut peur tous ces refit AMD


 
la r9 285 était un nouveau GPU: Tonga  
rien à voir avec le GPU Tahiti des 79x0/R9 280(x)
 

n°9546587
oufouf84
Posté le 05-07-2015 à 23:29:18  profilanswer
0Votes positifs
 

http://www.hardware.fr/articles/92 [...] -test.html  
 
effectivement , désolé pour la r9 285 je me suis trompé avec la r9 280 .

n°9546671
schpounzzz
mangeur de hardware.
Posté le 06-07-2015 à 03:02:12  profilanswer
1Votes positifs
 

Donnez l'ASIC de vos carte de test, franchement cela permettrais de juger vos résultat d'OC via cette information et cerner si les constructeur sélectionne les cartes qu'ils vous envoient! Ce serait un gros plus. L'Asic info n'est pas un gadget, vraiment pas!
 
Édit: je tweak mes cartes personnelles et un gros ASIC apporte un réel gain. Le boost de base monte à quelques bin supplémentaires, et le potentiel OC sans toucher au vcore est plus important dans le cas d'un ASIC élevé. Ce serait un sujet à traiter!  


Message édité par schpounzzz le 06-07-2015 à 03:06:05
n°9547194
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 06-07-2015 à 17:12:58  profilanswer
0Votes positifs
 

cortexzehef a écrit :

Puis c'est sur que si à chaque post on descend AMD, ils finiront à la trappe  :cry:


NEmergix a écrit :

On peut faire cuire un oeuf avec un CFX de 390X ?

oufouf84 a écrit :

si on suis la logique des series R 300 , la r9 380x serait elle un renommage de la 280x qui elle même et le renommage de la 7970 ghz qui elle meme est une légère amélioration de la 7970 ? car quand je vois que la r9 380 est le renommage de la 285 qui est le renommage de la 7950 v2 qui est une légère amélioration de la 7950 , et la R7 370x qui ne serait rien de plus qu'une 7870 , ça fait un peut peur tous ces refit 2012 made in AMD


http://2.bp.blogspot.com/_AwfVlFLMjxg/TKcPXL3uLMI/AAAAAAAAANQ/nkG22Nw_XhE/s320/rms-sign-300x225.jpg

 
Spoiler :

http://farm1.static.flickr.com/82/237583791_a954efdba4.jpg
 ATi et nVidia... main dans la main.  :whistle:

Message cité 1 fois
Message édité par Wirmish le 06-07-2015 à 17:14:47
n°9547196
cortexzehe​f
Posté le 06-07-2015 à 17:20:59  profilanswer
0Votes positifs
 
n°9591564
maxxximato​ze
Posté le 24-08-2015 à 17:30:16  profilanswer
1Votes positifs
 

Ca faisant longtemps que j'attendais les premiers "vrais" bench DX12 sur un jeu pour voir comment les GPU AMD se comportent avec un accès bas niveau ou les optimisations de drivers ne comptent plus (au moins pour le moment...), et bien c'est la très bonne surprise !
 
http://www.techpowerup.com/215316/ [...] arity.html
 
http://www.pcper.com/reviews/Graph [...] -Benchmark
 
A voir sur d'autre jeux, mais je vais peut être pouvoir garder ma msi R9 290x 8G encore quelques temps à priori, vu qu'elle fait quasi jeux égale avec une 980ti, sauf si les futurs gpu (vert ou rouge) en 14/16n déchirent tout et me font monter la bave au lèvres... :)


Message édité par maxxximatoze le 24-08-2015 à 17:34:07
n°9758651
vanloque
Someone broke my AT Field
Posté le 12-03-2016 à 10:29:10  profilanswer
0Votes positifs
 

Petit up pour savoir au final quelle est la carte avec le meilleur refroidissement pour 390x ?  
La Sapphire TriX ?  l'Asus STRIX ? La MSI ?   Résultats similaires aux cartes 290(X) ?

 

Moi je continue à pencher pour la TriX surtout le fait qu'elle envoie principalement l'air chaud sur les cotés ce qui arrange le dégagement dans un boitier horizonal.


Message édité par vanloque le 12-03-2016 à 10:29:34

---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9758692
lapin
Posté le 12-03-2016 à 11:40:02  profilanswer
0Votes positifs
 

la Tri-X est bien meilleur, les Cartes Asus les tarifs prohibitif sont ultra déconnant le système de refroidissement est médiocre, la MSi je ne sais pas trop quoi en penser.

n°9758695
vanloque
Someone broke my AT Field
Posté le 12-03-2016 à 11:44:43  profilanswer
0Votes positifs
 

Ok, j'ai relu les tests de la MSI 390X et des 290X custom et la MSI 390X parait aussi efficace que la TriX.
 
Bon je vais continuer à jouer le chrono... Si Nvidia dévoile des nouveautés d'ici 1 mois et que ça fait un peu baisser les produits AMD j'en profiterai.


---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9758769
Ploufplouf​972
Posté le 12-03-2016 à 13:51:35  profilanswer
1Votes positifs
 

vanloque a écrit :

Ok, j'ai relu les tests de la MSI 390X et des 290X custom et la MSI 390X parait aussi efficace que la TriX.
 
Bon je vais continuer à jouer le chrono... Si Nvidia dévoile des nouveautés d'ici 1 mois et que ça fait un peu baisser les produits AMD j'en profiterai.


Je dirai comme Lapin, à moins qu'ils aient changé de pâte thermique en passant au Twin Frozr V, tu risques d'avoir des probs  avec la MSI, la mienne (290x) a prit 3 mois pour se dégrader... J'ai dû virer l’autocollant de garantie pour la changer  :sarcastic:

n°9759324
vanloque
Someone broke my AT Field
Posté le 13-03-2016 à 09:36:08  profilanswer
0Votes positifs
 

Ploufplouf972 a écrit :


Je dirai comme Lapin, à moins qu'ils aient changé de pâte thermique en passant au Twin Frozr V, tu risques d'avoir des probs  avec la MSI, la mienne (290x) a prit 3 mois pour se dégrader... J'ai dû virer l’autocollant de garantie pour la changer  :sarcastic:


Ah....  bon j'ai plus qu'à attendre que la 390X passe sous les 400€ et je craque !


---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9759334
jln2
Posté le 13-03-2016 à 09:57:02  profilanswer
0Votes positifs
 

Ploufplouf972 a écrit :


Je dirai comme Lapin, à moins qu'ils aient changé de pâte thermique en passant au Twin Frozr V, tu risques d'avoir des probs  avec la MSI, la mienne (290x) a prit 3 mois pour se dégrader... J'ai dû virer l’autocollant de garantie pour la changer  :sarcastic:


 
Ceci dit, le TFV des MSi 390(x) semble bien mieux dimensionné que le TFIV des MSi 290(x).
Déjà, le TFV occupe 3 slots contre 2 sur le TFIV, ce qui doit aider a mieux dissiper la chaleur sans devoir avoir la ventilation au taquet

n°9760067
Ploufplouf​972
Posté le 14-03-2016 à 03:13:27  profilanswer
0Votes positifs
 

Je ne sais pas à partir qu'elle température la pâte commence à ce dégrader, mais en ce qui me concerne, je ne prendrais pas le risque si il s’agît de la même que la 290x  ;)

n°9760083
Zurkum
Posté le 14-03-2016 à 07:43:46  profilanswer
0Votes positifs
 

Le rad étant plus gros la pâte vas pas prendre 90° non plus ...

n°9760373
Ploufplouf​972
Posté le 14-03-2016 à 15:56:15  profilanswer
0Votes positifs
 

http://www.hardware.fr/getgraphimg.php?id=166&n=1
 
Comme tu peux le voir sur le graphique la 290x gaming chauffe moins que la 390x...

n°9760472
yoyo0601
Posté le 14-03-2016 à 19:57:16  profilanswer
0Votes positifs
 

Ploufplouf972 a écrit :


 
Comme tu peux le voir sur le graphique la 290x gaming chauffe moins que la 390x...


 
Tu omets de dire aussi que meme si la 290 chauffe moins c est juste car la 390 tourne fanless a 60° en idle, le silence sa en interesse plus d un :ange:  
 
Avec un petit oc je joue avec 50/60% de ventilation sans jamais dépasser 90°gpu/vrms1 et 2

n°9760589
petit-tigr​e
miaou
Posté le 14-03-2016 à 22:11:35  profilanswer
0Votes positifs
 

C'est peau de chagrin de toute façon en pratique. 290X, 390, 390X... guère de diff à ce niveau.


---------------
mIaOuUuUuUuUuUu
n°9760670
Ploufplouf​972
Posté le 15-03-2016 à 01:56:26  profilanswer
0Votes positifs
 

yoyo0601 a écrit :


 
Tu omets de dire aussi que meme si la 290 chauffe moins c est juste car la 390 tourne fanless a 60° en idle, le silence sa en interesse plus d un :ange:  
 
Avec un petit oc je joue avec 50/60% de ventilation sans jamais dépasser 90°gpu/vrms1 et 2


[
Je n'omets rien du tout, tu aurais pu remonter quelques messages plus haut pour savoir de quoi on parle...


Message édité par Ploufplouf972 le 15-03-2016 à 02:06:22
n°9761361
yoyo0601
Posté le 15-03-2016 à 19:52:37  profilanswer
0Votes positifs
 

en fait si, mais trop vite, mea culpa j avais cru comprendre que tu parlais de la 290x en general hors ce n est pas le cas.
 

n°9762736
Ames974
Posté le 17-03-2016 à 10:45:03  profilanswer
0Votes positifs
 

vanloque a écrit :


Ah....  bon j'ai plus qu'à attendre que la 390X passe sous les 400€ et je craque !

 

Actuellement la MSI et la Sapphire sont en promo à 389,99€, la MSI jusqu'au 19, et aujourd'hui pour la Sapphire

 

Moi je suis en grande hésitation là, surtout que je la touche pour 324€. Ça fait 10 ans que je suis chez les vert, mais le destin me force à venir chez les rouges : impossible de faire du multi screen avec des résolutions différentes avec les Geforce. Je sens que je vais craquer [:tinostar]

 

EDIT : n'empêche coté consommation, cette MSI consomme plus que ma vielle GTX580 réputé pour sa grosse conso à l'époque !

Message cité 1 fois
Message édité par Ames974 le 17-03-2016 à 10:49:22
n°9762763
lapin
Posté le 17-03-2016 à 11:21:51  profilanswer
0Votes positifs
 

la Sapphire 390X est la meilleurs.
 

n°9762943
vanloque
Someone broke my AT Field
Posté le 17-03-2016 à 15:47:09  profilanswer
0Votes positifs
 

Ames974 a écrit :

 

Actuellement la MSI et la Sapphire sont en promo à 389,99€, la MSI jusqu'au 19, et aujourd'hui pour la Sapphire

 

Moi je suis en grande hésitation là, surtout que je la touche pour 324€. Ça fait 10 ans que je suis chez les vert, mais le destin me force à venir chez les rouges : impossible de faire du multi screen avec des résolutions différentes avec les Geforce. Je sens que je vais craquer [:tinostar]

 

EDIT : n'empêche coté consommation, cette MSI consomme plus que ma vielle GTX580 réputé pour sa grosse conso à l'époque !


Tu oublies de préciser SUR QUEL SITE !!!  :D :D


Message édité par vanloque le 17-03-2016 à 16:09:48

---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9762978
Ploufplouf​972
Posté le 17-03-2016 à 16:24:01  profilanswer
0Votes positifs
 
n°9763130
vanloque
Someone broke my AT Field
Posté le 17-03-2016 à 19:52:46  profilanswer
0Votes positifs
 


ah thx mais c'est le modele Nitro, on le trouvait déjà à ce prix. :ange: De plus il avait l'air de moins bonne facture ce modèle, je suis un peu sceptique.


Message édité par vanloque le 17-03-2016 à 19:53:05

---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9763189
lapin
Posté le 17-03-2016 à 21:14:46  profilanswer
0Votes positifs
 

Se sont les tri-x les bons modèles.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
Optimisation AMD sapphire radeon Hd 7950 3gb OC with boost Batman AK[HFR] Actu : AMD Catalyst 15.6 Beta pour Batman AK
fps gtx 960 vs radeon 6870Processeur pour le gaming
Valider config svp! ( Gaming ; 800 euros)Que vaut la nouvelle R9 390 ?
[HFR] Actu : Pilotes 353.30 WHQL pour Batman AKBackplate GTX 970 MSI - MegCustom
Rendre R9 290 silencieuseAlimentation pour Fx6300 + R9 280
Plus de sujets relatifs à : [HFR] Focus : MSI Radeon R9 390X Gaming 8 Go en test


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR