Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4313 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10
Auteur Sujet :

[HFR] Actu : AMD annonce les Radeon RX 580, 570, 560 et 550

n°10130080
HashBoost
Posté le 19-04-2017 à 13:46:23  profilanswer
3Votes positifs
 

Reprise du message précédent :

lapin a écrit :

donc au prix d'un OC, une R9 FURY c'est presque les performance d'un GTX 1070 enfin surtout à partir de QUADHD et supérieur.


T'as pas honte de comparer une Fury X à une GTX 1070 ?
Le TDP max de la Fury tourne à 385W, celui de la 1070 à 150W. La Fury X consomme 250W sous Battlefield, 150W pour la GTX.
Faut pas pousser mamie dans les orties non plus, ta Fury à 2 ans et un siècle de retard en consommation !

mood
Publicité
Posté le 19-04-2017 à 13:46:23  profilanswer
 

n°10130092
lapin
Posté le 19-04-2017 à 13:56:45  profilanswer
0Votes positifs
 

HashBoost a écrit :


T'as pas honte de comparer une Fury X à une GTX 1070 ?
Le TDP max de la Fury tourne à 385W, celui de la 1070 à 150W. La Fury X consomme 250W sous Battlefield, 150W pour la GTX.
Faut pas pousser mamie dans les orties non plus, ta Fury à 2 ans et un siècle de retard en consommation !


 
 
ben non car les WATTS on s'en fout ou alors on arrête de jouer au jeux vidéo, pourquoi tous simplement parce que quand nVIDIA réussi à sortir des GPU qui consomme moins de WATTS pour des performances similaire au GPU AMD, c'est comme par hasard un argument contre le GPU AMD, par contre si nVIDIA sort un GPU qui consomme plus ou a peut prés pareil en WATTS de AMD comme par hasard l'ARGUMENTAIRE "ouais c'est pas normal le GPU Consomme trop c'est pas écologique il faut une central nucléaire il faut une alimentation de 750 WATTS patati et patata" disparaît comme par magie, pour moi c'est caduc nul et non avenu, fait chié quoi on est là pour jouer.
 
  [:hurle] les 100 WATTS de plus consommé j'en ai S T R I C T E M E N T RIEN à F O U T R E car y en a marre de l'ARGUMENTAIRE à S E N S U N I Q U E!!!!!
 
 
d'autant que j'ai un FX 8320 qui est OC à 4565 Mhz et qui doit à lui seul consomme 218 WATTS environ.

Message cité 2 fois
Message édité par lapin le 19-04-2017 à 13:59:48
n°10130097
albatar197​6
Posté le 19-04-2017 à 14:00:59  profilanswer
2Votes positifs
 

lapin a écrit :


 
 
ben non car les WATTS on s'en fout ou alors on arrête de jouer au jeux vidéo, pourquoi tous simplement parce que quand nVIDIA réussi à sortir des GPU qui consomme moins de WATTS pour des performances similaire au GPU AMD, c'est comme par hasard un argument contre le GPU AMD, par contre si nVIDIA sort un GPU qui consomme plus ou a peut prés pareil en WATTS de AMD comme par hasard l'ARGUMENTAIRE ouais c'est pas normal le GPU Consomme trop c'est écologique il faut une central nucléaire patati et pataté disparaît comme par magie, pour moi c'est caduc nul et non avenu, fait chié quoi on est là pour jouer.
 
  [:hurle] les 100 WATTS de plus consommé j'en ai S T R I C T E M E N T RIEN à F O U T R E car y en a marre de l'ARGUMENTAIRE à S E N S U N I Q U E!!!!!
 
 
d'autant que j'ai un FX 8320 qui est OC à 4565 Mhz et qui doit à lui seul consommé 218 WATTS environ.


 
C'est bien si tu en as rien à faire  [:ruxx]  
 
Mais encore une fois, c'est de la chaleur à évacuer. Il faut donc ventiler plus ce qui engendre plus de nuisances sonores (sauf water cooling custom de compet).


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°10130099
SirGallaha​d
Girouette Pro
Posté le 19-04-2017 à 14:02:58  profilanswer
0Votes positifs
 

Autant j'ai aucun problème psychologique a comparer une Fury X à une GTX1070.
Autant je sais qu'elle ne se valent pas sur de nombreux points.
Il y a seulement +/- 15% de différence entre les 2 : http://www.hardware.fr/articles/95 [...] ances.html
 
Apres de la à hurler au massacre, quand même...
 
Niveau chaleur a évacuer, il n'y a rien de dramatique non plus. même en mini ITX du moment que le boitier est bien aéré ou bien isolé et il n'y a plus rien de grave.

Message cité 1 fois
Message édité par SirGallahad le 19-04-2017 à 14:07:23
n°10130104
lapin
Posté le 19-04-2017 à 14:12:08  profilanswer
0Votes positifs
 

albatar1976 a écrit :


 
C'est bien si tu en as rien à faire  [:ruxx]  
 
Mais encore une fois, c'est de la chaleur à évacuer. Il faut donc ventiler plus ce qui engendre plus de nuisances sonores (sauf water cooling custom de compet).


 
 
bon comparaisons n'est pas raison, mais des boitier ATX correctement Ventiler genre NZXT ou d'autre marque avec hors Alimentation ATX au moins trois emplacement de ventilateur en Extraction, et là comme par hasard aucun problème pour dissipé donc moins de bruit et aucun problème pour maintenir le GPU sous les 76°AMD.
 
http://www.materiel.net/boitier-pc [...] 96488.html
 
note j'ai dis comparaison n'est pas raison car j'ai une installation particulière, mon ordinateur est dans ma chambre, hors je suis dans le salon, du coup le bruit je ne l'entends pas trop.
 

n°10130106
albatar197​6
Posté le 19-04-2017 à 14:12:58  profilanswer
0Votes positifs
 

SirGallahad a écrit :

Autant j'ai aucun problème psychologique a comparer une Fury X à une GTX1070.
Autant je sais qu'elle ne se valent pas sur de nombreux points.
Il y a seulement +/- 15% de différence entre les 2 : http://www.hardware.fr/articles/95 [...] ances.html


 
Sauf que le 1070 est loin d'être la meilleure carte chez les verts  [:ruxx]


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°10130111
samurai80
Posté le 19-04-2017 à 14:18:18  profilanswer
2Votes positifs
 

lapin a écrit :


 
 
ben non car les WATTS on s'en fout ou alors on arrête de jouer au jeux vidéo, pourquoi tous simplement parce que quand nVIDIA réussi à sortir des GPU qui consomme moins de WATTS pour des performances similaire au GPU AMD, c'est comme par hasard un argument contre le GPU AMD, par contre si nVIDIA sort un GPU qui consomme plus ou a peut prés pareil en WATTS de AMD comme par hasard l'ARGUMENTAIRE "ouais c'est pas normal le GPU Consomme trop c'est pas écologique il faut une central nucléaire il faut une alimentation de 750 WATTS patati et patata" disparaît comme par magie, pour moi c'est caduc nul et non avenu, fait chié quoi on est là pour jouer.
 
  [:hurle] les 100 WATTS de plus consommé j'en ai S T R I C T E M E N T RIEN à F O U T R E car y en a marre de l'ARGUMENTAIRE à S E N S U N I Q U E!!!!!
 
 
d'autant que j'ai un FX 8320 qui est OC à 4565 Mhz et qui doit à lui seul consomme 218 WATTS environ.


La comparaison en termes de fps/w c'est surtout pour pointer du doigt le retard technologique de l'un ou de l'autre. Un certain nombre de consommateurs s'en foutent, certes, mais pour les deux fabricants c'est crucial tant il est clair que celui qui maitrise la consommation a beaucoup plus de marge de manoeuvre, et meme a priori de marge financiere. Car il va sans dire que le cout de fabrication d'une Fury est bien plus elevee que celui d'une 1070 :jap: AMD est force de s'aligner au niveau du prix, mais sa position n'est clairement pas enviable :jap:


Message édité par samurai80 le 19-04-2017 à 18:11:31
n°10130116
Steez
Pas l'temps d'niaiser !
Posté le 19-04-2017 à 14:24:29  profilanswer
1Votes positifs
 

Après aussi faut pas croire que les cartes de chez Nvidia consomme peu, certes la Founder oui, mais les customs rien que de base tu rajoutes 30w facile, donc sur une GTX 1070 Custom on passe facile à 180w, et si on l'OC comme un porc on passe à 200-210w, pour une GTX 1080 ça donnerai environ 200w pour une custom, et 225w pour une custom OC.
 
Certes pour le niveau de performances ok, mais faut pas dire qu'elle sont économes, elle consomme aussi pas mal si c'est pas une Founder.

n°10130120
sebfun
Posté le 19-04-2017 à 14:29:43  profilanswer
2Votes positifs
 

et puis là ou amd a fait clairement un bond, c'est la qualité des drivers
ma futur carte graphique sera clairement de l'amd, ne serait-ce que pour les efforts fait sur linux, et leur politique vis a vis de l'open source
j'ai cru comprendre que sur windows, les drivers ont fait un bond également.

n°10130124
SirGallaha​d
Girouette Pro
Posté le 19-04-2017 à 14:33:42  profilanswer
0Votes positifs
 

albatar1976 a écrit :


Sauf que le 1070 est loin d'être la meilleure carte chez les verts  [:ruxx]


Oui et ? Je ne sais plus qui s'offusquait de la comparaison FuryX/GTX1070, pourtant elle n'est pas non plus complètement débile.
 
Après oui, nVidia a mieux en stock a prix d'or :)
(nVidia a aussi du très bon à prix plus raisonnable)


Message édité par SirGallahad le 19-04-2017 à 14:34:14
mood
Publicité
Posté le 19-04-2017 à 14:33:42  profilanswer
 

n°10130125
Asthon
Posté le 19-04-2017 à 14:35:01  profilanswer
0Votes positifs
 

Dans un boitier Mini-ITX de 10-15-20L (Sugo, Cooler Master Elite, Fractal Node etc...) une carte graphique de plus de 200W de TDP ça devient un boulet pour le confort...
 
Avec les alims SFX qui tournent dans les 300-450W pour un encombrement raisonnable, 600W pour les plus haut de gamme, on impose des charges qui vont faire grimper le volume sonore de ces solutions compactes !
 
Après on peut faire des choix judicieux en sélectionnant une carte avec un profil de ventilation qui va favoriser l'extraction de la chaleur du boitier (au mieux un blower, ou une solution hybride), mais tout ces choix vont faire monter la facture en réduisant l'offre des produits compatibles.
 
Au final si on peut trouver un GPU qui fait la même chose pour 100W de moins en TDP c'est tout vu (quelque soit les performances de son refroidissement), et personnellement j'étais équipé en GCN quand Nvidia n'avait que Fermi/Kepler à opposer sur le milieu de gamme...

n°10130139
kriaz
Posté le 19-04-2017 à 14:45:38  profilanswer
0Votes positifs
 

Mais mec ta carte est le très haut de gamme amd avec hbm et  sous water, encore heureux qu'elle soit presque au niveau d'une carte moyenne gamme d'nvidia, rien de glorieux dans tout ça , ca n'aurait pas été le cas (imaginons une  fury  bien moin puissante )  j'aurai jeté des tomates à tout les possesseurs de fury .

n°10130151
crozet-mag​enta
pas si nouille que ça
Posté le 19-04-2017 à 14:58:26  profilanswer
6Votes positifs
 

on parle quand même d'une CG qui est sortie mi 2015 vs une CG sortie il y a quelques mois... à ce compte là, la 980ti qui est le très haut de gamme Nvidia aussi est moisie puisqu'elle ne fait pas aussi bien qu'une 1070...
et perso je ne considère pas qu'une carte à 400€ est une carte moyenne gamme... la moyenne gamme c'est plutot 1060/rx480, Hdg 1070 très hdg 1080/1080ti

Message cité 2 fois
Message édité par crozet-magenta le 19-04-2017 à 15:00:08
n°10130163
damien440
Posté le 19-04-2017 à 15:27:35  profilanswer
1Votes positifs
 

Donc pour info, le moyen de gamme aujourd'hui c'est 1080p60ips.  
Si vous avez mieux c'est au dessus de moyen de gamme, si c'est en dessous c'est bas de gamme.  
Basta, pas de prise de tête sur kikalaplugroce.

n°10130172
alffir
Posté le 19-04-2017 à 15:36:59  profilanswer
2Votes positifs
 

crozet-magenta a écrit :

on parle quand même d'une CG qui est sortie mi 2015 vs une CG sortie il y a quelques mois... à ce compte là, la 980ti qui est le très haut de gamme Nvidia aussi est moisie puisqu'elle ne fait pas aussi bien qu'une 1070...
et perso je ne considère pas qu'une carte à 400€ est une carte moyenne gamme... la moyenne gamme c'est plutot 1060/rx480, Hdg 1070 très hdg 1080/1080ti


Nvidia a décalé sa gamme, jusqu'à Fermi, le GPU de 300mm² au bus 256 bits était le MdG (460, 560) et le haut de gamme avait un die plus gros et un bus de 384 bits (480, 580).

 

Maintenant, faute de concurrence d'AMD sur le HdG, ils arrivent à vendre le GP104 comme du HdG et vendent le GP102 comme de l'exclusivité très HdG.


Message édité par alffir le 19-04-2017 à 15:37:46

---------------
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes.
n°10130183
wnorton
Je suis néerlandophone
Posté le 19-04-2017 à 15:51:55  profilanswer
1Votes positifs
 

lapin a écrit :


 
 
d'après TECHPOWERUP une Radeon R9 FURY X, à a peut près les mêmes performance qu'un Geforce GTX 1070, bon la Fury fait 122% la GTX 1070 fait 129%, le seul soucis c'est le prix et la disponibilité, si non en moyenne la R9 Fury de base est 7% moins performant que la Fury X, je pense que moyennant un peut OC ont peut équivaloir à un Fury X à peut près.
 
donc au prix d'un OC, une R9 FURY c'est presque les performance d'un GTX 1070 enfin surtout à partir de QUADHD et supérieur.


 
OC une gtx 1070 après on en reparle ;-)
J'ai une EVGA 1080 oc d'usine je tourne à 1999MHz sans la oc moi même, mémoire à 5005 MHz ;-) , elles ont du potentiels aux derrières la série 1000


Message édité par wnorton le 19-04-2017 à 16:00:51
n°10130213
Bouvman
You fuck my wife ?
Posté le 19-04-2017 à 16:32:59  profilanswer
2Votes positifs
 

une RX580 stock consomme autant qu'une 1080 OC...

n°10130232
cartemere
Posté le 19-04-2017 à 17:04:33  profilanswer
1Votes positifs
 

albatar1976 a écrit :


 
Il y a une différence entre sortir une v2 et sortir une une renommage complet d'une gamme  :sweat:


Chez nVidia, donc décline des GPUs avec des fréquences différentes, des changements en nombre d'unités de calcul, des quantités et bandes passantes de RAM différentes, mais on conserve le même nom.
Cf les 1060, 1080
 
Chez AMD, c'est le problème inverse : on change rien (même GPU, mêmes unités de calcul, même bande passante mémoire) sauf le nom
 
Il nous faudrait un troisième constructeur au milieu :D

n°10130242
cartemere
Posté le 19-04-2017 à 17:12:49  profilanswer
1Votes positifs
 

crozet-magenta a écrit :

on parle quand même d'une CG qui est sortie mi 2015 vs une CG sortie il y a quelques mois... à ce compte là, la 980ti qui est le très haut de gamme Nvidia aussi est moisie puisqu'elle ne fait pas aussi bien qu'une 1070...
et perso je ne considère pas qu'une carte à 400€ est une carte moyenne gamme... la moyenne gamme c'est plutot 1060/rx480, Hdg 1070 très hdg 1080/1080ti


Elle est très bien la 980Ti : c'est le même deal qu'une RX580 toute fraiche, qui est une très bonne carte

 

[:cosmoschtroumpf]


Message édité par cartemere le 19-04-2017 à 17:13:38
n°10130243
Black_Eagl​e
Posté le 19-04-2017 à 17:13:18  profilanswer
0Votes positifs
 

Le 3ème à date c'est Intel, mais ils n'essayent pas de sortir des solutions discrètes (juste des iGPU intégré au CPU)  à moins que vous savez un compétiteur qui ferait office de 3ème.

n°10130244
Asthon
Posté le 19-04-2017 à 17:15:02  profilanswer
0Votes positifs
 

cartemere a écrit :


Il nous faudrait un troisième constructeur au milieu :D


 
Intel...
 
On sait jamais trop ce qu'on obtient comme iGPU avec chaque processeurs, les fiches techniques ne détaillent pas vraiment le nombre d'unités ou les fonctionnalités décodage/encodage/filtrage en fonction de la gamme (en tout cas je suis systématiquement obligé d'utiliser Wikipédia anglais pour avoir des info précises), il y a des collisions dans le nommage des générations (HD4000 Ivy GT2 != HD4200 Haswell GT1, HD2000 Sandy GT1 != HD2500 Ivy GT1, HD Graphics sur tout les Pentium...)
 
Finalement le troisième larron peut aussi faire le pire des deux mondes, mais en général on s'en fou vu les attentes sur ces produits ;)


Message édité par Asthon le 19-04-2017 à 17:15:54
n°10130245
cartemere
Posté le 19-04-2017 à 17:15:09  profilanswer
0Votes positifs
 

ouai, intel ne cherche pas à batailler sur ce segment (c'est dommage d'ailleurs, vu la puissance de feu d'Intel on en profiterait bien)

n°10130256
Astoe
Posté le 19-04-2017 à 17:20:28  profilanswer
0Votes positifs
 

Bien bien, un flash a été réussie avec succès,peut-être sur la RX460 ça sera plus utile par contre :o
 
https://www.techpowerup.com/232498/ [...] -to-rx-580

n°10130263
scrat51
Posté le 19-04-2017 à 17:23:07  profilanswer
0Votes positifs
 

finalement, la nouvelle 580 consomme autant que la 1080 OC, mais l'écart de performances entre les deux n'est plus que de 10 à 12%. C'est quand même une grosse amélioration par rapport à la 480 !

n°10130265
martyx
Posté le 19-04-2017 à 17:25:01  profilanswer
0Votes positifs
 

grisburt a écrit :

Marrant un bon renommage des famille bien degueulace, et personne hurle


 
Même ratio perf/prix que la série précédente. Ca reste des bonnes cartes, pas de quoi râler. Au contraire il y en a vraiment pour tous les budgets maintenant entre 180 et 300€.

n°10130270
martyx
Posté le 19-04-2017 à 17:31:51  profilanswer
0Votes positifs
 

wnorton a écrit :


 
OC une gtx 1070 après on en reparle ;-)
J'ai une EVGA 1080 oc d'usine je tourne à 1999MHz sans la oc moi même, mémoire à 5005 MHz ;-) , elles ont du potentiels aux derrières la série 1000


 
Va trouver une 1070 à 280€, on en reparlera ;)
Non plus sérieusement c'est pas la même génération, on peut trouver des Fury à 250-280€ depuis moins de 6 mois. Niveau perf/prix, c'est imbattable. Après c'est du 28nm, ça a des inconvénients comparé à du 14/16nm.

Message cité 1 fois
Message édité par martyx le 19-04-2017 à 17:35:44
n°10130272
martyx
Posté le 19-04-2017 à 17:35:23  profilanswer
0Votes positifs
 

Bouvman a écrit :

une RX580 stock consomme autant qu'une 1080 OC...


 
C'est difficile à calculer vu que les deux cartes n'ont pas les mêmes perf mais c'est tout à fait instrumentalisé de mettre en avant l'aspect "vert" des CG. 30,40 ou 50 watts de différences entre deux cartes ce n'est rien comparé à la consommation de toute une habitation et surtout vu la différence de prix entre Nvidia et AMD. (Je parle de 50w entre 480 et 1060 par exemple)

n°10130274
albatar197​6
Posté le 19-04-2017 à 17:37:02  profilanswer
1Votes positifs
 

damien440 a écrit :

Donc pour info, le moyen de gamme aujourd'hui c'est 1080p60ips.  
Si vous avez mieux c'est au dessus de moyen de gamme, si c'est en dessous c'est bas de gamme.  
Basta, pas de prise de tête sur kikalaplugroce.


 
Pour info, une 1070 peut avoir du mal TAF même sur des jeux de 2017 (Ryse son of rome par exemple) en 1080p  :jap:  
 

scrat51 a écrit :

finalement, la nouvelle 580 consomme autant que la 1080 OC, mais l'écart de performances entre les deux n'est plus que de 10 à 12%. C'est quand même une grosse amélioration par rapport à la 480 !


 
10/12% de différence avec une 1080oc ?  :??:  Tu veux dire que la rx580 est supérieure à une 1070 ?  [:lebowsky]


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°10130275
HashBoost
Posté le 19-04-2017 à 17:37:04  profilanswer
0Votes positifs
 

lapin a écrit :

ben non car les WATTS on s'en fout ou alors on arrête de jouer au jeux vidéo


Tu n'as absolument rien compris. Si demain NVidia décide de faire un GPU qui bouffe 350W, il sera bien au dessus de la GTX 1080 Ti (300W). Aujourd'hui, c'est un des facteurs limitant pour la puissance des GPU. Tu ne peux pas comparer une carte d'il y a 2 ans qui n'en a rien a faire et a décider de bouffer tout ce qu'elle veut avec une autre qui essaye de se tenir aux 150W annoncée. C'est en cela que ta comparaison est sans aucun sens.

n°10130276
albatar197​6
Posté le 19-04-2017 à 17:39:15  profilanswer
0Votes positifs
 

martyx a écrit :


 
Va trouver une 1070 à 280€, on en reparlera ;)
Non plus sérieusement c'est pas la même génération, on peut trouver des Fury à 250-280€ depuis moins de 6 mois. Niveau perf/prix, c'est imbattable. Après c'est du 28nm, ça a des inconvénients comparé à du 14/16nm.


 
Oui mais non.
 
J'ai étudié la possibilité de prendre une fury x... Ca coinçait au niveau de l'alimentation. Donc j'ai pris une 1070 à 380€ fin août  :pt1cable:


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°10130280
Flibidi
Oui.
Posté le 19-04-2017 à 17:43:45  profilanswer
0Votes positifs
 

Franchement, la présence d'une Fury compenserait mon absence de chauffage, et ce n'est pas un problème.
 
Il me semblait que Vega arrivait fin Mai, et je parie sur petit gpu air/gros gpu air/gros gpu WC/Bi-Gpu. Il n'y a que ce dernier pour dépasser la 1080Ti... J'espère me planter!

n°10130297
samurai80
Posté le 19-04-2017 à 18:06:52  profilanswer
2Votes positifs
 

HashBoost a écrit :


Tu n'as absolument rien compris. Si demain NVidia décide de faire un GPU qui bouffe 350W, il sera bien au dessus de la GTX 1080 Ti (300W). Aujourd'hui, c'est un des facteurs limitant pour la puissance des GPU. Tu ne peux pas comparer une carte d'il y a 2 ans qui n'en a rien a faire et a décider de bouffer tout ce qu'elle veut avec une autre qui essaye de se tenir aux 150W annoncée. C'est en cela que ta comparaison est sans aucun sens.


C'est exactement ce que j'ai dit dans mon post. Bizarrement personne n'y a reagi.

n°10130298
samurai80
Posté le 19-04-2017 à 18:07:49  profilanswer
0Votes positifs
 

Flibidi a écrit :

Franchement, la présence d'une Fury compenserait mon absence de chauffage, et ce n'est pas un problème.
 
Il me semblait que Vega arrivait fin Mai, et je parie sur petit gpu air/gros gpu air/gros gpu WC/Bi-Gpu. Il n'y a que ce dernier pour dépasser la 1080Ti... J'espère me planter!


Fin juin. Et selon les rumeurs le nouveau GPU nvidia Volta arriverait Q3 donc sept.

n°10130310
drynek
Posté le 19-04-2017 à 18:30:05  profilanswer
0Votes positifs
 

Pascal refresh c'est bien plus probable, volta j'y croit pas avant 2018, ils vont pas lancer le 12nm en 2017 alors meme que pascal n'a as encore  était exploité correctement, et ça m'ettonerais que tsmc soit prêt pour une prod de masse ou alors ça voudrait dire que volta a été finalisé déjà ça me semble improbable que NVIDIA est travaillé sur deux archi en parallèle  :heink:  
Mais Vega a intérêt a envoyé le pâté si c'est le cas ou alors a un très bon prix sinon c'est mort né

n°10130311
casti9l
Posté le 19-04-2017 à 18:30:56  profilanswer
0Votes positifs
 

Par contre votre dossier sur les deux cartes ça arrive quand ?

n°10130320
Asthon
Posté le 19-04-2017 à 18:39:16  profilanswer
0Votes positifs
 

drynek a écrit :

Pascal refresh c'est bien plus probable, volta j'y croit pas avant 2018, ils vont pas lancer le 12nm en 2017 alors meme que pascal n'a as encore  était exploité correctement, et ça m'ettonerais que tsmc soit prêt pour une prod de masse ou alors ça voudrait dire que volta a été finalisé déjà ça me semble improbable que NVIDIA est travaillé sur deux archi en parallèle  :heink:  
Mais Vega a intérêt a envoyé le pâté si c'est le cas ou alors a un très bon prix sinon c'est mort né


 
Y a une rumeur à propos d'une Geforce 1030 ou 1040 aussi (j'ose pas mettre GTX...) Maxwell avait été inauguré avec la GTX 750 ça serait pas un mauvais calcul de se faire la main sur une puce minuscule avec un nouveau process.
 
Ils ont peut être une grosse demande d'OEM pour mettre des stickers "GTX" sur les machines, tout comme la RX 550 présentée avec cette nouvelle série permettra de marketter sur "RX 500" !
 
Enfin voilà les rumeurs c'est pas hyper riche en information :o


Message édité par Asthon le 19-04-2017 à 18:39:59
n°10130369
alpa
Posté le 19-04-2017 à 19:38:19  profilanswer
0Votes positifs
 

casti9l a écrit :

Par contre votre dossier sur les deux cartes ça arrive quand ?


 
Oui le test HFR c'est pour quand ?

n°10130410
cartemere
Posté le 19-04-2017 à 20:31:15  profilanswer
0Votes positifs
 

albatar1976 a écrit :


Pour info, une 1070 peut avoir du mal TAF même sur des jeux de 2017 (Ryse son of rome par exemple) en 1080p  :jap:  


+1 :jap:
 

albatar1976 a écrit :


 
10/12% de différence avec une 1080oc ?  :??:  Tu veux dire que la rx580 est supérieure à une 1070 ?  [:lebowsky]


il doit parler de la 980 OC... conso similaire, perfs similaires...
 
et la 980 est une bonne carte.
la RX580 est donc une bonne carte également  :jap:

n°10130412
albatar197​6
Posté le 19-04-2017 à 20:39:12  profilanswer
0Votes positifs
 

Merci de m'avoir quoté ça m'a permis de voir la coquille.
 
Ryse: son of rome c'est 2014 et pas 2017  [:ruxx]


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°10130562
Boulou
Wingfoil
Posté le 20-04-2017 à 07:22:41  profilanswer
0Votes positifs
 

et si l'on compare aux 290 et 290X ça donne quoi ? :)

n°10130610
despe1990
Posté le 20-04-2017 à 09:44:54  profilanswer
1Votes positifs
 

Toujours pas de test? HFR a mis en évidence un comportement particulier sur ces GPUs? AMD va finir par devoir vous rémunérer :)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10

Aller à :
Ajouter une réponse
 

Sujets relatifs
Crate graphique gtx 580 sli windows 10New CFG AMD AM4 Freeze
[HFR] Actu : Chipset Intel 300 : USB 3.1 et Wi-Fi 802.11acAvis annonce lbc
Question upgrad PC ( processeur AMD )[HFR] Focus : Influence du nombre de coeurs et du SMT sur Ryzen
[HFR] Actu : GTX 1070 simple slot pour Galax / KFA²Solidarité HFR :D besoin de vos modèles de bios et carte-mere
Plus de sujets relatifs à : [HFR] Actu : AMD annonce les Radeon RX 580, 570, 560 et 550


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)