Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
542 connectés 

 

 

Vous avez :




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  45  46  47  ..  399  400  401  402  403  404
Auteur Sujet :

[Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)

n°9441294
chriskenob​y
Que la force soit avec vous
Posté le 13-03-2015 à 20:56:17  profilanswer
 

Reprise du message précédent :
autre question si le gpu n'est qu'une "petite" évolution a Hawaii, pourquoi un bus aussi important, les 290x avec 8 go c'est pas non plus la panacée..........non :??:


---------------
Les créateurs de l'Electro, c'est eux KRAFTWERK http://www.kraftwerk.com/concerts/ [...] _robo.html - Mes Cartes https://drive.google.com/drive/fold [...] 0-vZPkdfoi
mood
Publicité
Posté le 13-03-2015 à 20:56:17  profilanswer
 

n°9441303
Gigathlon
Quad-neurones natif
Posté le 13-03-2015 à 21:06:13  profilanswer
 

Car on ne sait rien (en tout cas la plupart de nous autres mortels)... 4x HBM ou GDDR5 512bits, pour l'instant rien n'est certain.


Message édité par Gigathlon le 13-03-2015 à 21:07:12
n°9441310
mazingerz
Posté le 13-03-2015 à 21:17:05  profilanswer
 

Gigathlon a écrit :


Plus facile de redesign une pile de DRAM dont l'évolution au fil du temps le prévoyait qu'un GPU ceci dit, surtout qu'on a bien du mal à savoir où ils en sont chez Hynix :o
 
Après, faudrait se pencher sur les specs des I/O de la HBM pour voir si elle pourrait être utilisée comme de la RAM classique (partage du bus entre plusieurs chips/piles), mais là aussi la HBM étant conçue pour avoir une proximité physique définie ça semble assez peu probable, surtout que déjà la GDDR5 était très limitée de ce point de vue (il me semble bien avoir vu 2 chips en parallèle + clamshell... sur le GF100?), donc ça voudrait dire tout revoir.
 
 
Sinon,  dans un tout autre registre, il y a la rumeur qui semble avoir été lancée par les potes à Fuad d'un accord Mediatek/AMD sur les GPU, on peut se demander si il y a réellement des infos derrière, mais ça pourrait indiquer un travail dans le bon sens (la rumeur elle-même si elle a ne serait-ce que le début d'un fondement, et l'accord si il existe, évidemment... avec une "annonce officielle à attendre d'ici environ 15 mois" par contre, ça donne pas confiance :D). Ceci dit, j'imagine bien le foutoir avec Qualcomm qui me fait aussi dire que la rumeur n'est que ça...


 
c'est qui mediatek?

n°9441323
Gigathlon
Quad-neurones natif
Posté le 13-03-2015 à 21:32:05  profilanswer
 

mazingerz a écrit :

c'est qui mediatek?


Concepteur de SoC ARM pour smartphones/tablettes/TV, enfin... si on peut appeler l'assemblage façon Lego de blocs faits pour s'imbriquer de la conception.

n°9441439
synefil
Enjoy life
Posté le 14-03-2015 à 04:22:08  profilanswer
 

Corleone_68 a écrit :

Perso la 390 je la vois plus comme une 4890 à l'époque. Donc un petit gap de quelques pourcent en plus, 4Go et 8 Go de GDDR 5, même conso qu'avant mais un peu plus perf, et un refroidissement liquide pour ne pas recommencer comme la 290. Mélanger le tout et on arrive à un tarif légèrement inférieur à une 980.
 
Voila ma boule de cristal à 2 cts :O


 
Une 980 qui consomme plus, qui chauffe plus et qui serait quasiment au même prix, ils comptent en vendre beaucoup ?
À part les fanboys…  :whistle:

n°9441505
Activation
21:9 kill Surround Gaming
Posté le 14-03-2015 à 10:43:49  profilanswer
 

Le pb avec l'archi GCN c'est que 'hardware' parlant elle reste trop sur une archi VLIW4 de la hd6870 par ex
Partant de là pas simple de faire de l'opti de transistor comme le fait nvidia depuis son g80
GCN pour moi c'est trop 'niveau drivers' bref software
 
Après on peut voir ça d'un autre coté, l'archi amd jusqu'à maintenant est très principe 'Shader unifié' apparu avec dx10 chez MS
Problème c'est du gachi de transistor car on aura jamais à l'instant 't' un même besoin en compute, en 'pixel' etc...
 
Pour ça qu'en gpgpu massif AMD s'en sort très bien en usage pro
Pb pour le marché grand public, le gpgpu c'est depuis les 8800gtx et hd2900 qu'on nous en cause, mais dans les faits sorti de qqs opti dans nos navigateur web ou qqs opti dans nos soft de montage video, bof quoi
 
À voir si la série 3xx sera un changement plus radical de l'archi, mais j'y crois pas trop, c'est pas pour rien si depuis plusieurs gen amd à avant tout taffé sur les caches et tout ce qui entoure 'les unité' de calcul
Histoire qu'elles ne choment jamais
 
Je trouve que nvidia est plus enclin à augmenter ses unité de calcul fréquemment mais de façon réfléchi "qu'est ce que va être son taff"
 
Enfin ça c'est MA vision, je peux me planter
Et puis bon amd et nvidia on pas forcément le même budget r&d
Qui plus est nvidia part en général sur des gpus qui sont plus souvent pour une double vie par rapport à ceux amd
 
La amd qui m'aura le plus agreablement surpris ses dernières années ça aura été la 7970, mais j'y ai préféré la gtx670 plus econome en watts (et le r9 290 a accentué ce défaut sur l'aspect efficience)
Mais surtout je conserve cette image qu'à chaque fois que j'ai acheté une nouvelle amd dayone, on a (avait ? ) du attendre 6mois que les drivers tienne promesses
Les début merdique du eyefinity, récent encore l'application réel du freesync
Les début calamiteux du displayport sur hd58xx
L'an dernier amd qui parle du dockport.  
Grande question les serie 3xx seront t'elle dockport compatible (genre je fout un boitier dockport au cul de ma 3xx est ce que j'ai des port usb dans la foulé)
 
AMD veut innover qqs fois, pb entre le moment ou amd t'en parle (et que c'est pas pret du tout) et le moment ou ça marche  :heink:
 
Pareil premier sur l'histoire du powertune (opti conso) et encore maintenant semble tellement mal utilisé
 
Maintenant là les 3xx ont le potentiel pour jeter aux orties le principe de fonctionnement merdique du sli ou crossfire actuel et ceux avec ptet 8mois d'avance face à nvidia qui ne le fera que sur archi pascal
 
J'espere que le soft/pilote va pas encore tout gaché avec 6 mois de retard face au hard
Sinon ça sert à rien de sorti la carte 8mois avant le concurrent
 
C'est un bundle, c'est pas à l'acheteur final d'être le beta testeur du soft
T'imagine ford vendre une bagnole full ecran tactile et quand tu vient la prendre en concession après achat le vendeur te filer les clefs sans contact et te dire 'vous nous direz si les compteur s'affiche tout le temps, et si les clef sont toujours détecté' (putain le jour ou les voiture qui se conduisent toute seule dans les rues, dès les premiers qui vont vouloir "bidouiller" l'ordi de bord  :whistle: )

Message cité 1 fois
Message édité par Activation le 14-03-2015 à 11:37:32
n°9441509
lapin
Posté le 14-03-2015 à 11:02:24  profilanswer
 

Activation a écrit :

Le pb avec l'archi GCN c'est que 'hardware' parlant elle reste trop sur une archi VLIW4 de la hd6870 par ex
Partant de là pas simple de faire de l'opti de transistor comme le fait nvidia depuis son g80
GCN pour moi c'est trop 'niveau drivers' bref software
 
Après on peut voir ça d'un autre coté, l'archi amd jusqu'à maintenant est très principe 'Shader unifié' apparu avec dx10 chez MS
Problème c'est du gachi de transistor car on aura jamais à l'instant 't' un même besoin en compute, en 'pixel' etc...
 
Pour ça qu'en gpgpu massif AMD s'en sort très bien en usage pro
Pb pour le marché grand public, le gpgpu c'est depuis les 8800gtx et hd2900 qu'on nous en cause, mais dans les faits sorti de qqs opti dans nos navigateur web ou qqs opti dans nos soft de montage video, bof quoi
 
À voir si la série 3xx sera un changement plus radical de l'archi, mais j'y crois pas trop, c'est pas pour rien si depuis plusieurs gen amd à avant tout taffé sur les caches et tout ce qui entoure 'les unité' de calcul
Histoire qu'elles ne choment jamais
 
Je trouve que nvidia est plus enclin à augmenter ses unité de calcul fréquemment mais de façon réfléchi "qu'est ce que va être son taff"
 
Enfin ça c'est MA vision, je peux me planter
Et puis bon amd et nvidia on pas forcément le même budget r&d
Qui plus est nvidia part en général sur des gpus qui sont plus souvent pour une double vie par rapport à ceux amd
 
La amd qui m'aura le plus agreablement surpris ses dernières années ça aura été la 7970, mais j'y ai préféré la gtx670 plus econome en watts (et le r9 290 a accentué ce défaut sur l'aspect efficience)
Mais surtout je conserve cette image qu'à chaque fois que j'ai acheté une nouvelle amd dayone, on a (avait ? ) du attendre 6mois que les drivers tienne promesses
Les début merdique du eyefinity, récent encore l'application réel du freesync
Les début calamiteux du displayport sur hd58xx
L'an dernier amd qui parle du dockport.  
Grande question les serie 3xx seront t'elle dockport compatible (genre je fout un boitier dockport au cul de ma 3xx est ce que j'ai des port usb dans la foulé)
 
AMD veut innover qqs fois, pb entre le moment ou amd t'en parle (et que c'est pas pret du tout) et le moment ou ça marche  :heink:
 
Pareil premier sur l'histoire du powertune (opti conso) et encore maintenant semble tellement mal utilisé


 
il me semble que GCN est SCALAIR comme les GEFORCE et à partir des 7890 les GPU AMD n'utilise plus du tout VLIW, mais une architecture RISK.
 
 
http://www.hardware.fr/articles/84 [...] -vliw.html
 

Citation :


GCN : l'abandon du VLIW
Depuis les Radeon 9700 Pro, AMD utilise une architecture VLIW, qui a évolué progressivement pour atteindre un niveau de flexibilité très élevé sur les dernières générations. VLIW, ou Very Long Instruction Word, consiste à exécuter des instructions complexes, qui sont en réalité l'assemblage d'une série d'instructions plus simples. C'est ce que nous décrivions comme comportement vectoriel pour les Radeon (vec4 ou vec5), en opposition au comportement scalaire des GeForce : pour chaque pixel, par exemple, 5 instructions pouvaient être exécutées de front. Un modèle issu de l'évolution naturelle des GPU dont la tâche de base consiste à calculer des couleurs (4 composantes : rouge, vert, bleu et transparence) et des coordonnées (3 ou 4 composantes). Exécuter 5 instructions de front permettait de profiter du parallélisme naturel entre ces composantes en laissant un peu de place pour les quelques opérations scalaires à traiter.
 
Cypress, le GPU d'une Radeon HD 5800, embarque des CU qui contiennent chacun une grosse unité de calcul SIMD capable d'exécuter chaque cycle 5 instructions de front sur 16 éléments (pixels, vertices, threads…). Avec Cayman, le GPU des Radeon HD 6900, AMD a simplifié quelque peu ce modèle pour revenir à une unité SIMD plus efficace qui exécute 4 instructions de front, toujours sur 16 éléments. Pour Tahiti et les autres GPU GCN, cette grosse unité est éclatée et devient 4 petites unités SIMD chacune capables d'exécuter une instruction sur 16 éléments.


 

Citation :

En réalité la grosse unité SIMD de Cayman et les 4 petites unités SIMD de Tahiti sont probablement identiques, seule la manière de les alimenter étant réellement différente. Du côté des Radeon, tous les éléments à traiter sont organisés en groupes de 64, appelés wavefront. Des groupes qui sont plus gros que la longueur des unités SIMD (16) pour simplifier le travail des schedulers et s'accomoder plus facilement de la latence des unités de calcul.
 
Dans le cas de Cayman, un de ces groupes sera donc traité en 4 cycles avec jusqu'à 4 instructions en parallèle. Pour Tahiti, c'est une seule instruction mais sur 4 wavefronts qui sera traitée tous les 4 cycles. Tahiti doit donc pouvoir jongler avec beaucoup plus d'éléments en même temps : au moins 256. Un chiffre à comparer à 128 et non 64 pour Cayman : avec une latence de 8 cycles pour les unités de calcul, chaque CU de Cayman doit jongler en permanence avec 2 wavefronts. Avec Tahiti et GCN AMD a ramené la latence des unités de calcul à 4 cycles pour éviter de faire exploser le nombre d'éléments en vol requis pour utiliser toutes les unités de calcul. Ils sont au final doublés, ce qui reste raisonnable.


 

Citation :

Notez enfin une petite subtilité : si Cayman peut exécuter directement une instruction sur toutes ses unités de calcul, ce n'est pas le cas pour Tahiti. Le scheduler présent dans chaque CU peut ordonner l'exécution d'une instruction à une seule SIMD par cycle. Au démarrage, la seconde SIMD perd ainsi 1 cycle, la troisième 2 cycles et la quatrième 3 cycles, ce qui représente une perte de 192 flops. Un chiffre qui est cependant négligeable lorsque les programmes à exécuter sont longs et qui est compensé par la latence plus faible.  
 
En pratique, quelle différence ? Voici quelques exemples, comparant l'architecture VLIW 4 des Radeon HD 6900 (8 cycles de latence, vec4) à l'architecture GCN des Radeon HD 7900 (4 cycles de latence + 3 cycles de "démarrage", scalaire), en supposant que chaque CU est alimenté avec 2 / 4 / 8 groupes de 64 éléments à traiter :
 
1 instruction scalaire à exécuter :
CU VLIW 4 : 16 / 24 / 40 cycles
CU GCN : 11 / 11 / 15 cycles
 
100 instructions scalaires à exécuter :
CU VLIW 4 : 408 / 808 / 1608 cycles
CU GCN : 207 / 207 / 407 cycles
 
1 instruction vec3 à exécuter :
CU VLIW 4 : 16 / 24 / 40 cycles
CU GCN : 19 / 19 / 31 cycles
 
100 instructions vec3 à exécuter :
CU VLIW 4 : 408 / 808 / 1608 cycles
CU GCN : 607 / 607 / 1207 cycles
 
1 instruction vec4 à exécuter :
CU VLIW 4 : 16 / 24 / 40 cycles
CU GCN : 23 / 23 / 39 cycles
 
100 instructions vec4 à exécuter :
CU VLIW 4 : 408 / 808 / 1608 cycles
CU GCN : 807 / 807 / 1607 cycles
 
Lorsque les CU de l'architecture GCN sont alimentés avec au moins 256 éléments ils sont ainsi toujours plus performants que les CU VLIW 4, avec une différence insignifiante lorsque 4 instructions peuvent être traitées en parallèle mais qui peut monter à près de 4x avec des instructions scalaires exécutées en série ! Lors du rendu 3D nous nous situons en moyenne quelque part entre les résultats en vec3 et vec4. Il faut dire que le compilateur d'AMD est particulièrement performant pour extraire ce parallélisme compte tenu de l'expérience acquise depuis toutes ces années. Sous-alimentée en éléments à traiter, les CU GCN peuvent par contre être moins performantes.


 
 
le passage au scalaire et l’abandon de VLIW u profit du RISC c'est tout la raison de l'architecture GCN 1.0 et suivantes...


Message édité par lapin le 14-03-2015 à 11:13:13
n°9441518
Corleone_6​8
Posté le 14-03-2015 à 11:15:35  profilanswer
 

synefil a écrit :


 
Une 980 qui consomme plus, qui chauffe plus et qui serait quasiment au même prix, ils comptent en vendre beaucoup ?
À part les fanboys…  :whistle:


 
T'en fais pas pour ca, il suffit que ca soit plus perf et ca ce vendra, la conso c'est juste une justification d'achat à prix élevé quand ca arrange certains. Plus perf, moins cher, plus silencieux (dans le cas d'un AIO) et la consommation passera au second plan c'est juste un effet de mode.


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9441525
kickvegeta
Vieux et jeune en même temps
Posté le 14-03-2015 à 11:22:27  profilanswer
 

Corleone_68 a écrit :


 
T'en fais pas pour ca, il suffit que ca soit plus perf et ca ce vendra, la conso c'est juste une justification d'achat à prix élevé quand ca arrange certains. Plus perf, moins cher, plus silencieux (dans le cas d'un AIO) et la consommation passera au second plan c'est juste un effet de mode.


 
 
 
Il s'en fout , au vu de son message ils comptent pas acheter ...Il nous traite de fanboy,rabaisse la carte au niveau d'une 980, alors que nul ne sais ce qu'elle vaut, moi j'ai envie de lui répondre d'acheter une 970 à 400 € avec de la mémoire amputé c'est pas être fan boy ça ?
 
Heureusement que les promos sont la ^^
 
Corleone à raison tout ça n'est que marketing, mais avant de critiquer il serait peut être bien de critiquer sur des spécifications connus :)  

n°9441537
Activation
21:9 kill Surround Gaming
Posté le 14-03-2015 à 11:41:02  profilanswer
 

Dans les fait est ce vraiment une archi scalaire gcn,  
Si tu regarde ça coté soft/pilote .... La gestion ça oui ok
Si tu regarde ça coté hard j'en ai jamais été convaincu :sweat:  
 
Quand tu regarde les articles de hfr et les image 'vu de principe' ça saute vraiment pas aux yeux
Toujours l'impression de voir un VILW4
 
Regroupé certe en un plus grand nombre 'd'engine shader'
Mais le doute persiste dans ma caboche :D
J'ai toujours l'impression que ça reste les 4 vieilles unité vectorielle en bout de chaine


Message édité par Activation le 14-03-2015 à 11:49:29
mood
Publicité
Posté le 14-03-2015 à 11:41:02  profilanswer
 

n°9441543
chriskenob​y
Que la force soit avec vous
Posté le 14-03-2015 à 11:50:53  profilanswer
 

http://www.gamestar.de/hardware/gr [...] 83826.html
 
 ;)


Message édité par chriskenoby le 14-03-2015 à 11:53:35

---------------
Les créateurs de l'Electro, c'est eux KRAFTWERK http://www.kraftwerk.com/concerts/ [...] _robo.html - Mes Cartes https://drive.google.com/drive/fold [...] 0-vZPkdfoi
n°9441545
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 14-03-2015 à 11:53:46  profilanswer
 

Cool la "news" de Fudzilla déjà postée ici mais en allemand :o

Message cité 2 fois
Message édité par Marc le 14-03-2015 à 11:53:55
n°9441546
chriskenob​y
Que la force soit avec vous
Posté le 14-03-2015 à 11:54:48  profilanswer
 

Marc a écrit :

Cool la "news" de Fudzilla déjà postée ici mais en allemand :o


 
 
désolé pas vu  :jap:


---------------
Les créateurs de l'Electro, c'est eux KRAFTWERK http://www.kraftwerk.com/concerts/ [...] _robo.html - Mes Cartes https://drive.google.com/drive/fold [...] 0-vZPkdfoi
n°9441627
Gigathlon
Quad-neurones natif
Posté le 14-03-2015 à 12:59:46  profilanswer
 

Marc a écrit :

Cool la "news" de Fudzilla déjà postée ici mais en allemand :o


Chez Fuzzytralala y'avait pas une démo de l'époque du R520 en stéréo pour illustrer ceci dit :love:  
 
Par contre, je me demande si il n'y a pas une vraie info à l'origine, même pas transmise car pas vraiment génératrice de clics, le fait que la plus vieille occurrence soit là-bas n'incite pas à la confiance mais sait-on jamais...

n°9441940
aresias
Posté le 14-03-2015 à 23:21:11  profilanswer
 
n°9441943
kickvegeta
Vieux et jeune en même temps
Posté le 14-03-2015 à 23:25:42  profilanswer
 

Mouhahaha laissez moi rêver !!

n°9441946
mum1989
Posté le 14-03-2015 à 23:28:48  profilanswer
 

ça parait un peu gros, juste un jour avant la Titarnaque X

n°9441947
kickvegeta
Vieux et jeune en même temps
Posté le 14-03-2015 à 23:29:21  profilanswer
 

Tiens dans la rumeurs ceci devrait plaire :
 
http://wccftech.com/amd-r9-390x-nv [...] enchmarks/

n°9441948
Gigathlon
Quad-neurones natif
Posté le 14-03-2015 à 23:29:27  profilanswer
 

Eh bah v'la que VideocardZ nous "leak" ce qui proviendrait d'une présentation aux AiB rédigée pour lundi...
 
A prendre avec des pincettes serrées par un homard fermement maintenu par une benne preneuse (mais pas trop histoire de pas le couper en 2 hein!), ça confirmerait toutes les rumeurs de la plus vieille (WC, 64CU...) à la plus récente sur les 8Go de HBM, avec mention d'un support intégral de DirectX12 tier3 qui pourrait être le truc à creuser (ça pourrait prouver un fake... ou pas).

n°9441950
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 14-03-2015 à 23:33:28  profilanswer
 

Mais non voyons c'est un PDF cette fois alors c'est crédible  [:basongwe:2]

n°9441952
lapin
Posté le 14-03-2015 à 23:34:42  profilanswer
 

si c'est vrai c'est juste énorme 8 GBytes HBM et 4096 Shader Units, maintenant faut attendre et voir.

n°9441955
aresias
Posté le 14-03-2015 à 23:36:21  profilanswer
 

Marc a écrit :

Mais non voyons c'est un PDF cette fois alors c'est crédible  [:basongwe:2]


 
j'avoue que ça m'a fait sourire aussi quand j'ai lu ça. Enfin bon on a pas fini d'en voir des rumeurs sur cette carte !


Message édité par aresias le 14-03-2015 à 23:36:53
n°9441956
ol1v1er
Posté le 14-03-2015 à 23:36:30  profilanswer
 

Ce serait si bon de voir AMD mettre la fessée à Nvidia, même si c'est juste pour 6 mois :o

n°9441957
kickvegeta
Vieux et jeune en même temps
Posté le 14-03-2015 à 23:37:50  profilanswer
 

ol1v1er a écrit :

Ce serait si bon de voir AMD mettre la fessée à Nvidia, même si c'est juste pour 6 mois :o


 
 
Il l'ont déjà mis hein,ça ne serait pas une nouveauté :)

n°9441960
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 14-03-2015 à 23:40:10  profilanswer
 

Il n'a pas dit le contraire, hein :o


Message édité par Marc le 14-03-2015 à 23:40:25
n°9441962
kickvegeta
Vieux et jeune en même temps
Posté le 14-03-2015 à 23:41:14  profilanswer
 

Pas faux mais bon j'anticipe , Marc t'as regardé les benchs  ?

n°9441963
lapin
Posté le 14-03-2015 à 23:41:18  profilanswer
 

tu veux parler des Radeon 9700 XT et Radeon 9800 XT, c'est vrai que ça à fait mal à Nvidia et je ne parle même pas des Radeon HD 4890 et les suivantes en 5890.

n°9441970
havoc_28
Posté le 14-03-2015 à 23:45:58  profilanswer
 

lapin a écrit :

tu veux parler des Radeon 9700 XT Pro et Radeon 9800 PRO/XT, c'est vrai que ça à fait mal à Nvidia et je ne parle même pas des Radeon HD4870 puis HD 4890 et les suivantes en 5890 HD 5870.


 
 [:aloy]


Message édité par havoc_28 le 14-03-2015 à 23:51:06
n°9442001
synefil
Enjoy life
Posté le 15-03-2015 à 02:11:59  profilanswer
 

Corleone_68 a écrit :


 
T'en fais pas pour ca, il suffit que ca soit plus perf et ca ce vendra, la conso c'est juste une justification d'achat à prix élevé quand ca arrange certains. Plus perf, moins cher, plus silencieux (dans le cas d'un AIO) et la consommation passera au second plan c'est juste un effet de mode.


 
 
Bien sûr que l'ado qui veut la plus grosse, il se fiche de la conso ! D'une part il ne paye pas la facture d'électricité, d'autre part, il a une grosse tour dans sa chambre (ou au milieu du salon si c'est un jeune adulte ou un étudiant)!
 
Les ados sont prescripteurs d'achat mais j'ose croire qu'AMD et nVidia gagnent des sous avec les adultes qui, eux, payent la facture d'électricité, sont éco-responsables et optent de plus en plus pour des tours réduites, voire des boitiers HTPC.
Le format ITX ça te parle ? Le µATX ? Quelle est leur progression dans le montage d'un PC aujourd'hui par rapport au format ATX ?
Avant c'était simple, si tu avais une grosse tour, c'était une config puissante et si tu avais un boitier rikiki, c'était du chipset intégré et donc un truc genre Mac mini.
Aujourd'hui on fait des config puissantes, voire très puissantes, dans des boitiers réduits.
Mon boitier fait 24x36x21cm et j'ai 16 coeurs (32T) et une GTX970.
Avec une alimentation passive, je suis limité à 500 W en puissance.
Avec un si faible volume je suis limité en circulation d'air et en longueur de carte graphique.
 
Je ne suis pas une exception, de plus en plus de gamers choisissent du ITX ou du µATX.
Asrock vient de sortir une carte mère X99 en ITX. Il faudra y coller une carte graphique (et une seule) de dimension réduite, chauffant peu et consommant peu (car les alimentations SFX n'ont pas encore la puissance des alimentations ATX).
 ;)  
 
Je me fiche de la marque, je ne suis pas un fanboy, je veux juste une carte qui fasse moins de 270mm, qui consomme moins de 220W, qui a une fonctionnement semi-passif (totalement silencieuse quand je regarde un film par exemple), qui envoie du bois quand je joue à GTA en 4K (donc un peu plus puissante qu'une GTX980) et qui coûte dans les 500 600 € (ce qui est déjà un budget conséquent).
Un espoir chez AMD? Une R9 390 pourrait bien être tout cela (ou pas).  
La 390X avec refroidissement AIO est un flagship avec 3840 SPU minimum (quasiment le double d'une GTX980), top pour le minage de bitcoins mais pas pour un mini boitier :D  
Il me reste l'espoir d'une 980ti au PCB court mais le tarif dépassera mon budget.  
Donc je prie pour qu'AMD se sorte le doigts…

Message cité 1 fois
Message édité par synefil le 15-03-2015 à 02:57:02
n°9442003
aliss
Rhyme the Rhyme Well
Posté le 15-03-2015 à 02:24:43  profilanswer
 

Tu n'auras rien de plus puissant qu'une 980 pour une telle conso, ni chez l'un, ni chez l'autre, en tout cas pas avant le 16nm.

n°9442007
synefil
Enjoy life
Posté le 15-03-2015 à 03:00:33  profilanswer
 

aliss a écrit :

Tu n'auras rien de plus puissant qu'une 980 pour une telle conso, ni chez l'un, ni chez l'autre, en tout cas pas avant le 16nm.


 
Une 980 consomme environ 165W ?
Je préfère une R9 390 qui consommerait 210W… avec 20% de performances en plus et 20% moins chère  :D  

n°9442008
vincesud31
Posté le 15-03-2015 à 03:08:05  profilanswer
 

synefil a écrit :


 
Une 980 consomme environ 165W ?
Je préfère une R9 390 qui consommerait 210W… avec 20% de performances en plus et 20% moins chère  :D  


 
+1  :bounce:  :jap:


---------------
Nvidia/AMD/Intel reste Neutre la performance qui compte / le prix
n°9442014
dave76
A momentary lapse of reason
Posté le 15-03-2015 à 05:55:48  profilanswer
 

synefil a écrit :

 

Une 980 consomme environ 165W ?
Je préfère une R9 390 qui consommerait 210W… avec 20% de performances en plus et 20% moins chère  :D

 

Moi ce que je retiens le plus et l'on est passé à coté du sujet plusieurs fois, c'est le type de refroidissement ( pour la 390(x) en tout cas )! Personnellement avoir une carte sous water ( et je parle même pas du bordel si on veut faire un cross ), c'est déjà le bruit en Idle et surtout la place que ça prend, je peux comprendre certains Geeks qui ont un certain type de tour qui s'y prête mais je m'y vois absolument pas après mon coté parano me dirait qu'encore une fois qu'AMD a de la misère à réduire le tdp de leur GPU et SEUL le water est leur salut pour avoir une certaine efficience!

Message cité 1 fois
Message édité par dave76 le 16-03-2015 à 04:59:09

---------------
Celui qui donne ne doit jamais s'en souvenir, celui qui reçoit ne doit jamais l'oublier!
n°9442026
aliss
Rhyme the Rhyme Well
Posté le 15-03-2015 à 08:39:00  profilanswer
 

synefil a écrit :


 
Une 980 consomme environ 165W ?
Je préfère une R9 390 qui consommerait 210W… avec 20% de performances en plus et 20% moins chère  :D  


 
Ca n'aurait pas de sens un grand écart de 100w entre les 2 variantes de Fiji.
 
C'est pas un peu moins de tmu's/sp et une fréquence gpu en retrait qui pourraient provoquer un tel écart.
 
 
 

n°9442027
sasuke87
Posté le 15-03-2015 à 08:41:30  profilanswer
 

lapin a écrit :

tu veux parler des Radeon 9700 XT et Radeon 9800 XT, c'est vrai que ça à fait mal à Nvidia et je ne parle même pas des Radeon HD 4890 et les suivantes en 5890.

De la 9700pro à la x1950xt en mono gpu AMD était toujours devant (mais c'était parfois très serré).

n°9442031
synefil
Enjoy life
Posté le 15-03-2015 à 08:59:01  profilanswer
 

aliss a écrit :


 
Ca n'aurait pas de sens un grand écart de 100w entre les 2 variantes de Fiji.
 
C'est pas un peu moins de tmu's/sp et une fréquence gpu en retrait qui pourraient provoquer un tel écart.


 
 
La 390X consommera plus de 300W  :??:  
Dans ce cas, en effet aucun espoir !
 
Je pense (ou plutôt je rêve) qu'il est possible de faire une carte consommant un peu plus qu'une 980 mais en étant soit moins chère soit plus performante, soit un peu des deux  :sol:

n°9442032
synefil
Enjoy life
Posté le 15-03-2015 à 09:04:55  profilanswer
 

dave76 a écrit :


 
Moi ce que je retiens le plus et l'on est passé à coté du sujet plusieurs fois, c'est le type de refroidissement ( pour la 390(x) en tout cas )! Personnellement avoir une carte sous water ( et je parle même pas du bordel si on veut faire un cross ), c'est déjà le bruit en Idle et surtout la place que ça prend ( je peux comprendre certains Geeks qui ont un certain type de tour qui s'y prête )  mais je m'y vois absolument pas après mon coté parano me dirait qu'encore une fois qu'AMD a de la misère à réduire le tdp de leur GPU et SEUL le water est leur salut pour avoir une certaine efficience!


 
+1
Je te rassure, la majorité pense comme toi et n'est pas passée à côté;
Même à moins de 600 €, une R9 390X plus performante qu'une Titan Z, ça n'intéressera pas beaucoup de monde, à part quelques geeks ou gamers qui ont, comme tu dis, la tour qui s'y prête !
Le watercooling est un monde passionnant et c'est bien qu'il existe des cartes sous eau.
Ce sera donc a priori la 390X et c'est très bien !
 
Quid de la 390 'non X' ?

n°9442043
kickvegeta
Vieux et jeune en même temps
Posté le 15-03-2015 à 09:48:47  profilanswer
 

Y'as des fois ont lit de drôles de truc, je pensais que tu n'étais pas un ado et que tu étais éco responsable pour ensuite dire :

 

Je préfère une R9 390 qui consommerait 210W… avec 20% de performances en plus et 20% moins chère  :D

 


Perso je suis persuadé que cette carte sera bien plus consommatrice que la 980 et de beaucoup, une personne qui pense à la mettre dans une mini tour ,bah là il a intérêt d'attendre un modèle custom ...

 

Cette carte si les rumeurs s'avère exact sent tout bon ! Maintenant il faut reconnaître que la série 9 pour les éco responsable est le top ...

 

Mais sérieux personne ne commente le bench face à la titan x ?

 

http://wccftech.com/amd-r9-390x-nv [...] enchmarks/

Message cité 1 fois
Message édité par kickvegeta le 15-03-2015 à 09:49:38
n°9442048
ravenloft
Meilleur jeu du 20ème siècle
Posté le 15-03-2015 à 09:54:50  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par ravenloft le 15-03-2015 à 09:55:13

---------------
Ravenloft
n°9442051
aresias
Posté le 15-03-2015 à 10:06:03  profilanswer
 

La conso de la carte on avait fait des calculs vite fait si tu économises 10€/an c'est déjà que ta carte graphique tourne en pleine charge 4h/jour en prenant une gtx 970 par rapport à une R9 290.
 
Pour le refroidissement de la R9 390X il se pourrait que le watercooling soit proposé dans une édition spéciale sur certaines cartes mais qu'ils proposent aussi une version classique refroidi à l'air. ça m'étonnerais très fortement qu'ils la propose uniquement watercoolé si watercooling il y a.
 
J'ai une R9 290 dans un boitier micro-ATX, aucun soucis de ventilation pourtant mon boitier n'est vraiment pas grand 20*38*45 cm (c'est le plus petit que j'ai trouvé qui accepte un CFX ou SLI de CG d'au moins 300mm). Je peux le mettre dans une valise et le déplacer de temps en temps c'était le but.
La personne qui a un PC qu'elle ne déplace jamais elle s'en fiche complètement que son boîtier soit très grand et prend plein de place et ceux qui font des configs mini-ITX c'est très rarement pour jouer là je comprends pas du tout ton argument sur la taille du boitier PC n'y de la consommation électrique d'ailleurs.

Message cité 1 fois
Message édité par aresias le 15-03-2015 à 10:07:26
n°9442057
kickvegeta
Vieux et jeune en même temps
Posté le 15-03-2015 à 10:25:10  profilanswer
 

Bah son argument est viable , c'est ce qu'on appelle la mode de la miniaturisation. Mais bon dans n'importe quel appareil la miniature ne sera jamais aussi puissante que son homologue .
 
Maintenant je suis sur que dans 5 ans une carte plus petite et aussi puissante existera (même voir moins)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  45  46  47  ..  399  400  401  402  403  404

Aller à :
Ajouter une réponse
 

Sujets relatifs
Carte Graphique 250€ (AMD/NVIDIA)Radeon R9 280X Tri-X, 3Go ou GeForce GTX 770
Portable pas cher : Intel Celeron N2830 2,16 GHz ou AMD E1-2100 1GHz ?CPU ET CM Choix pour 300 euro max
R9 280X a 15€ ^^R9 290 Tri-X Chauffe beaucoup
Carte graphique R9 290 ou GTX 770 ?R9 290 Trix OC (besoin de conseils sur refroidissement)
Upgrade Radeon 5770 -> GeForce 750 
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR