Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2905 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

[HFR] Actu : La HBM confirmée sur l'AMD Fiji

n°9476720
duflotte
Posté le 01-05-2015 à 22:09:28  profilanswer
0Votes positifs
 

Reprise du message précédent :

aresias a écrit :

le scintillement en x1 quand on bouge la caméra et qu'il y a du mouvement je te l'accorde.
Par contre en T2X et 4X c'est très léger et il y a que le SSAA qui arrive à supprimer ce défaut actuellement.


 
1 X 2 X 2000x meme , peut importe, je sais ce que j'ai vu ;-|  
quand tu as 30 brindille dans le decors , on s'en tappe : ca scintille .  
 
(SSAA , downsampling ... donc... )
 
 
ps: d'apres 2 3 temoignage que j'ai recueuillit , meme en 4K ca scintille des pixels .... les mecs ont quant meme besoin du FSAA... du coup 1920x1080 downsamplé me sample une bonne alternative


Message édité par duflotte le 01-05-2015 à 22:14:05
mood
Publicité
Posté le 01-05-2015 à 22:09:28  profilanswer
 

n°9476721
Profil sup​primé
Posté le 01-05-2015 à 22:10:48  answer
0Votes positifs
 

l'adaptafif AA offre un compromis pas trop mal en qualité/cout  
mais forcément qui dit compromis , dit aussi perfectible :/

n°9476722
aresias
Posté le 01-05-2015 à 22:11:09  profilanswer
1Votes positifs
 

Bah dans ce cas autant dire qu'il y a aucun mode d'antialiasing qui est efficace.
Le SSAA c'est pas vraiment une technique d'anti-aliasing c'est du bruteforte et vu le coup en performances...

n°9476730
duflotte
Posté le 01-05-2015 à 22:22:17  profilanswer
1Votes positifs
 

aresias a écrit :

Bah dans ce cas autant dire qu'il y a aucun mode d'antialiasing qui est efficace.
Le SSAA c'est pas vraiment une technique d'anti-aliasing c'est du bruteforte et vu le coup en performances...


 
c'est efficace !  :o
 
ca depends du resultat qu'on attends, c'est tout  :o  :o  :o


Message édité par duflotte le 01-05-2015 à 22:23:03
n°9476772
The_Balrog
Et là, c'est le drame...
Posté le 01-05-2015 à 23:00:32  profilanswer
0Votes positifs
 


3dfx faisait bien du SSAA  ;)
 
 
mais bon , on parle beaucoup du DSR & co ces derniers temps mais ça fait des années que le SSAA générique est dispo via les drivers que ce soit chez les verts ou les rouges  
par contre , oui c'est gourmand  
mais vu le principe de la technique , c'est assez logique  :jap:[/quotemsg]
 
Autant pour moi pour 3Dfx, alors.
 
Pour le SSAA, oui, vu le principe même, ça ne peut QUE être gourmand. Mais c'est vrai aussi qu'en ce moment, les archis multiplient les ROPs, et la HBM (puisque c'est le sujet de départ) et son énorme bande passante pourraient peut être drastiquement réduire ce cout :)  Un SSA au cout d'un FSAA, qui n'en reverai pas? :p
 
Je rejoins Aresias pour le SMAA de Crytek, qui a effectivement fait un tres bon boulot sur ce point, rien à voir avec le SMAA de base :)  Ceci dit, ça reste un compromis tres perfectible, surtout sur un jeu comme Crysis 3, ou la verdure est omniprésente

n°9476781
The_Balrog
Et là, c'est le drame...
Posté le 01-05-2015 à 23:05:10  profilanswer
0Votes positifs
 

aresias a écrit :

Bah dans ce cas autant dire qu'il y a aucun mode d'antialiasing qui est efficace.
Le SSAA c'est pas vraiment une technique d'anti-aliasing c'est du bruteforte et vu le coup en performances...


 
En attendant, ça fonctionne, et c'est la technique la plus probante sur le plan visuel :)
Et c'est tout a fait gérable sur des titres assez gourmand comme Tomb Raider ou Sleeping dogs :)  Même BF 4 peut ête poussé à 120% environ, et offrir un gain visuel sympa, sur une "simple" 980M et ses pauvres 160Go/s.
*bave sur la HBM*

n°9476782
duflotte
Posté le 01-05-2015 à 23:06:16  profilanswer
0Votes positifs
 

mon petit doigt me dis que si AMD se met a vendre des carte à base de memoire stacked, nvidia se mettra a en faire autant ... l'assurance mutuelle , que nos investissement mutels , etc  etc ...


Message édité par duflotte le 01-05-2015 à 23:07:33
n°9476790
duflotte
Posté le 01-05-2015 à 23:11:30  profilanswer
1Votes positifs
 

The_Balrog a écrit :


 
En attendant, ça fonctionne, et c'est la technique la plus probante sur le plan visuel :)
Et c'est tout a fait gérable sur des titres assez gourmand comme Tomb Raider ou Sleeping dogs :)  Même BF 4 peut ête poussé à 120% environ, et offrir un gain visuel sympa, sur une "simple" 980M et ses pauvres 160Go/s.
*bave sur la HBM*


 
gedosato  :jap:  . tu choisis la reso de ton choix, si ton jeu tourne avec ca, et que ta config est a l'aise , ya moyen de se faire plaiz'.  
 
l'autre alternative, c'est le hook de kegetys . software triplehead. softTH . celui la gère en plus le multihead , il est encore plus hazardeux evidemment.  mais fonctionna parfois chez moi ;) , dispo pour les applis 64bit, en plus  
 


Message édité par duflotte le 01-05-2015 à 23:13:52
n°9476798
aresias
Posté le 01-05-2015 à 23:20:05  profilanswer
1Votes positifs
 

Il n'y a plus besoin d'utiliser des programmes tiers vu que dans les drivers que ce soit chez AMD ou Nvidia le SSAA est proposé.

n°9476808
duflotte
Posté le 01-05-2015 à 23:33:43  profilanswer
0Votes positifs
 

aresias a écrit :

Il n'y a plus besoin d'utiliser des programmes tiers vu que dans les drivers que ce soit chez AMD ou Nvidia le SSAA est proposé.


 
 
softTH ne fait pas du SSAA.il peut le faire , mais il fait surtout du multihead. c'est valable pour des configs en multiscreens.  
 
et non , ya encore besoin de ca ...  
 
 ya du SSAA dans GTA5 ? yen a pas dans alien isolation . ni dans deus ex : HR.  ni dans planetside 2 , et dans H1Z1 c'est dispo ? c'est pas encore universelle. et 3200x1800, tu m'excuse, ya pas mal de cas ou meme une 295x² / 290x peut faire mieux que ca, meme une 7970ghz en fait !


Message édité par duflotte le 01-05-2015 à 23:35:35
mood
Publicité
Posté le 01-05-2015 à 23:33:43  profilanswer
 

n°9476828
here
Posté le 02-05-2015 à 00:10:00  profilanswer
0Votes positifs
 

Marc,
 
Je n'ai ni tord ni raison je ne fais que lire et partager des informations.  
 
Au départ j'ai lu ton article où les donnée sont accès sur la bande passante, j'ai dit "simple effet d'annonce" puis comme il n'y a que les imbéciles qui ne changent pas d'avis (...) j'ai lu cet article http://www.tomshardware.fr/article [...] 47603.html
 
où il est écrit ceci " La HBM promet de diminuer la consommation grâce à une fréquence de fonctionnement inférieure permettant de diminuer la tension d'alimentation (1,2 V au lieu de 1,5 V). Le contrôleur peut aussi être plus simple et consommer 4 fois moins. Au final, pour atteindre une bande passante de 512 Go/s, il faut 16 puces de GDRR5 à 8 Gbit/s sur un bus de 512 bits ; la consommation atteint environ 85 W. Il ne faut que 4 piles de HBM (4 dies par pile) à 1 Gbit/s sur un bus de 1024 bits ; la consommation reste en dessous de 30 W. Les 55 W ainsi économisés pourraient donner de la marge pour augmenter les fréquences du GPU et donc les performances."
 
D'où mon post où au conditionnel je nuance ma première affirmation d'effet d'annonce... je rappelle : au conditionnel et "si j'ai bien compris". Par rapport à tout ceux qui hurlent qu'ils ont raison je ne peux pas faire plus prudent ;)  
 
Sur ce giga qui est un habitué du genre me dit que "non car dans 5 ans" (ce qui m'a amusé sans être méchant) et toi tu viens à la rescousse en disant que dans le fond il n'a pas tord puis finalement tu fais CQFD en sortant aussi une nouvelle donnée (bande passante doublée par rapport à la 290X) pour faire ta démonstration... Quand tu dis bande passante doublée tu parles du prochain GPU ou dans 5 ans? :lol:
 
Alors certes pourquoi pas mais entre "les supposons" et les "dans 5 ans", j'ai tendance à prendre en compte d'abord les éléments qui paraissent plus factuels tels que ceux cité juste au dessus.
 
Mais je n'hésites pas à relativiser à la lumière des éléments nouveaux que j'apprends (et partage). Si je lis des éléments contradictoires ailleurs, je n'hésiterai pas non plus à les partager. Il y en a d'autres c'est le club de la mauvaise foi et ils te sortiront toujours un truc de leur chapeau pour dire que "non" ils ont raison :lol:  Raison de quoi on se le demande mais bon...
 
Comme dit The_Balrog, je suis aussi plutôt opportuniste je peux passer de Mac OS X à Windows à iOS à Androïd ou me passer de smartphone pour un téléphone basique selon l'intérêt du moment mais pour d'autres c'est toujours une question de vie ou de mort à chaque fois qu'ils abordent un sujet... :pt1cable:  
 
:lol:

n°9476865
Profil sup​primé
Posté le 02-05-2015 à 01:50:29  answer
2Votes positifs
 

les pauvres mouches  :(  
qu'est ce qu'elles ramassent avec toi :lol:


Message édité par Profil supprimé le 02-05-2015 à 01:51:00
n°9476886
Omelmike
On plante des radis...
Posté le 02-05-2015 à 02:52:23  profilanswer
2Votes positifs
 

@here : c'est beau ! Quelque part, tu es parfait !

n°9476888
Gigathlon
Quad-neurones natif
Posté le 02-05-2015 à 02:57:48  profilanswer
2Votes positifs
 

here a écrit :

Je n'ai ni tord ni raison je ne fais que lire et partager des informations.


Tu AS tort et je t'ai dit pourquoi dès le départ... tu réfléchis comme si tout était figé, là, maintenant.

 

Evidemment que sur un Fiji @28nm la BP ne va pas exploser, le GPU a peu de chances d'être beaucoup plus puissant que Hawaï donc ça n'aurait pas vraiment de sens, mais le standard est créé pour avancer, pas pour répondre aux besoins immédiats, qui par définition dans toute industrie font partie du passé (soit on y a répondu, soit on est à la bourre).

 

Manque de pot, le 16/14nm c'est dans 1 an, et là c'est déjà vachement moins valable car la GDDR5 sera dans les choux pour alimenter des GPU 3-4x plus complexes. Pour Fiji, AMD profite certainement d'un deal pour écouler une HBM1 EOL dès son annonce et du fait que le phy moins vorace permettra de réallouer une partie de ce budget de puissance, mais on peut clairement s'attendre à des consommations vaguement stables gamme sur gamme en l'oubliant purement et simplement (ce qui est finalement assez faible, mais mieux que les GDDR4/5).

 

Je taquinais sur la niouze "15 ans de Radeon" à propos du sujet de la BP qui m'avait tout l'air d'un indice "on sait mais on vous dira rien" d'ailleurs... pourquoi à ton avis? La BP à l'époque était énorme par rapport à ce qu'on a actuellement, et ça malgré des GPU très faiblement programmables, c'est évident que le besoin est actuellement colossal et en croissance perpétuelle, et ça vaut aussi pour les CPU, bien que la HBM n'y soit pas adaptée (mais sa cousine la HMC, ne faisant que sérialiser la communication, si).

 


PS: Ca serait pas mon premier désaccord avec Marc ou ma première connerie, si j'avais tort... en particulier, c'est fréquent sur mes extrapolations, même si j'essaye de me soigner :o


Message édité par Gigathlon le 02-05-2015 à 03:39:11
n°9476891
KapSnake
Posté le 02-05-2015 à 03:00:53  profilanswer
0Votes positifs
 

fanboy34 a écrit :

KapSnake a écrit :


 
NDA ? Comme pour leur derniers CPU ?
Je suis comme vous, j'aimerai que AMD mettent un coup de pied à Nvidia niveau Perf/Prix ! La seul chose que j'ai dis pour le moment Nvidia fait mieux donc forcement on passe pour un Fanboy :) Dja avant de balancer sa, j'avais que de l'ATI avant CPU + GPU mais c'est fini la grande époque AMD qui misé tout sur le jeux :)
Et pour la conso j'ai exagérer la chose mais une 290X consomme beaucoup plus qu'une 980 etc pour rien quoi !


 
NDA comme pour leur dernier CPU?
Personne ne sait ici, sauf toi on dirait...
 
Et pour la conso, tu as en effet exagérément exagéré: si tu ne veux pas qu'on te prenne pour un fanboy évite d'en favoriser un dans tes propos
et évite de supposer les perf inférieures avant les 1e tests ;)
 
Après tu fais ce que tu veux: j'aime tellement ces guéguerres entre fanboys que j'en ai fait mon pseudo :D


 
Je favorise rien ! Faut juste apprendre à lire !  
Une R9 290X beaucoup plus qu'un 980 basta c'est tout.
Moi je sais rien sur la CG, c'est juste vous qui espéraient au miracle avec la HBM :)
Donc bref je vais pas revenir sur ceux que j'ai déjà ! Dans l'ensemble Nvidia fait mieux et sa n'a rien avoir avec du Fanboy ou quoi.
C'est juste se tenir au courant de se qu'il se fait de mieux quand j'achète basta :)  
 
@boudeficelle  
T'es bête tu fait exprès ?  
VSR au alentour de décembre 2014 ! J'avais plus la R9 290X depuis un moment. Ton cerveau à un problème à imprimer cette information? De ceux que je j'ai lu du VSR c'est complétement à la ramasse car même des gens qui on des AMD ne savent pas comment l’utiliser ! Pour sa que personne en parle :)  
Tu me parle de VSR je te parle de downsampling qui sont exactement la même chose :)
" Et oui, on peut avoir une carte d'une marque sans cracher son venin sur l'autre. "  
Tu devrais apprendre à lire avant de venir faire le beau pour rien j'crois :) et reviens débattre avec quand tu aura plus d'argument stp :)
J'ai juste dis que Nvidia fessait mieux que AMD pour le moment c'est pas grave si ta du mal avec sa :) et la HBM n'y changera rien car Nvidia fera mieux avec de la GDDR5.

Message cité 1 fois
Message édité par KapSnake le 02-05-2015 à 03:22:43
n°9476960
grosnabot
Posté le 02-05-2015 à 09:53:59  profilanswer
5Votes positifs
 

Comment tu sais qu'nvidia fessait mieux qu'amd mon coquinou ? :D
 
nvidia fait mieux après coup...waw c'est...original et génial ça...quelle révolution ! ou pas
 
note: vous avez raison, il y a une invasion de kikoo chez hfr.


Message édité par grosnabot le 02-05-2015 à 09:56:35
n°9476984
mhd91800
Posté le 02-05-2015 à 10:47:39  profilanswer
3Votes positifs
 

grosnabot a écrit :

Comment tu sais qu'nvidia fessait mieux qu'amd mon coquinou ? :D
 
nvidia fait mieux après coup...waw c'est...original et génial ça...quelle révolution ! ou pas
 
note: vous avez raison, il y a une invasion de kikoo chez hfr.


 
Si je pouvais mettre +100 je le ferais....ATI enfin maintenant AMD à toujours fait mieux que nvidia et nvidia derrière et uniquement derrière faisait mieux...c'est juste que maintenant y'a tellement de publicité dans les magasin ou sujet de test ou autres truc du genre pour nvidia que tout les fanboy nvidia ont oublier se détail.... certains râlent, chialent sur la conso des cartes AMD la nuisance sonore ? et après ? quasiment tout les gamer joue avec un casque donc le son de la cg osef oO la conso.... lol je m'attarde pas dessus....pour moins de bruit, moins de conso vous payez plus chère pour moins de perfs en fin compte...il à fallut une gtx 980 pour concurrencer la R9 290X et une titant 12go pour concurrencer une R9 295X....sois une archi neuf et récente pour nvidia qui peine à faire mieux qu'une ancienne archi AMD....hahaha et malgrès ça c'est nvidia les meilleurs...
 
@kapsnake
Des miracles pour la hbm ? une bande passante bcp plus grande donc meilleur transfert des données...donc oui c'est une très bonne évolution.  
Une conso réduite, très bien réduite :) de quoi faire chialer encore plus les fanboy nvidia car ils auront quoi du coup comme arguments pour cracher sur les AMD ?

n°9476990
Invite_Sur​prise
Racaille de Shanghaï
Posté le 02-05-2015 à 11:01:57  profilanswer
7Votes positifs
 

Le niveau des commentaires franchement  [:kolombin:4]

n°9477198
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 02-05-2015 à 14:45:35  profilanswer
3Votes positifs
 

here a écrit :

Sur ce giga qui est un habitué du genre me dit que "non car dans 5 ans" (ce qui m'a amusé sans être méchant) et toi tu viens à la rescousse en disant que dans le fond il n'a pas tord puis finalement tu fais CQFD en sortant aussi une nouvelle donnée (bande passante doublée par rapport à la 290X) pour faire ta démonstration... Quand tu dis bande passante doublée tu parles du prochain GPU ou dans 5 ans? :lol:


La donnée n'est pas nouvelle, elle est déjà dans l'actualité que tu commentes.

n°9477224
here
Posté le 02-05-2015 à 15:10:14  profilanswer
0Votes positifs
 

Allez les autistes on se clame j'ai eu tord de rapporter une info je l'admets. Je retire et je reste sur "simple effet d'annonce" contents comme ça :jap:  
 

n°9477278
genom
urinam non decolor unda
Posté le 02-05-2015 à 16:05:45  profilanswer
6Votes positifs
 

HFR le seul forum qui donne bcp travail de lecture aux modos pour tenir la baraque, trop de gamins à l'ego surdimensionné, je dis ! Et si on apportait un fond un peu plus constructif pour une fois, on se focaliserait sur l'intérêt de la HBM ?! A mon époque on s'enrichissait du savoir des autres sur le hardware....

n°9477319
cocto81
Posté le 02-05-2015 à 16:58:38  profilanswer
1Votes positifs
 

Purée de débat mal engagé.
Les gens qui disent qu'il n'y a pas besoin de bande passante pour la RAM vidéo et qu'il suffit de compresser, oublient qu'on parle pas là de débits via le bus pcie ou entre CPU et GPU, au niveau des pilotes et de l'OS mais de l'exécution directes des commandes du GPU qui ne se suffisent pas toutes du cache. Au hasard, pourquoi une carte bas de gamme va quand même sacrément profiter de la gddr5 face à de la gddr3 ???
Avec l'augmentation du parllélisme sur les GPU il faut absolument l'accompagner d'une augmentation proportionnelle de la bande passante RAM vidéo... sauf que la HBM aura probablement un impact sur les latences. La bande passante est plus grande mais au niveau du bit de mémoire ce n'est pas plus rapide sur la HBM mais plus lent que sur la gddr5.
Donc la HBM c'est une nouvelle techno : on augmente la bande passante tout en diminuant la fréquence et on gère au niveau du GPU (gestion des commandes et allocation des données en cache). Donc tout bénéf, mais probablement marginal sur Fuji, qui est le premier GPU à l'utiliser. Rien à ajouter.
Si : la vraie question qui est d'importance, c'est HBM 1 ou 2 et 4 ou 8Go.
Avec 4Go AMD a intérêt de jouer la carte du GPU super-Maxwell. Ils enlèvent les unités calcul double précision et orientent la puce sur le jeu à fond. Résultat : baisse de conso et perfs qui montent en flèche et puce pas trop chère à produire (une R 290 optimsée jeu 2x fois plus performante en jeu). Et prix un peu plus élevés qu'une R 290 4Go.
Avec 8Go de RAM on touche à la carte pro donc grosse puce à tout faire, et le prix qui va avec.

Message cité 1 fois
Message édité par cocto81 le 02-05-2015 à 17:12:09
n°9477327
cocto81
Posté le 02-05-2015 à 17:08:51  profilanswer
1Votes positifs
 

KapSnake a écrit :


Je favorise rien ! Faut juste apprendre à lire !  
Une R9 290X beaucoup plus qu'un 980 basta c'est tout.
Moi je sais rien sur la CG, c'est juste vous qui espéraient au miracle avec la HBM :)
Donc bref je vais pas revenir sur ceux que j'ai déjà ! Dans l'ensemble Nvidia fait mieux et sa n'a rien avoir avec du Fanboy ou quoi.
C'est juste se tenir au courant de se qu'il se fait de mieux quand j'achète basta :)  


 
Nvidia favorise sur leur dernière génération Maxwell la rapidité exclusivement pour le jeu 3D. Dans tous les autres domaines, pour avoir une carte équilibrée, il faut reprendre un carte ancienne génération Nvidia (toujours en vente surtout sur le haut de gamme et ce n'est pas un hasard), qui du coup est à la traine d'AMD dans tous les domaines.
Maintenant les pilotes professionnels Nvidia sont plus au point que ceux d'AMD et pour les calculs GPU la norme propriétaire Nvidia CUDA est d'avantage supportée par les développeurs professionnels que la norme générique libre Open CL prise en charge par AMD (et Intel).
Au niveau des perfs brutes du hardware, on en a largement plus pour son argent chez AMD.
En sachant tout ça, on a de quoi faire un choix qu'on ne regrettera pas.


Message édité par cocto81 le 02-05-2015 à 17:10:18
n°9477371
Gigathlon
Quad-neurones natif
Posté le 02-05-2015 à 18:14:27  profilanswer
3Votes positifs
 

cocto81 a écrit :

Donc la HBM c'est une nouvelle techno : on augmente la bande passante tout en diminuant la fréquence et on gère au niveau du GPU (gestion des commandes et allocation des données en cache). Donc tout bénéf, mais probablement marginal sur Fuji, qui est le premier GPU à l'utiliser. Rien à ajouter.


Pour la latence faudrait vérifier, mais de mémoire elle est similaire.

 

La fréquence externe de la GDDR5 est obtenue par multiplication de l'horloge des cellules et transfert de 8 paquets de 32bits en burst. Ces cellules changent peu dans la HBM, c'est du côté de l'interface que tout se joue, en balançant 8 paquets de 128bits à plus faible fréquence mais en parallèle.

 

C'est plus à comparer à de la SDRAM (HBM) sur 8 bus 32bits et de la DDR2 (GDDR5) sur un unique bus 64bits (ou 2 de 32bits, je sais pu...), or on a jamais eu d'amélioration de la latence en augmentant le débit par le prefetch tout en diminuant la largeur de bus, plutôt l'inverse du fait d'une complexité accrue en exécution OoO pourtant indispensable.


Message édité par Gigathlon le 02-05-2015 à 18:19:15
n°9477480
Profil sup​primé
Posté le 02-05-2015 à 20:18:07  answer
5Votes positifs
 

here a écrit :

Allez les autistes on se clame j'ai eu tord de rapporter une info je l'admets. Je retire et je reste sur "simple effet d'annonce" contents comme ça :jap:  
 


 
Je passe au-dessus de l'insulte mais quand-même :  
 
http://la-conjugaison.nouvelobs.co [...] tordre.php
http://www.ladictee.fr/grammaire/t [...] _tord.html
 
Vouloir insulter les gens et imposer sa vision des choses .... sans même connaître les mots simples que l'on utilise, sérieux !

n°9477590
ziple
Posté le 02-05-2015 à 22:20:18  profilanswer
1Votes positifs
 

Me concernant je trouve ça très intéressant l'arrivée de cette mémoire. J'ai une application OpenCL qui serait très contente d'avoir plus de bande passante...
On pourra espérer avoir combien de mémoire sur une seule carte? 8Go ça serait possible?

n°9477800
genom
urinam non decolor unda
Posté le 03-05-2015 à 08:14:42  profilanswer
1Votes positifs
 

Wirmish a écrit :

Les rumeurs disent que la prochaine carte graphique d'AMD sera tellement grosse qu'on branchera la carte mère dedans et non l'inverse...

 

->[]

 

on se dirige plûtot vers la miniaturisation
http://semiaccurate.com/assets/uploads/2013/04/GloFo_Amkor_2.5D_stack.png
http://otavafiles.fi/plaza/s/f/editor/images/20150114amdinterposer.jpg
http://cdn.overclock.net/c/cc/900x900px-LL-ccb1b6af_yole2.jpeg

 

que dire du prochain node...
http://cdn2.wccftech.com/wp-content/uploads/2014/03/NVIDIA-Pascal-GPU-Chip-Module-635x402.jpg


Message édité par genom le 03-05-2015 à 08:43:30
n°9478070
Profil sup​primé
Posté le 03-05-2015 à 14:42:30  answer
4Votes positifs
 

c'était de l'humour rigolo :D  
 
t'es très premier degré toi non ?  :whistle:

n°9478199
The_Balrog
Et là, c'est le drame...
Posté le 03-05-2015 à 17:32:25  profilanswer
0Votes positifs
 

et accessoirement meilleur post de ce thread, qui mérite un +10 :D

n°9478221
Gigathlon
Quad-neurones natif
Posté le 03-05-2015 à 17:53:14  profilanswer
1Votes positifs
 

Un papier de 2012 passé chez B3D m'a fait penser qu'on se dirigeait peut-être vers du modulaire... Wirmish nous avait fait un joli schéma il me semble à l'époque du R600 sur ce concept :o

 

Je me demande si ils vont rush pour avoir des archis de ce type ou pas, sachant que pour les GPU ça permettrait d'envisager un die de base intégrant le contrôleur et le LLC sur lequel se grefferaient GPU et piles de RAM "nues" (sans la couche interface), le tout semble compatible avec l'existence d'un seul design de GPU présent en 1 à 4 exemplaires selon le die de base (simple puisque contenant principalement de la SRAM ou Z-RAM/1T-SRAM) retenu.


Message édité par Gigathlon le 03-05-2015 à 17:55:43
n°9478253
mazingerz
Posté le 03-05-2015 à 18:19:12  profilanswer
0Votes positifs
 

Roxpotatoes a écrit :

matyas69 a écrit :

Je ne comprends pas bien l'utilité de cette bande passante pour le jeu car les dernières améliorations(algorithmes de compression, MFAA, etc) montrent qu'une bande bassante inférieure n'est pas forcément un goulet d'étranglement(GTX 780 Ti(304 Go/s) vs GTX 980(209 Go/s) voir même une GTX 970(environ 183 Go/s).
 
Autant pour le compute je peux comprendre, après c'est vrai que le développement de deux architectures différentes pour les deux secteurs aurait été plus coûteux.
 
Mais les questions que je me pose sont les suivantes "A quoi va servir autant de bande passante à un joueur ?" "La 4K en est t-elle la raison ?"
 
Et je peux rien dire d'AMD sachant Nvidia a prévu exactement la même chose avec Pascal...


C'est la politique d'AMD , des gros chiffres pour mieux vendre , technique couramment utilisé pour essayer de vendre un produit peu performant et mal conçu (pentium 4 , bulldozer , les gt730 4go etc...) , rien de mieux pour piéger le consommateur qui y connait rien.


 
comme tu n'y connais rien ça leur fera donc un client de plus

n°9478501
mazingerz
Posté le 03-05-2015 à 21:56:39  profilanswer
1Votes positifs
 

Quarmelite a écrit :


Question fanboy ou gros lourd... Si tu dis du bien un tant soit peu d'une des deux marques, tu as toujours les couillons pour te tomber dessus en t'insultant. Pourtant, les faits sont indéniables : AMD est à la traîne, question conso ou performance. La R9 390X est pour l'instant une totale inconnue sur ces deux paramètres. Mais rien que de rappeler ça, c'est déjà pour certains extrémistes une déclaration de guerre.


 
bas en même temps tu dit de la merde  
 
la perf ça se calcule en fonction du prix
et en perf prix ils sont pas du tout à la traine

n°9478696
pinpinb
Posté le 04-05-2015 à 00:55:44  profilanswer
1Votes positifs
 

mazingerz a écrit :


la perf ça se calcule en fonction du prix


C'est plutôt le prix qui se "calcule" en fonction des perfs ;)

n°9478817
genom
urinam non decolor unda
Posté le 04-05-2015 à 10:02:06  profilanswer
0Votes positifs
 

 

j'avais bien compris que c'était gros comme un camion :D
c'était surtout pour montrer le gain de place avec l'interposer 2.5D vs gddr5

 

et toi es-tu 2nd degré ?
http://image.noelshack.com/fichiers/2015/19/1430726185-vandam.jpg

Message cité 1 fois
Message édité par genom le 04-05-2015 à 10:02:35
n°9478818
genom
urinam non decolor unda
Posté le 04-05-2015 à 10:04:44  profilanswer
0Votes positifs
 

The_Balrog a écrit :

et accessoirement meilleur post de ce thread, qui mérite un +10 :D


 
je ne suis pas sûr de comment prendre la chose ? éclaire moi :D
si tu veux je scrute ce que tu dis et je me ferais un plaisir de me moquer de toi, tu vas voir ça va être sympa  ;)

n°9478823
ziple
Posté le 04-05-2015 à 10:13:54  profilanswer
2Votes positifs
 

pinpinb a écrit :

mazingerz a écrit :


la perf ça se calcule en fonction du prix


C'est plutôt le prix qui se "calcule" en fonction des perfs ;)


Un prix ça se calcule selon plusieurs critères...
Par exemple dans le cas d'AMD, ils prennent sûrement en compte le fait que leur image de marque n'est pas au même niveau que celles d'Intel ou NVidia.
 
D'un point de vue rationnel, les produits AMD sont bons. Mais les gens ne sont pas rationnels (pas que les fanboys et acheteurs d'iphone). Par exemple grâce au très bon marketing d'en face, les consommateurs croient sauver la planète en consommant 10W de moins, ou se sauver les oreilles. Alors qu'ils utilisent ces 10W en moins qu'un temps négligeable...
 
Mais tout ça avantage les personnes achetant des cartes AMD au final, donc tout le monde devrait être content :).

n°9478829
MEI
|DarthPingoo(tm)|
Posté le 04-05-2015 à 10:20:21  profilanswer
0Votes positifs
 

ziple a écrit :


C'est plutôt le prix qui se "calcule" en fonction des perfs ;)


Un prix ça se calcule selon plusieurs critères...
Par exemple dans le cas d'AMD, ils prennent sûrement en compte le fait que leur image de marque n'est pas au même niveau que celles d'Intel ou NVidia.
 
D'un point de vue rationnel, les produits AMD sont bons. Mais les gens ne sont pas rationnels (pas que les fanboys et acheteurs d'iphone). Par exemple grâce au très bon marketing d'en face, les consommateurs croient sauver la planète en consommant 10W de moins, ou se sauver les oreilles. Alors qu'ils utilisent ces 10W en moins qu'un temps négligeable...
 
Mais tout ça avantage les personnes achetant des cartes AMD au final, donc tout le monde devrait être content :).[/quotemsg]
Ouai on va pas non plus excuser AMD d'avoir un ratio perf/W pas gégé et de ne pas compenser avec un cooling correct.
 
Parce que du temps des 3870 ils savaient vanter leur efficacité energétique hein.
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9478831
genom
urinam non decolor unda
Posté le 04-05-2015 à 10:25:09  profilanswer
0Votes positifs
 

ziple a écrit :


C'est plutôt le prix qui se "calcule" en fonction des perfs ;)
Par exemple dans le cas d'AMD, ils prennent sûrement en compte le fait que leur image de marque n'est pas au même niveau que celles d'Intel ou NVidia


 
tkt l'image de Nvidia en prend aussi un coup avec le petit nain vert (pour pas dire jaune :jap: ) capitaliste et arrogant  :D


Message édité par genom le 04-05-2015 à 10:27:21
n°9478842
Moumoule
Posté le 04-05-2015 à 10:41:53  profilanswer
0Votes positifs
 

MEI a écrit :


Un prix ça se calcule selon plusieurs critères...
Par exemple dans le cas d'AMD, ils prennent sûrement en compte le fait que leur image de marque n'est pas au même niveau que celles d'Intel ou NVidia.
 
D'un point de vue rationnel, les produits AMD sont bons. Mais les gens ne sont pas rationnels (pas que les fanboys et acheteurs d'iphone). Par exemple grâce au très bon marketing d'en face, les consommateurs croient sauver la planète en consommant 10W de moins, ou se sauver les oreilles. Alors qu'ils utilisent ces 10W en moins qu'un temps négligeable...
 
Mais tout ça avantage les personnes achetant des cartes AMD au final, donc tout le monde devrait être content :).


Citation :


Ouai on va pas non plus excuser AMD d'avoir un ratio perf/W pas gégé et de ne pas compenser avec un cooling correct.
 
Parce que du temps des 3870 ils savaient vanter leur efficacité energétique hein.
 


 
Ce qui va suivre est mon avis:
 
De nos jours, on se focalise beaucoup trop sur la consommation. Comme ziple le pointe du doigt, sauver la planète et j'en passe ... C'est ca la magie du marketing. De la poudre aux yeux, balancer des chiffres pour afficher une supériorité ... Et oui, ca fait vendre hein, les consommateurs adorent les chiffres et encore plus les pourcentages (-30 % de calories !!! Wow) Dans le monde des cartes graphiques, des deux côtés on peut constater cela, AMD et nVidia trouvent des arguments marketing foireux pour faire vendre ... Je me rappelle très de certains slides d'AMD qui avancer des chiffres tout à fait attirant dans certains benchmarks non synthétique ...
 
Non tu as raison, on ne va pas excuser AMD d'avoir un ratio perf/W à chier en ce monde sur leurs haut de gamme, mais est-ce vraiment si important que ça, sérieux ? Sur le long terme, ta facture EDF va en prendre un coup ... Sommes-nous tellement perfectionniste que sur une année donnée on va calculer la consommation de notre carte graphique, sachant que notre aspirateur consomme beaucoup plus (exemple aléatoire hein xD ) ? Faut être réaliste 2 minutes merde, oui le haut de gamme AMD consomme beaucoup, oui ca chauffe, oui ca fait du bruit ...  
 
Mais qu'est ce qui compte au final ? Les performances, non ? On fait tellement attention lors d'un achat puis après ... Avec le temps de toute façon, on fait plus attention à la conso, à la chauffe etc ...
 
 

n°9478846
MEI
|DarthPingoo(tm)|
Posté le 04-05-2015 à 10:47:28  profilanswer
1Votes positifs
 

Ouai enfin NVIDIA fait moins de bruit, consomme moins, est plus rapide et en plus a des avantages software sympa (PhysX, TXAA & autres) plus nombreux qu'AMD.
 
La 5870 c'était une carte géniable, proche de ce qu'est la 980 aujourd'hui d'ailleurs.
 
La générationt 7970 c'est aussi bien équilibré, même si le bruit est difficile à contenir à cause d'une conso un peu ric rac. Mais la 290X c'est clairement dépassé les limites acceptable juste pour la perf car y'a plus d'autres solutions. On est presque à avoir une pseudo FX 5900 de chez NVIDIA dans l'esprit.
 
Après c'est pas non plus un désastre. Mais si AMD continue sur la même veine, la 390X aura beau être perf, ça se vendra pas plus qu'une 290X.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9478859
Moumoule
Posté le 04-05-2015 à 11:04:32  profilanswer
0Votes positifs
 

MEI a écrit :

Ouai enfin NVIDIA fait moins de bruit, consomme moins, est plus rapide et en plus a des avantages software sympa (PhysX, TXAA & autres) plus nombreux qu'AMD.
 
La 5870 c'était une carte géniable, proche de ce qu'est la 980 aujourd'hui d'ailleurs.
 
La générationt 7970 c'est aussi bien équilibré, même si le bruit est difficile à contenir à cause d'une conso un peu ric rac. Mais la 290X c'est clairement dépassé les limites acceptable juste pour la perf car y'a plus d'autres solutions. On est presque à avoir une pseudo FX 5900 de chez NVIDIA dans l'esprit.
 
Après c'est pas non plus un désastre. Mais si AMD continue sur la même veine, la 390X aura beau être perf, ça se vendra pas plus qu'une 290X.


 
Je suppose que tu parles du haut de gamme.
 
Oui, chez AMD on est quasi obligé de prendre une custom si on un boitier mal ventilé. Après encore une fois, PhysX, TXAA, c'est bien beau ... Mais c'est pas assez répandu :-/
 
Et ca se paie fort quand même. C'est là ou je trouve qu'AMD fait bonne figure. Dans la situation actuelle (crise), ils arrivent à se distinguer grâce à leur prix ...  
 
Et ca par contre, je pense c'est, avec les performances, le plus important: Ce qu'on débourse d'un coup pour un produit. Que ta carte te coûtera encore 20/30 € en plus par an à cause de la consommation, t'arrive l'amortir. Mais le prix initial est pour moi, un critère majeur lors de l'achat. Y a je pense ~ 200 € d'écart entre une 980 et une 290x ... y a quand une même une sacré différence. J'aime bien la 970 qui est bien plus raisonnable.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
Enlever un OC d'usine AMD[HFR] Actu : 1ères infos sur Zen, l'archi x86 AMD de 2016 ?
[HFR] Actu : Promotion sur les R9 285Remplacer HD5870 avec AMD FX
[HFR] Actu : Kingston HyperX Savage avec Phison S10Le pilote AMD ne repondait plus Windows 8.1
Plus de sujets relatifs à : [HFR] Actu : La HBM confirmée sur l'AMD Fiji


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR