Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2122 connectés 

 

 

Vous avez :




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  100  101  102  ..  399  400  401  402  403  404
Auteur Sujet :

[Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)

n°9494164
overclockp​ro
Posté le 20-05-2015 à 09:57:08  profilanswer
 

Reprise du message précédent :
Oui, mais AMD pouvait alors partir sur de la GDDR5 + bus 512 bits avec 8 Go. Même si la consommation aurait été plus élevée, on aurait eu 8 Go. Cela aurait été un choix plus judicieux que 4 Go d'HBM. Surtout pour une carte qui vise le 4K.

mood
Publicité
Posté le 20-05-2015 à 09:57:08  profilanswer
 

n°9494165
mum1989
Posté le 20-05-2015 à 09:57:12  profilanswer
 

ça ne posera problème qu'à ceux qui jouent en 4k soit 0.06% des joueurs et encore pas sur tous les jeux .(dernière stat steam)

n°9494167
genom
urinam non decolor unda
Posté le 20-05-2015 à 09:58:52  profilanswer
 

overclockpro a écrit :

4 Go serait une erreur quand certains jeux saturent déjà cette quantité de mémoire en 4K (Watch Dogs, Shadow of Mordor...).
 
Néanmoins, cela m'étonnerait car AMD a toujours été en avance sur la quantité de mémoire embarquée par rapport aux jeux : 2 Go sur les 6950/6970, 3 Go sur les 7950/7970 et 4 Go sur les 290/290X.

en avance sur qui, Nvidia, ils proposent bien une version à 12gb inutile, plus rien ne surprend  :o
 
à un moment donné, on pourrait se poser la question si ils se mettaient pas autour d'une table à discuter le bout de gras et de part de marché, ça me surprendrais pas non plus, bien sûr c'est extrapolé... quoi que Jen hsun et Lisa couchent peut être ensemble Nvidiamd.... ça te barbera....


Message édité par genom le 20-05-2015 à 10:26:21
n°9494168
hifibuff
Posté le 20-05-2015 à 10:01:51  profilanswer
 

mum1989 a écrit :

ça ne posera problème qu'à ceux qui jouent en 4k soit 0.06% des joueurs et encore pas sur tous les jeux .(dernière stat steam)

 

Peut être mais la question est de savoir à qui s'adresse ces cartes haut de gamme, à ceux qui jouent en full HD ou bien à ceux qui sont en très haute résolution ?
De plus, même un joueur qui ne joue pas à l'heure actuelle en 4k ou équivalent, il / elle a envie d'un minimum de pérennité dans l'achat de sa nouvelle carte, et c'est vrai que 4go, ça commence à faire juste sur ces hautes résolutions, c'est un fait.


Message édité par hifibuff le 20-05-2015 à 10:04:30

---------------
"Every man dies, not every man really lives"
n°9494172
TizeN
Eternel Revenant
Posté le 20-05-2015 à 10:05:55  profilanswer
 

mum1989 a écrit :

ça ne posera problème qu'à ceux qui jouent en 4k soit 0.06% des joueurs et encore pas sur tous les jeux .(dernière stat steam)

 

Pour le moment peut-être, mais dans l'avenir? La prochaine gen sera pour quand, fin 2016 si je ne me trompe pas? ça laisse un peu de temps pour le passager à la 4K, noël toussa.
Après je ne suis pas partisan de la 4K spécialement, je suis sur un vieux viewsonic 24" FHD avec seulement VGA+DVI, et ça ne me dérange pas.

 

Mais bon je penses qu'il faut aussi voir un peu plus loin que le court terme. Personnellement si j'achète une CG, j'espère quand même la garder plus d'un an au prix où je la paye.
Comme exemple ma 280X vapor-x tri-x, que j'ai depuis maintenant un poil plus d'un an, va sûrement rester à sa place pendant encore au moins un ou deux ans.

 

edit: plus ou moins grilled  [:yoz]

Message cité 1 fois
Message édité par TizeN le 20-05-2015 à 10:06:56

---------------
[VDS] AMD RX Vega 56 Sapphire Pulse 8Go OC, Matos WC (WB CPU/GPU, embouts rigide, capteurs, pompe, etc.), Routeurs WiFi Linksys WRT3200ACM, Réhobus NZXT Sentry LXE
n°9494186
genom
urinam non decolor unda
Posté le 20-05-2015 à 10:20:31  profilanswer
 

TizeN a écrit :


 
Pour le moment peut-être, mais dans l'avenir? La prochaine gen sera pour quand, fin 2016 si je ne me trompe pas? ça laisse un peu de temps pour le passager à la 4K, noël toussa.
Après je ne suis pas partisan de la 4K spécialement, je suis sur un vieux viewsonic 24" FHD avec seulement VGA+DVI, et ça ne me dérange pas.
 
Mais bon je penses qu'il faut aussi voir un peu plus loin que le court terme. Personnellement si j'achète une CG, j'espère quand même la garder plus d'un an au prix où je la paye.
Comme exemple ma 280X vapor-x tri-x, que j'ai depuis maintenant un poil plus d'un an, va sûrement rester à sa place pendant encore au moins un ou deux ans.
 
edit: plus ou moins grilled  [:yoz]


 
c'est quand même un belle claque visuelle  :D

n°9494197
aliss
Rhyme the Rhyme Well
Posté le 20-05-2015 à 10:33:25  profilanswer
 

mum1989 a écrit :

ça ne posera problème qu'à ceux qui jouent en 4k soit 0.06% des joueurs et encore pas sur tous les jeux .(dernière stat steam)


 
Il faut prendre en compte le % des gpu's en parallèle, l'écrasante majorité sous steam c'est de l'intégré ou de l'entrée de gamme.
 
Et nul doute que bon nombre d'acheteurs de gpu's hdg voudront profiter du DSR/VSR, qui est tout aussi consommateur en vram.


Message édité par aliss le 20-05-2015 à 10:47:28
n°9494201
TizeN
Eternel Revenant
Posté le 20-05-2015 à 10:38:11  profilanswer
 

@genom pour l'avoir vu en magasin, je n'en doute pas, mais mon 1080p me convient très bien pour le moment, et je n'ai pas les moyens pour y passer non plus :(  
 
Mais nul doute que lorsque la 4K sera devenu plus accessible (du genre un 24"-27" à 200€, la CG qui va bien pour max 300€) je sauterai le pas sans attendre ;)


---------------
[VDS] AMD RX Vega 56 Sapphire Pulse 8Go OC, Matos WC (WB CPU/GPU, embouts rigide, capteurs, pompe, etc.), Routeurs WiFi Linksys WRT3200ACM, Réhobus NZXT Sentry LXE
n°9494217
genom
urinam non decolor unda
Posté le 20-05-2015 à 10:53:14  profilanswer
 

TizeN a écrit :

@genom pour l'avoir vu en magasin, je n'en doute pas, mais mon 1080p me convient très bien pour le moment, et je n'ai pas les moyens pour y passer non plus :(

 

Mais nul doute que lorsque la 4K sera devenu plus accessible (du genre un 24"-27" à 200€, la CG qui va bien pour max 300€) je sauterai le pas sans attendre ;)


faudrait que les softs suivent aussi, quand tu vois la taille de la barre de menu toshop en 4k en 30"+ 17:9 ben il faut bien http://csimg.webmarchand.com/srv/FR/29059797l1005/T/340x340/C/FFFFFF/url/lunette-jumelle.jpg c'est marrant, ils ont limite prévu le coup sur indesign et Lightroom un peu moins :D sur 24 pouces 16:9, j'ose pas imaginer... merde j'ai cliqué à coté essaye encore. 16:10 nostalgie


Message édité par genom le 20-05-2015 à 11:31:35
n°9494220
Zurkum
Posté le 20-05-2015 à 10:54:26  profilanswer
 

http://www.ocaholic.ch/modules/new [...] ang=french

 

+une r9 390x avec 8go. HBM 2 plus tard ?
Édit : Ça confirmerais le lancement en deux temps http://www.hardware.fr/news/14208/ [...] temps.html

Message cité 1 fois
Message édité par Zurkum le 20-05-2015 à 11:10:21
mood
Publicité
Posté le 20-05-2015 à 10:54:26  profilanswer
 

n°9494235
genom
urinam non decolor unda
Posté le 20-05-2015 à 11:15:33  profilanswer
 

 

tiens ils se mettent à faire du ragotage maintenant, après videocardz se plaint de ne pas avoir été invité à la conf sur la HBM :lol: masstroll effect :D le 3ème effet play..school


Message édité par genom le 20-05-2015 à 14:28:48
n°9494237
lapin
Posté le 20-05-2015 à 11:19:48  profilanswer
 

vous savez que la compression non destructive ça existe, aussi un meilleur taux de compression est possible, en suite on pourrait mettre de la EDRAM dans le GPU directement cet EDRAM pourrait être équivalent à la quantité de mémoire du Frambuffer vidéo d'un affichage 4K en MSAA 4X et le tour est jouer et pas besoin de buffer vidéo en HMB, la HMB ne conservant plus que les Textures et les polygones et les données généralistes et les instructions.
 
64 Méga Octet Embarquer directement dans le GPU c'est possible du moins en 1 T Sram, aider d'un taux de compression plus fort que Hawaï ou est le problème.
 
ils arrivent bien à le faire pour la Xbox-One, pourquoi pas sur PC et je le rappel la 1T sram même si c'est pas dans le même DIE mais sur le même package on s'en sert déjà dans les GameCube, WII et WII U même si c'est plutôt 24 Méga Octet.

n°9494255
leonidas21
Μολoν λαβέ
Posté le 20-05-2015 à 11:44:38  profilanswer
 

drapal


---------------
Le vélo c'est la vie
n°9494261
genom
urinam non decolor unda
Posté le 20-05-2015 à 11:50:19  profilanswer
 

c'est intéressant, tiens ça me donne une idée (à prendre avec humour).
 
What a fantastic news we have to share today, The beer man and the rabbit go AMD engineering !  
traduction françois : nos espions HFR sont en place incognito :D si tu fais marcher ton cerveau, tu débouche sur... Lisa in wonderland :D et si tu veux aller encore plus loin, Lisa - Alis  :wahoo:  
 
la réponse d'AMD : We've been hacked by middlemans. We couldn't figure out how this happened, but fore sure, these hackers were wearing strange clothes, one looking like a bear, no a beer, a beer you said ? Yep and a strange animal partner like, hum.... I couldn't clearely define what sort it was. (cf la news sur la data privacy)
 
http://img.escapade.co.uk/SALEHIRE/Large/6030.jpg?2
http://images.halloweencostumes.com/products/4756/1-1/white-rabbit-adult-costume.jpg


Message édité par genom le 20-05-2015 à 13:04:12
n°9494351
Fouge
Posté le 20-05-2015 à 13:40:28  profilanswer
 

lapin a écrit :

64 Méga Octet Embarquer directement dans le GPU c'est possible du moins en 1 T Sram, aider d'un taux de compression plus fort que Hawaï ou est le problème.

 

ils arrivent bien à le faire pour la Xbox-One, pourquoi pas sur PC et je le rappel la 1T sram même si c'est pas dans le même DIE mais sur le même package on s'en sert déjà dans les GameCube, WII et WII U même si c'est plutôt 24 Méga Octet.

Sur PC, Intel le fait déjà sur certains de ses APU Mobile, 128Mo d'eDRAM à environ 50Go/s. A voir si ça serait aussi utile que ça sur un GPU où les débits vers la GDDR5/HBM sont déjà très élevés (environ 300Go/s actuellement, sans doute près de 500Go/s pour la prochaine génération).


Message édité par Fouge le 20-05-2015 à 13:40:48
n°9494438
aliss
Rhyme the Rhyme Well
Posté le 20-05-2015 à 15:29:32  profilanswer
 

Macri didn’t specifically say that the company’s first HBM card would be limited to 4GB of RAM, but with most of AMD’s illustrations, including one used here, showing four stacks each with 1GB, it isn’t hard to do the math. With Nvidia pushing 12GB in its GeForce Titan X, it’s easy to see total memory used as a marketing lever to work consumer buying emotions.
 
“This might be a marketing problem,” he said, “but the end user values performance, values form factor and values power consumption.”
 
Macri also said 4GB is an “enormous” amount of RAM and there are other ways to approach it than just ladling on more and more memory.

 
http://www.pcworld.com/article/292 [...] a-too.html
 
Marrant qu'avoir plus de vram que le concurrent c'est du marketing lorsque c'est nV et futureproof lorsque ce sont leurs produits...
 
En tout cas, vu les propos tenus, la tendance est aux 4go... :o

n°9494443
- gab
Posté le 20-05-2015 à 15:33:16  profilanswer
 

aliss a écrit :

[i]Macri didn’t specifically say that the company’s first HBM card would be limited to 4GB of RAM, but with most of AMD’s illustrations, including one used here, showing four stacks each with 1GB, it isn’t hard to do the math. With Nvidia pushing 12GB in its GeForce Titan X, it’s easy to see total memory used as a marketing lever to work consumer buying emotions.


AMD ne montre que le principe de la HBM, non ? C'est pas un peu prématuré d'en conclure qu'il n'y aura que 4 Go sur leur 390X ?


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9494454
aliss
Rhyme the Rhyme Well
Posté le 20-05-2015 à 15:39:03  profilanswer
 

- gab a écrit :


AMD ne montre que le principe de la HBM, non ? C'est pas un peu prématuré d'en conclure qu'il n'y aura que 4 Go sur leur 390X ?

 

Pourquoi déclarer en conf que 4gb c'est de toute façon "énorme" et que chez le voisin c'est juste du marketing ?

 

Si ils avaient une version 8gb de dispo, je ne pense pas qu'il tiendrait ces propos, d'autant plus que la déclinaison du GM200 devrait avoir 6gb pour le coup.


Message édité par aliss le 20-05-2015 à 15:40:31
n°9494460
- gab
Posté le 20-05-2015 à 15:44:41  profilanswer
 

J'en ai aucune idée, pour mieux surprendre avec 8 go ? :D
 
Je dis pas que c'est improbable, mais quand je vois la facilité avec laquelle certains sites sautent aux conclusions sur la base d'infos parcellaires... :/


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9494465
moggbomber
War, war never changes
Posté le 20-05-2015 à 15:50:30  profilanswer
 

j'irais pas jusqu'à dire que ca pue une petit peu mais y a quand même n petite odeur qui traine j'ai l'impression.
une carte en retard c'est quand souvent synonyme de soucis.
et je j'ajouterais que si elle poutrait vraiment sa maman je pense pas qu'ils feraient autant les discrets.
 
mais il reste encore plus d'un mois :D
(au mieux [:ddr555] )
 


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°9494471
aliss
Rhyme the Rhyme Well
Posté le 20-05-2015 à 15:56:56  profilanswer
 

- gab a écrit :

J'en ai aucune idée, pour mieux surprendre avec 8 go ? :D
 
Je dis pas que c'est improbable, mais quand je vois la facilité avec laquelle certains sites sautent aux conclusions sur la base d'infos parcellaires... :/


 
En tout cas, l'utilité de la quantité de vram embarquée, c'est à géométrie variable chez eux...
 

Spoiler :

http://tech4gamers.com/wp-content/uploads/2015/01/amd4gb-640x400.jpg
 
 :o


 
 

n°9494485
duflotte
Posté le 20-05-2015 à 16:09:46  profilanswer
 

overclockpro a écrit :

Oui, mais AMD pouvait alors partir sur de la GDDR5 + bus 512 bits avec 8 Go. Même si la consommation aurait été plus élevée, on aurait eu 8 Go. Cela aurait été un choix plus judicieux que 4 Go d'HBM. Surtout pour une carte qui vise le 4K.


 
 
qu'en sais tu ?

n°9494510
Pipould's
Posté le 20-05-2015 à 16:31:09  profilanswer
 
n°9494514
Zurkum
Posté le 20-05-2015 à 16:35:46  profilanswer
 

Crap cela dit ça commençait à se dessiner.

n°9494517
Pipould's
Posté le 20-05-2015 à 16:37:08  profilanswer
 

AMD's CTO, Joe Macri, explained the 4GB limitation to Ars in a telephone call:
 
    "You're not limited in this world to any number of stacks, but from a capacity point of view, this generation-one HBM, each DRAM is a two-gigabit DRAM, so yeah, if you have four stacks you're limited to four gigabytes. You could build things with more stacks, you could build things with less stacks. Capacity of the frame buffer is just one of our concerns. There are many things you can do to utilise that capacity better. So if you have four stacks you're limited to four [gigabytes], but we don't really view that as a performance limitation from an AMD perspective."
 
    "If you actually look at frame buffers and how efficient they are and how efficient the drivers are at managing capacities across the resolutions, you'll find that there's a lot that can be done. We do not see 4GB as a limitation that would cause performance bottlenecks. We just need to do a better job managing the capacities. We were getting free capacity, because with [GDDR5] in order to get more bandwidth we needed to make the memory system wider, so the capacities were increasing. As engineers, we always focus on where the bottleneck is. If you're getting capacity, you don't put as much effort into better utilising that capacity. 4GB is more than sufficient. We've had to go do a little bit of investment in order to better utilise the frame buffer, but we're not really seeing a frame buffer capacity [problem]. You'll be blown away by how much [capacity] is wasted."

Message cité 2 fois
Message édité par Pipould's le 20-05-2015 à 16:37:47
n°9494521
Pipould's
Posté le 20-05-2015 à 16:39:29  profilanswer
 
n°9494525
- gab
Posté le 20-05-2015 à 16:43:14  profilanswer
 

Pipould's a écrit :

AMD's CTO, Joe Macri, explained the 4GB limitation to Ars in a telephone call:

 

   "You're not limited in this world to any number of stacks, but from a capacity point of view, this generation-one HBM, each DRAM is a two-gigabit DRAM, so yeah, if you have four stacks you're limited to four gigabytes. You could build things with more stacks, you could build things with less stacks. Capacity of the frame buffer is just one of our concerns. There are many things you can do to utilise that capacity better. So if you have four stacks you're limited to four [gigabytes], but we don't really view that as a performance limitation from an AMD perspective."


D'un côté il dit qu'on peut faire varier le nombre de stacks, de l'autre que de toute façon y a largement moyen d'optimiser pour que ça passe avec 4... Bon, on y verra plus clair dans quelques semaines :D

 

Le truc un peu moche quand même c'est ça :

 
Citation :

While AMD has yet to reveal specifics of what that product might be, it did tell us that it'll be a GPU, it'll be priced towards the higher end of the spectrum, and that you'll be able to walk into a store and buy one within "the next couple of months."


A ce stade c'est plus "the next couple of weeks" qu'on espère entendre :o


Message édité par - gab le 20-05-2015 à 16:44:28

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9494527
bab55
I am the Night Rider
Posté le 20-05-2015 à 16:45:47  profilanswer
 

Il a pas tort je trouve
Après tout ces dernières année je trouve la hausse de la quantité de ram sur les cg importante, alors que celle du cpu ne bouge pas à ce point.


Message édité par bab55 le 20-05-2015 à 16:46:04
n°9494533
Pipould's
Posté le 20-05-2015 à 16:47:11  profilanswer
 

Ouai mais bon.... La 4K fait appel a un  besoin en memoire bien plus important...

n°9494541
lapin
Posté le 20-05-2015 à 16:50:15  profilanswer
 

j'ai 16 GO en DDR3 et certains ont 32 GO en DDR4 et la DDR4 pourrait monter à 128 GO, et je suis désoler mais actuellement plus de 6 à 8 GO ne sert strictement à rien en terme d'usage surtout vu de la vitesse actuel des SSD qui compensent largement les CPU n'arrivant pas à suivre.

n°9494557
lapin
Posté le 20-05-2015 à 17:00:15  profilanswer
 

Pipould's a écrit :

Ouai mais bon.... La 4K fait appel a un  besoin en memoire bien plus important...


 
en MSAA 2X et plus peut être mais en 32 bit soit 8 bit par couleur 4K c'est juste 33,75*2= 67,5MO de frambuffer, le reste ne devrait pas changer, c'est l'environnement 3D qui prend de la place, Données, objets polygonales, environnements, effet visuel, formules mathématiques et surtout Textures et éventuellement présence ou non de stéréoscopie.
 
 

n°9494563
aliss
Rhyme the Rhyme Well
Posté le 20-05-2015 à 17:04:56  profilanswer
 

Pipould's a écrit :

AMD's CTO, Joe Macri, explained the 4GB limitation to Ars in a telephone call:
 
    "You're not limited in this world to any number of stacks, but from a capacity point of view, this generation-one HBM, each DRAM is a two-gigabit DRAM, so yeah, if you have four stacks you're limited to four gigabytes. You could build things with more stacks, you could build things with less stacks. Capacity of the frame buffer is just one of our concerns. There are many things you can do to utilise that capacity better. So if you have four stacks you're limited to four [gigabytes], but we don't really view that as a performance limitation from an AMD perspective."
 
    "If you actually look at frame buffers and how efficient they are and how efficient the drivers are at managing capacities across the resolutions, you'll find that there's a lot that can be done. We do not see 4GB as a limitation that would cause performance bottlenecks. We just need to do a better job managing the capacities. We were getting free capacity, because with [GDDR5] in order to get more bandwidth we needed to make the memory system wider, so the capacities were increasing. As engineers, we always focus on where the bottleneck is. If you're getting capacity, you don't put as much effort into better utilising that capacity. 4GB is more than sufficient. We've had to go do a little bit of investment in order to better utilise the frame buffer, but we're not really seeing a frame buffer capacity [problem]. You'll be blown away by how much [capacity] is wasted."


 
Et pourtant... :D  
 
http://images.anandtech.com/graphs/graph9059/72488.png
 
http://images.anandtech.com/graphs/graph9059/72492.png
 
Ils pourraient également nous expliquer la raison des écarts entre les versions 4 et 8gb dans ce test...
 
http://www.tomshardware.com/review [...] ,3977.html

Message cité 2 fois
Message édité par aliss le 20-05-2015 à 17:05:44
n°9494565
overclockp​ro
Posté le 20-05-2015 à 17:06:35  profilanswer
 

Quelle déception ces 4 Go.  
 
D'après Macri, ce n'est pas limitant à condition d'optimiser l'occupation mémoire. Mais si cette optimisation est logicielle, via les drivers, on peut se faire du souci, vu que les pilotes AMD sortent tous les 3 - 4 mois maintenant.
 
Pour compenser cette faiblesse en 4K, soit la carte doit être au moins 20 % devant une Titan-X, soit à moins de 500 €. Sinon, je préfère prendre une GTX980TI avec 6 Go.

n°9494572
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-05-2015 à 17:10:35  profilanswer
 

aliss a écrit :


 
Et pourtant... :D  
 
http://images.anandtech.com/graphs/graph9059/72488.png
 
http://images.anandtech.com/graphs/graph9059/72492.png
 
Ils pourraient également nous expliquer la raison des écarts entre les versions 4 et 8gb dans ce test...
 
http://www.tomshardware.com/review [...] ,3977.html


Pourquoi se justifier sur le passé alors qu'il est clairement question de futur et d'un meilleur usage de la VRAM, cf. les phrases qui suivent :??:
 
 
 
 

n°9494573
- gab
Posté le 20-05-2015 à 17:13:10  profilanswer
 

overclockpro a écrit :

Quelle déception ces 4 Go.


Alors qu'on a même pas encore vu ce que ça donne ? :D

 

Je suis d'accord qu'ils vont devoir la jouer fine s'ils se contentent de 4 go sur le haut de gamme, en même temps ils annoncent un nouveau paradigme donc il faudra juger sur pièces.


Message édité par - gab le 20-05-2015 à 17:13:40

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9494576
mum1989
Posté le 20-05-2015 à 17:16:38  profilanswer
 

aliss a écrit :


 
Et pourtant... :D  
 
http://images.anandtech.com/graphs/graph9059/72488.png
 
http://images.anandtech.com/graphs/graph9059/72492.png
 
Ils pourraient également nous expliquer la raison des écarts entre les versions 4 et 8gb dans ce test...
 
http://www.tomshardware.com/review [...] ,3977.html


un contre exemple avec un jeu récent et gourmand :
http://gamegpu.ru/images/remote/ht [...] 3_vram.jpg

n°9494577
lapin
Posté le 20-05-2015 à 17:16:40  profilanswer
 

mes histoires de meilleurs taux de compression passe dans le vent on dirait, j'ai si peux de crédibilité pour que personnes ne lisent mes postes !!??

n°9494578
- gab
Posté le 20-05-2015 à 17:17:42  profilanswer
 

Fallait en faire une news avec un titre racoleur sur un site à clics, là tout le monde aurait lu et relayé :o


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9494580
overclockp​ro
Posté le 20-05-2015 à 17:18:22  profilanswer
 

Marc a écrit :


Pourquoi se justifier sur le passé alors qu'il est clairement question de futur et d'un meilleur usage de la VRAM, cf. les phrases qui suivent :??:
 
 
 
 


 
Dans le futur test de la 390X, serait-il possible de tester en 4K des jeux gourmands en mémoire graphique (Shadow of Mordor, GTA V..), de donner l'occupation mémoire pour chaque jeu et les fps minima ? Afin d'évaluer l'impact de ces 4 Go HBM aujourd'hui.
 
Merci.

n°9494587
aliss
Rhyme the Rhyme Well
Posté le 20-05-2015 à 17:25:06  profilanswer
 

Marc a écrit :


Pourquoi se justifier sur le passé alors qu'il est clairement question de futur et d'un meilleur usage de la VRAM, cf. les phrases qui suivent :??:


 
Car c'est du concrêt et que pour le moment concernant Fiji de belles promesses ?
 
J'attends de voir hein, mais si ça dépend en partie des drivers, c'est une source de soucis supplémentaire... :o  

n°9494589
lapin
Posté le 20-05-2015 à 17:27:47  profilanswer
 

il me semble que la compression est semi-Hardware, mais que c'est piloté et optimiser via les drivers, enfin ça je l'ai compris dans les Radeon HD 5800 et plus qui introduisant une nouvelle forme de compression non destructive de meilleur qualité que le S3TC/DXTC.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  100  101  102  ..  399  400  401  402  403  404

Aller à :
Ajouter une réponse
 

Sujets relatifs
Carte Graphique 250€ (AMD/NVIDIA)Radeon R9 280X Tri-X, 3Go ou GeForce GTX 770
Portable pas cher : Intel Celeron N2830 2,16 GHz ou AMD E1-2100 1GHz ?CPU ET CM Choix pour 300 euro max
R9 280X a 15€ ^^R9 290 Tri-X Chauffe beaucoup
Carte graphique R9 290 ou GTX 770 ?R9 290 Trix OC (besoin de conseils sur refroidissement)
Upgrade Radeon 5770 -> GeForce 750 
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)