Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1671 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Auteur Sujet :

[HFR] Actu : Radeon Vega Frontier Edition 16 Go: dispo fin juin

n°10149614
Gazette
Posté le 17-05-2017 à 12:11:30  profilanswer
0Votes positifs
 

Reprise du message précédent :

tridam a écrit :

Voilà ce qu'écrit Raja Koduri sur Radeon.com au sujet de Vega gamer :
 

Citation :

The Radeon Vega Frontier Edition graphics card is going to empower the pioneers creating the next generation of gaming experiences, but it does beg one question: Can you game on a Radeon Vega Frontier Edition?  The answer is yes, absolutely.  But because this graphics card is optimized for professional use cases (and priced accordingly), if gaming is your primary reason for buying a GPU, I’d suggest waiting just a little while longer for the lower-priced, gaming-optimized Radeon RX Vega graphics card. You’ll be glad you did.




 
 
On a toujours eu des test jeux avec des cg et proc a plus de 1000€ parfois pour accorder le leadership de la perf et maintenant on va nous dire que c'est pas financièrement optimisé pour jouer.  :lol:

mood
Publicité
Posté le 17-05-2017 à 12:11:30  profilanswer
 

n°10149622
N0mak
Posté le 17-05-2017 à 12:16:34  profilanswer
0Votes positifs
 

Tu sais une quadro p6000 est totalement capable de faire tourner des jeux, et avec un haut niveau de performances, pourtant personne n'est assez stupide pour l'acquérir dans ce but.

n°10149623
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 12:16:59  profilanswer
0Votes positifs
 

drey19 a écrit :


 
Je pense que [...] a mettre pas mal sur du haut de gamme.


 
C'etait l'epoque de la GTX 970... a environ 300E et qui s'est bien vendue.
 
C'est pas vraiment ce que j'appelle du haut de gamme, surtout quand je vois l'ecart entre les cartes niveau core count...
 
Soit 1664 pour la GTX 970 et... un peu moins du double pour les GTX 980 Ti (2816) et Titan (3072).
 
La GTX 970 aurait du etre la GTX 960, et vendue a 250E grand max.
 
 
Le probleme, c'est que depuis Kepler v2, il y a eu un glissement vers le bas des gammes que peu de gens ont vu.
 
Aujourd'hui, on a ca:
 
x80 -> x80 Ti/Titan  
x80 -> x70
x70 -> x60
x60 -> x70
x50 -> x60
x40 -> x50
 
Par contre le bas de gamme, il a a peine change.
 
 
Bref, c'est n'est plus le prix qui determine si c'est haut de gamme ou pas cote gaming, mais le core count.

Message cité 1 fois
Message édité par Crosslink le 17-05-2017 à 12:25:21
n°10149629
Gazette
Posté le 17-05-2017 à 12:26:39  profilanswer
0Votes positifs
 

N0mak a écrit :

Tu sais une quadro p6000 est totalement capable de faire tourner des jeux, et avec un haut niveau de performances, pourtant personne n'est assez stupide pour l'acquérir dans ce but.


 
Si elle est moins perf que la 1080ti aucun intérêt, mais si elle est plus performante par contre c'est intéressant.


Message édité par Gazette le 17-05-2017 à 12:28:19
n°10149667
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 13:14:16  profilanswer
0Votes positifs
 

Si Vega est moins chere ou offre la meme chose que la GTX 1080Ti au meme prix, c'est mission accomplie.

 

De toute facon, tu ne peux pas avoir mieux des que Vega sortira.
Donc exiger plus -et pour moins cher notamment- c'est impossible, surtout si meme nVidia n'a rien a sortir de mieux que la GTX 1080 Ti au meme moment.

 

Tu devrais donc appliquer la meme logique pour nVidia, a savoir qu'une GTX 1080 Ti sera inutile a ce moment la.

 


A moins qu'nVidia nous ressorte les disquettes des GTX Titan Kepler...
(GTX Titan, GTX 780 Ti, Titan Black puis GTX Titan Z)

 

Ah, on m'informe que c'est quasiment le cas avec les GTX 1xxx...  :whistle:
(GTX Titan X, GTX 1080 Ti, GTX Titan Xp)

Message cité 1 fois
Message édité par Crosslink le 17-05-2017 à 13:28:54
n°10149691
Andorria
Posté le 17-05-2017 à 13:50:10  profilanswer
3Votes positifs
 

AMD qui n'est jamais revenu dans la course contre Intel/Nvidia depuis des années y arrive maintenant et y'a encore des gens qui se plaignent...
 
hfr  [:basongwe:1]

n°10149723
herculanum
Posté le 17-05-2017 à 14:14:32  profilanswer
0Votes positifs
 

et une carte avec une conso de 50 60 W et la puissance d'une 1060 c'est pour quand ???? :/ ...

n°10149727
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 14:20:09  profilanswer
0Votes positifs
 

Si tu es serieux, je dirais pas avant environ 3 ans.

 

Et encore, car 4 ans c'est le temps qu'a pris nVidia pour egaler une GTX 670 a 75W, avec sa GTX 1050 Ti.

 

nVidia essayant de marger comme un porc en augmentant les frequences, bridant les bus en favorisant la compression -des fois foireuse-
 plutot que d'augmenter le nombre de cores.

 

D'ailleurs, le core count n'as pas trop change depuis Kepler v2. De Tesla a Fermi par contre...
Le bus memoire pareil, on a plus jamais revu un bus 512 bit depuis les GTX 280. Alors qu'on pourrait etre en 768 ou 1024 bits maintenant...

 

Il n'y a qu'avec Volta qu'nVidia se rebouge enfin les fesses.

 
Andorria a écrit :

AMD qui n'est [...] plaignent...

 

hfr  [:basongwe:1]

 

Tant que c'est pas a moins de 100E, j'achete pas !

 

Sinon, autant prendre une GTX 2050 a 300E, parce que ca chauffe et consomme pas, meme si c'est a 175W !

 

Et surtout, le ventirad est Bo !!! Et parce que ca fait Premium avec un gros P !!!

 


Kikoo RGB vaincra !

 

:lol:

Message cité 2 fois
Message édité par Crosslink le 17-05-2017 à 14:38:16
n°10149768
t3ddy
Posté le 17-05-2017 à 15:08:14  profilanswer
8Votes positifs
 

Quand tu auras fini de déblatérer les mêmes inepties à grand renfort de suppositions sur ce que pensent ou font les gens, et ce systématiquement à chaque news... Tu fais partie de ces gens qui ne viennent cracher leur venin que pour les news et les tests.
 
On peut prendre ton "raisonnement" à l'envers, ne serait-ce que pour le bus, nvidia n'a pas besoin de bus démesurés pour faire des cartes qui tannent ou égalent la concurrence. Cela montre à quel point amd est largué en ayant besoin d'avoir recours à ces bus démesurés pour coller à son concurrent sans arriver vraiment à s'en démarquer, tout en étant obligé de se tartiner une conso plus grande et des cartes plus complexes à cause de ce fameux bus énorme qui fait bander les incultes. A mais on me signale discrètement que le bus n'est pas le seul facteur qui importe, il y a aussi la fréquence mémoire... :D
 
Et oui, il  n'y a que les kikoo qui en font que regarder les nombres ( "core count" comme tu dis dans ton sabir, largeur du bus,... ) et se féliciter quand ils changent ou quand ils sont plus grands que ceux de la concurrence, sans tenir compte de ce que cela implique sur le comportement ou les limitations de la carte. Un carte c'est un tout et ne se limite pas à un gros bus, un nombre d'unité d'exécution ou une quantité de mémoire.
 
Edit : quelqu'un d'éclairé aura remarqué que le peu d'évolution du nombre d'unité d'exécution est la plupart du temps lié un maintient de la finesse de gravure entre 2 générations/refresh. Ce n'est pas forcément un signe d'une marque qui essaie d'entuber ses clients ou qui patauge ou se la coule douce.


Message édité par t3ddy le 17-05-2017 à 15:13:02
n°10149770
samurai80
Posté le 17-05-2017 à 15:12:11  profilanswer
0Votes positifs
 

Crosslink a écrit :

Le bus memoire pareil, on a plus jamais revu un bus 512 bit depuis les GTX 280. Alors qu'on pourrait etre en 768 ou 1024 bits maintenant...

A un moment donner il faut savoir se contenter de commenter les differences en pratique en termes de perfs ou de conso, ou de nuisance, ou de prix, entre ces differentes cartes et eviter de discuter des choix techniques plus pointus :o

 

Car en termes de largeur de bus, les limites qu'on avait en 2010 (et avant) sont les memes que maintenant et tu ne verras a mon avis jamais de bus SDRAM de 1024b sur une carte PCIe. Les bus tres larges de 512b sont deja tres penibles a mettre en oeuvre. Ca a ete fait du temps ou il y avait bcp de concurrence dans le haut de gamme mais je ne pense pas que ce soit souhaitable pour nVidia ou AMD.

 

A part ca, effectivement ces gros mechants de nVidia s'en mettent plein les poches, un peu trop sans doute, mais c'est grace a leur design optimal et a AMD toujours a la traine :o

Message cité 1 fois
Message édité par samurai80 le 17-05-2017 à 15:12:50
mood
Publicité
Posté le 17-05-2017 à 15:12:11  profilanswer
 

n°10149785
samurai80
Posté le 17-05-2017 à 15:32:18  profilanswer
0Votes positifs
 

Crosslink a écrit :

Le probleme, c'est que depuis Kepler v2, il y a eu un glissement vers le bas des gammes que peu de gens ont vu.
 
Aujourd'hui, on a ca:
 
x80 -> x80 Ti/Titan  
x80 -> x70
x70 -> x60
x60 -> x70
x50 -> x60
x40 -> x50
 
Par contre le bas de gamme, il a a peine change.
 
 
Bref, c'est n'est plus le prix qui determine si c'est haut de gamme ou pas cote gaming, mais le core count.


Pour le prix, c'est clair que ca augmenté, mais pour le glissement vers le bas de gamme je ne suis pas d'accord.
 
La x80 a toujours ete et est toujours le premier GPU sorti pour une nouvelle archi.
 
Avec le deep learning et de plus en plus d'applications GPU computing, les Ti sont apparus plus ou moins par derivation des composants pour GPU computing.
 
Et concernant la disparition des x40, cela vient plus du fait qu'on trouve plus d'IGP qu'autrefois.
 
Et a mon humble avis le core count ne determine grand chose non plus, il y a beaucoup trop de parametres en jeu... Les tests de HFR permettent de se faire une bien meilleure idee.

n°10149808
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 16:12:33  profilanswer
0Votes positifs
 

t3ddy a écrit :

Quand tu auras fini [...] coule douce.


 
Quand tu auras fini de laisser ces cretins de kikoos dire n'importe quoi en leur laissant la place de parler a grand renfort de deni, et ce a chaque news...et qu'au final on se retrouve avec un manque de concurrence qu'on est tous en train de payer, tu me feras signe concernant la fin de tes inepties.
Tu fait partie de ces gens qui font rien et qui vont surement se plaindre de payer trop cher, a cause d'une "masse" qui se fait de plus en plus grande; et qui influencent ceux qui sont legitimement pas au courant.
 
Des kikoos comme ca, t'en a a la pelle ici et si tu veux les voir dans toute leur splendeur va sur Dealabs.
 
Ca va la niveau ton ? J'ai ete aussi pertinent que toi ?
 
 
On peut prendre ton "raisonnement" dans le bon sens, avec Intel.
Si tu aimes la stagnation technologique parce qu'un concurrent ne suit pas, tout en payant le prix fort; ne vient pas parler au nom de tout les autres qui je pense sont une majortie a en avoir ras le cul.
Meme logique avec nVidia.
 
Pour ce qui est d'AMD, et vu sa situation etant donne qu'il a plus besoin du refonte d'architecture avant d'augementer son bus, contrairement a nVidia; on a vu que meme en ayant sensiblement la meme bande passante et le meme core config, AMD a quand meme reussi a augmenter sensiblement les perfs grace... a la frequence !
 
http://www.hardware.fr/articles/94 [...] laris.html
 
 
Par contre, avant de parler d'inculte, renseigne toi vraiment avant de monter sur tes grands chevaux.
 
De un, si la conso d'AMD a ete decriee avec les RX 290X, c'est a cause de la double precision qu'ils n'arrivent pas a brider ou scinder de leur cartes et non a cause du bus comme tu aimerais faire croire. Chose qu'nVidia est arrive a faire depuis Maxwell au plus tard.
 
Je ne vois pas en quoi c'est plus complexe en terme de bus, ca fait presque 10 ans que les deux savent faire un bus 512 bit.
 
De deux, tu es vraiment l'ironie du sort incarne vu comment tu bande sur les frequences, comme pour les Pentiums 4 Prescott a l'epoque.
Sache l'inculte que ca a un cout ces hautes frequences, et ca s'appelle la latence.
Donc t'es oblige d'avoir une super grande frequence pour compenser ca, bravo la consommation ! :o:
 
Ah et, on me murmure a l'oreille que plus tu part d'une frequence elevee, moins ton chaque pas de ton overclocking sera effectif, bravo encore !
 
Mais bon, hein, il y en a qui comprennent pas que passer de 1.5Ghz a 2Ghz c'est forcement moins gros que de passer de 1.1Ghz a 1.5Ghz. Oh wait, c'etait le passage de Maxwell a Pascal ca.
 
Donc, avant de me dire que je me repose sur que sur les chiffres, reflechis-y serieusement de nouveau pour ton cas.
 
 
Edit:
 
Je vais te dire, quand on passe du 28nm a du 16nm:
 
- Car ca coute deja moins cher a fabriquer (GTX 980 au prix d'une GTX 970, soit 300E).
- Mais que la frequence augmente substantiellement par rapport au core count qui meme lui diminue (GTX 980 -> GTX 1060; 2048 -> 1280).
- Que le bus memoire passe de 256 bit a 192 bits.
- Alors que t'aurais pu avoir le meme core count de la GTX 980 avec la frequence de la GTX 1060, tout en consommant autant que la premiere et toujours a 300E.
 
Ben j'appelle ca de l'entubage, meme si t'aimes pas.
 
Mais bon, c'est pas comme si Intel le faisait aussi hein, avec 30% de perfs en plus a meme frequence en 10 ans !

Message cité 1 fois
Message édité par Crosslink le 17-05-2017 à 16:21:01
n°10149813
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 16:19:44  profilanswer
0Votes positifs
 

samurai80 a écrit :


Pour le prix, c'est [...] bien meilleure idee.


 
Depuis Kepler les x80 ne sont plus vraiment des haut de gamme, etant donne qu'nVidia sort du milieu de gamme (GK104, GM204, GP104) avant de sortir son haut de gamme apres comme les x80Ti et Titan (GK110, GM200, GP100, GV100).
 
 
Je ne prend pas en compte le bi-GPU qui etait vraiment justifie en tant que carte ultime.
 
En plus de sortir des puces completes des qu'une nouvelle architecture sortait: G80, GT200, GF100.
 
 
On est ok pour le core count qui ne fait pas tout, mais j'aurais aime bien plus d'evolutions architecturales pour le passage de Maxwell a Pascal, qui reste du Maxwell un peu ameliore.

Message cité 1 fois
Message édité par Crosslink le 17-05-2017 à 18:49:03
n°10149818
samurai80
Posté le 17-05-2017 à 16:25:53  profilanswer
0Votes positifs
 

Crosslink a écrit :


 
Depuis Kepler v2 les x80 ne sont plus vraiment des haut de gamme a cause des x80 Ti et Titan... :/
 
Je ne prend pas en compte le bi-GPU qui etait vraiment justifie en tant que carte ultime.
 


J'ai jamais dit que les x80 etait toujours le haut de gamme, j'ai dit que c'etait toujours la premiere carte a sortir avec une nouvelle archi. Il ne s'agit pas de glissement vers le bas de gamme mais de l'insertion des Ti et Titan en plus, qui sont des ajouts dus au GPU computing notamment, qui n'existait pas avant.

n°10149821
Andorria
Posté le 17-05-2017 à 16:26:32  profilanswer
2Votes positifs
 

Citation :

- Car ca coute deja moins cher a fabriquer (GTX 980 au prix d'une GTX 970, soit 300E).


 
Je quote ceci car c'est faux. C'est pas parce que la taille du die diminue que c'est moins cher, puisque les nouveaux nodes sont très compliqués à mettre en place du coup le prix au mm² "explose".

n°10149824
SirGallaha​d
What's your favorite color ?
Posté le 17-05-2017 à 16:34:08  profilanswer
2Votes positifs
 

Par curiosité, on a une idée du coût de la puce seule ?
Car même si le coup pour une puce "explose", pour reprendre les termes de Andorria, ils en fabriquent forcement aussi plus par waffer dont le prix (sauf erreur) ne change pas.  
Du coup, y a t'il réellement une augmentation du prix de la puce ? Si oui, est elle si grande que cela ?
 
Car si on regarde la marge nette de nVidia sur leur dernier exercice, j'ai des doute sur cette augmentation de tarif.

n°10149826
samurai80
Posté le 17-05-2017 à 16:35:15  profilanswer
1Votes positifs
 

Crosslink a écrit :


Si tu aimes la stagnation technologique parce qu'un concurrent ne suit pas, tout en payant le prix fort; ne vient pas parler au nom de tout les autres qui je pense sont une majortie a en avoir ras le cul.


:??:
Donc t'es en train de nous dire qu'on est tous des pigeons parce qu'on achete du matos nVidia au prix fort, parce qu'il nous semble que ca le valait, et ce, pauvres idiots que nous sommes, sans penser que ca empirerait la situation de la concurrence sur les GPUs ?
 
Genre il faut lancer la revolte et tous acheter des produits qui nous plaisent moins pour donner une bouffee d'air frais a AMD aux abois :??: Bon ok le liberalisme c'est mal tout ca tout ca, mais c'est pas un peu abuse quand meme ? :sweat:

n°10149828
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 16:37:37  profilanswer
0Votes positifs
 

Andorria a écrit :


 
Je quote ceci car c'est faux. [...] au mm² "explose".


 
Ca depend du yield je dirais.
 
Si nVidia etait a la peine comme AMD avec son 14nm, la je comprendrais.
 
Mais la, passer de 1.5Ghz max en 28nm a 2Ghz max en 16nm...
 
Le yield a du etre plus que tres bon meme :D


Message édité par Crosslink le 17-05-2017 à 18:54:55
n°10149831
havoc_28
Posté le 17-05-2017 à 16:38:17  profilanswer
1Votes positifs
 

Crosslink a écrit :

nVidia essayant de marger comme un porc en augmentant les frequences, bridant les bus en favorisant la compression -des fois foireuse- plutot que d'augmenter le nombre de cores.


 
Hum, je n'ai pas vu de papier ou des rapports, comme quoi les algorithmes de compression du frame buffer provoquaient des artefacts visuels, ou des dégradations visibles de la qualité perçue des textures et autre. HFR et d'autres ont  par le passé répertorié les cas chez l'un ou l'autre où il y avait des cas de "triches" au niveau de la qualité de filtrage texture etc.  
 
Donc si tu as un papier technique répertoriant des soucis au niveau de ces algorithmes, merci de nous les faire partager.  
 
Sinon, d'un point de vue économique, c'est plus intéressant pour Nvidia d'avoir des cartes avec des DIE plus petits et un bus mémoire moins large histoire d'avoir un PCB plus facile à router au niveau des pistes de la GDDR. S'ils arrivent au niveau de performance souhaité avec un Bus compacte en utilisant de la ram rapide je ne vois pas où ça pose problème.
 
Les gros bus de 512 bits c'était utilisé à l'époque quand on manquait de bande passante mémoire, ou que le contrôleur mémoire maison peinait à monter en fréquence.
 

samurai80 a écrit :

Car en termes de largeur de bus, les limites qu'on avait en 2010 (et avant) sont les memes que maintenant et tu ne verras a mon avis jamais de bus SDRAM de 1024b sur une carte PCIe. Les bus tres larges de 512b sont deja tres penibles a mettre en oeuvre.


 
C'est toujours plus économique (le bus 512 bits) par contre qu'un interposer pour la HBM :D.

Message cité 1 fois
Message édité par havoc_28 le 17-05-2017 à 17:08:17
n°10149833
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 16:39:23  profilanswer
0Votes positifs
 

samurai80 a écrit :


:??:
Donc t'es en train de [...] meme ? :sweat:


 
Perso, chaque achat est une decision politique economique malgre tout.
Apres, si vous aimez ce que vous achetez ok, ca me derange aucunement.
 
Mais si vous le faites parce que quelqu'un n'arrete pas de dire des anneries (la carte est Bo, c'est "Premium", "Drivers AMD caca", "chauffe !" -sans regarder le ventirad-, GTX 960 > RX 480, etc), la par contre...
 
 
Comment crois-tu que les sondages et le "vote utile" sont si importants alors que c'est ce qu'il y a de plus anti-democratique pendant les elections ? :D
 
 
Perso, j'ai fait parti de ces kikoos il y a bien longtemps, mais je l'admet.
 
Et ce, en ayant pris -pas pour moi en plus, oups- un Core 2 Duo qui revenait plus cher qu'un Phenom II X2 parce que je voyais qu'un seul Benchmark: Crysis.
 
Ou Intel sortait "grand" vainqueur.

Message cité 1 fois
Message édité par Crosslink le 17-05-2017 à 19:17:34
n°10149837
samurai80
Posté le 17-05-2017 à 16:42:21  profilanswer
0Votes positifs
 

Crosslink a écrit :

 

Perso, chaque achat est une decision politique.

 

Apres, si vous aimez ce que vous achetez ok.

 

Mais si vous le faites parce que quelqu'un n'arrete pas de dire des anneries (c'est Bo, c'est "Premium", etc), la par contre...

 


Comment crois-tu que les sondages sont si importants alors que c'est ce qu'il y a de plus anti-democratique pendant les elections ? :D


Je te dis perso je m'embarasse pas des details. Mon boss a mon taf c'est la meme chose, il s'en fout de comment je procede, il regarde les resultats, point (on regarde les resultats en details cela dit). Le reste c'est pour ma culture personnelle (mais ca m'interesse aussi, sans pour autant influencer mon choix).


Message édité par samurai80 le 17-05-2017 à 16:46:59
n°10149839
samurai80
Posté le 17-05-2017 à 16:45:50  profilanswer
0Votes positifs
 

havoc_28 a écrit :

Sinon, d'un point de vue économique, c'est plus intéressant pour Nvidia d'avoir des cartes avec des DIE plus petits et un bus mémoire moins large histoire d'avoir un PCB plus facile à router au niveau des pistes de la GDDR. S'ils arrivent au niveau de performance souhaité avec un Bus compacte en utilisant de la ram rapide je ne vois pas où ça pose problème.

Clairement mon avis aussi :jap:
 

havoc_28 a écrit :

C'est toujours plus économique (le bus 512 bits) par contre qu'un interposer pour la HBM :D.

Pour etre honnête j'en ai aucune idee mais si tu le dis :jap:

n°10149860
The_Balrog
Et là, c'est le drame...
Posté le 17-05-2017 à 17:14:42  profilanswer
0Votes positifs
 

Mwé mwé mwé interessant, mais.... BON, ET LA VERSION GRAND PUBLIQUE BOURDEL?
Core i9, Ryzen 9, Vega Frontier edition, c'est bien gentl, mais ça ne touche pas grand monde :o

n°10149863
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 17:17:26  profilanswer
0Votes positifs
 

havoc_28 a écrit :


 
Hum, je n'ai pas vu de papier ou des rapports, comme quoi les algorithmes de compression du frame buffer provoquaient des artefacts visuels, ou des dégradations visibles de la qualité perçue des textures et autre. HFR et d'autres ont par le passé répertorié les cas chez l'un ou l'autre où il y avait des cas de "triches" au niveau de la qualité de filtrage texture etc.  
 
Donc si tu as un papier technique répertoriant des soucis au niveau de ces algorithmes, merci de nous les faire partager.  
 
Sinon, d'un point de vue économique, c'est plus intéressant pour Nvidia d'avoir des cartes avec des DIE plus petits et un bus mémoire moins large histoire d'avoir un PCB plus facile à router au niveau des pistes de la GDDR. S'ils arrivent au niveau de performance souhaité avec un Bus compacte en utilisant de la ram rapide je ne vois pas où ça pose problème.
 
Les gros bus de 512 bits c'était utilisé à l'époque quand on manquait de bande passante mémoire, ou que le contrôleur mémoire maison peinait à monter en fréquence.
 
 
 
C'est toujours plus économique (le bus 512 bits) par contre qu'un interposer pour la HBM :D.


 
Pour la compression, j'essaye de retrouver la news dessus mais j'y arrive pas.
 
De ce que je me rappelle, c'etait le Comptoir du Hardware qui faisait etat d'un bug sur Mawell et Pascal.
 
Ca faisait des "points" bizarres qui apparaissaient ou textures glitches violets ou ; pour le jeu j'ai le souvenir d'un The Division voire ptet avec Deus Ex.
 
Le gars qui avait des problemes avait meme fait une video sur Youtube.
 
 
Pour ce qui est de la largeur du bus, ca a souvent ete vu dans les tests qu'un bus plus grand arrivait a tenir par rapport aux cartes tronquees quand il y a besoin. (G80 vs G92, Tahiti Pro vs Tonga Pro, etc)
 
 
Concernant la rentabilite en faisant ce qu'il font, ca je ne nie pas. Si le tarif pouvait suivre par contre...

Message cité 1 fois
Message édité par Crosslink le 17-05-2017 à 17:29:06
n°10149871
havoc_28
Posté le 17-05-2017 à 17:26:24  profilanswer
2Votes positifs
 

Crosslink a écrit :

De ce que je me rappelle, c'etait le Comptoir du Hardware qui faisait etat d'un bug sur Mawell et Pascal.
 
Ca faisait des textures glitches violets; pour le jeu j'ai le souvenir d'un The Division voire ptet avec Deus Ex.
 
Le gars qui avait des problemes avait meme fait une video sur Youtube.


 
Ce que tu décris ressemble plus à un problème de drivers épisodique, qui a été résolu depuis, sinon ça continuerait d'en parler.

n°10149880
pinpinb
Posté le 17-05-2017 à 17:34:18  profilanswer
0Votes positifs
 

Non, j'ai bien souvenir d'un soucis sur la façon dont le driver/gpu interprétait/rendait certaines commandes. Et ça avait été mis en évidence avec des triangles superposés . HFR en a fait une news/focus.

n°10149881
havoc_28
Posté le 17-05-2017 à 17:35:09  profilanswer
0Votes positifs
 

pinpinb a écrit :

Non, j'ai bien souvenir d'un soucis sur la façon dont le driver/gpu interprétait/rendait certaines commandes. Et ça avait été mis en évidence avec des triangles superposés . HFR en a fait une news/focus.


 
ça été résolu depuis non ? Car de Focus sur ça j'en vois pas. ça n'a pas défrayé la chronique et ça n'a pas laissé de se-quel donc j'ai pas l'impression que ça été un problème au final.
 
edit : http://www.hardware.fr/news/14729/ [...] ascal.html
 
oui, mais non.


Message édité par havoc_28 le 17-05-2017 à 17:39:51
n°10149907
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 18:03:38  profilanswer
0Votes positifs
 

Faut vraiment que je retrouve cette news, de memoire le probleme etait pas reparable aussi facilement.
 
 
Ca depend, pour les 3.5Go de la GTX 970, ca a fait un pic et apres plus rien.
 
Tout comme la desactivation de l'Async Compute sur GCN 1, plus de nouvelles:
 
http://www.comptoir-hardware.com/a [...] rone-.html
 
Edit:
 
Chic c'est revenu !
 
https://www.reddit.com/r/Amd/commen [...] ince_1692/

Message cité 1 fois
Message édité par Crosslink le 17-05-2017 à 19:01:48
n°10149908
havoc_28
Posté le 17-05-2017 à 18:05:35  profilanswer
0Votes positifs
 

Crosslink a écrit :

Ca depend, pour les 3.5Go de la GTX 970, ca a fait un pic et apres plus rien.


 
ça affectait les perfs les 3.5 go "rapide" et les 0.5 go lent de la GTX 970 ?

n°10149909
Yeagermach​42
Posté le 17-05-2017 à 18:06:06  profilanswer
1Votes positifs
 

havoc_28 a écrit :


 
ça affectait les perfs les 3.5 go "rapide" et les 0.5 go lent de la GTX 970 ?


Non

n°10149918
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 18:25:15  profilanswer
0Votes positifs
 

Euh si, des que tu depassait les 3.5Go de RAM tu avais du stuttering; chose pas forcement perceptible avec les fps min, mais avec le frame time oui.
 
Ca a ete decouvert pour la premiere fois sur Far Cry 4.
 
D'ailleurs, nVidia a meme eu une class-action pour ce probleme, probleme reconnu legalement donc.

Message cité 1 fois
Message édité par Crosslink le 17-05-2017 à 18:43:46
n°10149921
Yeagermach​42
Posté le 17-05-2017 à 18:30:11  profilanswer
1Votes positifs
 

Crosslink a écrit :

Euh si, des que tu depassait les 3.5Go de RAM.
 
Ca a ete decouvert pour la premiere fois sur Far Cry Primal.
 
D'ailleurs, nVidia a meme eu une class-action pour ce probleme.


Et ca affectait pas beaucoup les perfs ... Vu que Nvidia a utilisé ses relations avec les devs et ses équipes drivers pour "effacer" le problème.
 
http://www.hardware.fr/focus/106/g [...] 6-bit.html
 
La class action était sur le mensonge.

n°10149932
Crosslink
A mort les kikoos '#Premium' !
Posté le 17-05-2017 à 18:45:05  profilanswer
0Votes positifs
 

Du coup, ca explique pourqoi ca s'est "calme" aussi vite. :D


Message édité par Crosslink le 17-05-2017 à 19:18:35
n°10149971
superradad​a
Posté le 17-05-2017 à 19:25:37  profilanswer
1Votes positifs
 

Vivement la sorti de Vega grand public.
AMD a travailler dur ses dernier temps et ils ont vraiment fait un bon travail.
Il relance brillamment la concurrence et sa fait plaisir.

n°10149983
havoc_28
Posté le 17-05-2017 à 19:38:55  profilanswer
0Votes positifs
 

superradada a écrit :

Vivement la sorti de Vega grand public.
AMD a travailler dur ses dernier temps et ils ont vraiment fait un bon travail.
Il relance brillamment la concurrence et sa fait plaisir.


 
C'est valable pour l'architecture Zen niveau CPU, ça reste à confirmer pour Vega et les GPU ^^.


Message édité par havoc_28 le 17-05-2017 à 19:39:20
n°10149988
HashBoost
Posté le 17-05-2017 à 19:46:12  profilanswer
1Votes positifs
 

Pour ceux qui recherchent le meilleur rapport qualité/prix, j'espère que vous avez lu la news d'avant qui parle des difficultés (et donc du tarif assez élevé) de la HBM2. AMD a décidé de beaucoup miser sur cette mémoire avec un succès modéré pour l'instant, et les nouvelles qui arrivent ne semblent pas aller en leur faveur. Je pense donc qu'il va peut être falloir commencer a modérer votre ardeur sur le "super-produit-qui-tue-NVidia" et penser à un plan B.

n°10150004
HashBoost
Posté le 17-05-2017 à 20:12:55  profilanswer
6Votes positifs
 

Crosslink a écrit :

Pour la compression, j'essaye de retrouver la news dessus mais j'y arrive pas.


On a tous compris ton jeu, Crosslink, pas la peine de chercher. Tu es capable de nous inventer n'importe quoi pour exister.

n°10150006
Riseoflege​nds
Posté le 17-05-2017 à 20:14:44  profilanswer
0Votes positifs
 

Citation :


Ca faisait des "points" bizarres qui apparaissaient ou textures glitches violets ou ; pour le jeu j'ai le souvenir d'un The Division voire ptet avec Deus Ex.


 
Ouais, mais on s'en bat les couilles vu que ça a été rapidement corrigé sans perte de perf.
 
De plus Nvidia est "meilleur" actuellement normal qu'on ait envie d'acheter chez eux. J'ai pris une gt 1080 fin juin et j'en profite depuis bientôt une année.
Les perf continuent d'augmenter rapidement et volta augure aussi un bon gros gain (+50% de core d'après le GV100).
 
La stagnation des CPU c'est aussi qu'on a atteins les limite de la technologie. A part augmenter le nombre de coeur il n'y a plus grand chose à faire. (Tu peux toujours bosser la mémoire : Cache L4, DDR5,...).

n°10150010
valeoscoot
Posté le 17-05-2017 à 20:17:16  profilanswer
0Votes positifs
 

YES !

n°10150016
Yeagermach​42
Posté le 17-05-2017 à 20:19:48  profilanswer
0Votes positifs
 

HashBoost a écrit :


On a tous compris ton jeu, Crosslink, pas la peine de chercher. Tu es capable de nous inventer n'importe quoi pour exister.


Il y a (avait) vraiment un problème avec le tile caching et certains jeux.
 
http://www.hardware.fr/news/15027/ [...] ascal.html

n°10150037
valeoscoot
Posté le 17-05-2017 à 20:33:07  profilanswer
2Votes positifs
 

Yeagermach42 a écrit :


Il y a (avait) vraiment un problème avec le tile caching et certains jeux.
 
http://www.hardware.fr/news/15027/ [...] ascal.html


Des optimisations faisait que les Pascals avaient rattrapé AMD, c'est à dire tournaient plus vite sous DX12 que DX11, mais voilà, en regardant bien il y avait des dégardations sous DX12 et parfois des images carrément fausses. Et parès correction des bugs, on ne retrouvait pas la vitesse.
Toute manière j'ai des Maxwell et c'est tellement foireux niveau pilote que ça crains vraiment pour un usage pro. Quand aux jeux, je vois des amis dont les enfants jouent et c'est atroce la différence AMD et Nvidia. Les Nvidia n'ont jamais aucun pilote stable et quand je fais le ménage sur leurs machines, je découvre en plus les spyware Nvidia qui foutent une boxon pas possible. En gros ils mettent en mise à jour automatique, pour jouer aux derniers jeux, et ça ajouté automatiquement des spyware accompagnant les pilotes. Moi je remplace à intervalle de plusieurs mois en virant toutes les saloperies, mais usage pro. D'ailleurs chez Nvidia je suis en train de passer sur des cartes Quadro pas trop chères. Même si très peu performantes, au moins les pilotes sont stables. Et si je passe pas à AMD parce que je n'ai pas envie d'épurer le système de toutes les incompatibilités des anciens pilotes Nvidia et nouveaux AMD. bref, quand je nettoierai tout ça je réinstallerai de l'AMD heut de gamme et du Nvidia pro low cost.
Donc Nvidia, hors de leur gamme pro à 4x le prix de la gamme identique gamer, c'est vraiment de pire en pire.  :sarcastic:

Message cité 2 fois
Message édité par valeoscoot le 17-05-2017 à 20:33:52
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : Epyc, ThreadRipper, AMD détaille sa roadmap CPU[HFR] Actu : Un (dernier ?) retard pour la HBM2 SK Hynix
[HFR] Actu : Rumeur - Core i9 et Ryzen 9 ?[HFR] Actu : Western demande un arbitrage face à Toshiba
[HFR] Actu : Concours 20 ans : réponses 
Plus de sujets relatifs à : [HFR] Actu : Radeon Vega Frontier Edition 16 Go: dispo fin juin


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR