Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1367 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  110  111  112  ..  621  622  623  624  625  626
Auteur Sujet :

[Topic Unique] AMD Vega

n°10146478
damien440
Posté le 12-05-2017 à 22:56:57  profilanswer
 

Reprise du message précédent :

havoc_28 a écrit :

Mais la HBM c'est juste de la stupide bande passante ... Oui elle a moins de latence que la GDDR, mais les GPU sont peu sensible à la latence . Y a rien à optimiser du coté des développeurs.


Encore une fois troll de compèt :bounce: , si c'était de la "si stupide BP" et que vega n'avait pas son infinity fabric (dont la BP dépend énormément), certes ça n'amènerais rien sur la balance ... mais vega étant optimisé pour ce genre de mémoire, elle en aura l'usage. Surtout dans les paramètres très poussé de texture pour les VR et les technos de fluidité lors de stream.
 

havoc_28 a écrit :

En quoi la HBM2 sera nécessaire à Volta ? En rien. A part sur le GV100 destiné aux supercalculateurs, je vois pas en quoi la HBM2 serait nécessaire dans la gamme geforce. Un GV102 avec un bus 384 bits et de la GDDR6 à 16 gb/s = 768 gb/s de BP. Avec de la GDDR6 à 14 gb/s = 672 gb/s. Soit entre 31 % et 50% de BP en plus vs le GP102 et sa GDDR5X.


Encore une fois tu ne vois pas ce qui va se passer dans les années à venir où la BP va avoir plus d'importance que la puissance même de la carte. De nouvelles techno vont commencer à se développer pour devenir plus importante qu'avant, comme l'alternate reality ou augmented reality qui demande un très bon pc et une très bonne mise en place des images, donc sans délais. AMD l'a comris, Nvivi la compris.
Évidemment ça ne va pas arriver demain mais c'est en chemin, un long chemin tout comme le 64bits et internet.
Après je m'en fous perso de ses technos mais elles permettront de mieux interagir avec notre loisir.
 

havoc_28 a écrit :

Un GV104 avec toujours un bus 256 bits avec de la GDDR6 à 14 gb/s = 448 gb/s. Soit 40 % de bande passante en plus que le GP104.
 
Conclusion la HBM2 n'a que peu d’intérêt encore une fois ...


 
Si ça n'avais que peu d’intérêt selon toi, quel est celui d'nvivi ?  
ceux qui ne vois que par des œillères de personnes bloqué à il y a 3 ou 4 gen de GPU: nous allons avoir besoin de cette puissance qui va être offerte parce qu'elle va devenir disponible.
 
Les GPU amédé (puissance brute) évolue mieux avec le temps que les GPU nvivi, ça a été retesté il y a peu (j'ai mis des liens dans ce sujet à ce propos), mais comme le mindshare nvivi pousse les gens à ne pas comprendre les futurs technos ou a juger par rapport aux besoins des technos proprio, on se retrouve avec 2 gen de retard/copié collé (680-780) sur le plan technique parce que les fanboys ne veulent pas prendre de l'amédé même pour des HTPC.
 
L’intérêt c'est le gain de place et l'interposer directement apposé sur/au coté de la puce, donc gain de temps dans le process de fab, donc économie, les GPU consommeront moins, la carte chauffera moins donc plus de surface à exploiter, la GDDR7 (oui j'en suis déjà là) va sûrement être un échec car arrivant trop peu en perf et trop chère en développement contrairement à la HBM4 qui sera bien plus mature et aura l'avantage de ne pas prendre plus de place.
Si les constructeurs de puces ne mettent pas plus de moyen dans les puces HBM c'est parce que la GDDR leur rapporte des tonnes de devises.

mood
Publicité
Posté le 12-05-2017 à 22:56:57  profilanswer
 

n°10146482
yoshi59
kp'tain chaussette vous parle
Posté le 12-05-2017 à 23:03:41  profilanswer
 

Bon.
Annonce dans 15j et rien niveau fuite.
Les assembleurs n'ont pas de carte et paper launch.
C'était le pronostic de Yoshi.
Merci et bonne soirée :jap:
 
:O / :D

Message cité 1 fois
Message édité par yoshi59 le 12-05-2017 à 23:04:21

---------------
http://forum.hardware.fr/hfr/Achat [...] 7820_1.htm
n°10146493
havoc_28
Posté le 12-05-2017 à 23:37:09  profilanswer
 

damien440 a écrit :

Encore une fois troll de compèt :bounce: , si c'était de la "si stupide BP" et que vega n'avait pas son infinity fabric (dont la BP dépend énormément), certes ça n'amènerais rien sur la balance ... mais vega étant optimisé pour ce genre de mémoire, elle en aura l'usage. Surtout dans les paramètres très poussé de texture pour les VR et les technos de fluidité lors de stream.


 
Ce n'est pas un troll, mais une constatation fort simple. La HBM la GDDR en soit ça ne strictement aucune importance, c'est juste de la mémoire vive, un espace de stockage rapide des données pour être traités ensuite par le GPU, ce qui compte au final c'est la bande passante finale disponible, comme dit plus haut. Jusqu'à présent la GDDR est suffisante niveau débit pour une utilisation type jeux.
 
Vega ne sera pas forcément plus rapide vs un GP102 qui aura simplement de la GDDR5X, mais les deux auront un débit à peu prêt équivalent ... 512 gb/s après la méthode pour atteindre ces 512 gb/s encore une fois ça n'a aucune importance.  
 
Le infinity fabric ça sert à quoi pour du jeu ?  
 

damien440 a écrit :


Encore une fois tu ne vois pas ce qui va se passer dans les années à venir où la BP va avoir plus d'importance que la puissance même de la carte. De nouvelles techno vont commencer à se développer pour devenir plus importante qu'avant, comme l'alternate reality ou augmented reality qui demande un très bon pc et une très bonne mise en place des images, donc sans délais.


 
Mais c'est ça dans le futur ... pour cette génération et la suivante, la HBM c'est pas ça qui change ou changera les cartes du jeu... Un moment oui peut être que la GDDR n'offrira pas assez de bande passante, mais on est pas la.  
 

damien440 a écrit :


AMD l'a comris, Nvivi la compris.
Évidemment ça ne va pas arriver demain mais c'est en chemin, un long chemin tout comme le 64bits et internet.


 
Pour le futur demain, encore une fois ... c'est comme la HBM1 de Fiji au final ça n'aura pas changé la donne, ça va être à nouveau le même cas de figure pour Vega.
 

damien440 a écrit :


Si ça n'avais que peu d’intérêt selon toi, quel est celui d'nvivi ?  
ceux qui ne vois que par des œillères de personnes bloqué à il y a 3 ou 4 gen de GPU: nous allons avoir besoin de cette puissance qui va être offerte parce qu'elle va devenir disponible.


 
Non mais Nvidia ils utilisent la HBM2 la où c'est le plus utile et le plus rentable dans le HPC, dans des grosses puces tels que le GP100 et le GV100 la où les marges sont les plus importantes.
 
Pourquoi nvidia foutrait de la HBM2 coûteuse dans leurs geforces, alors que de la GDDR peut faire tout aussi bien, alimentant comme il faut leurs GPU ? Quand nvidia aura réellement besoin de mettre de la mémoire type HBM sur leurs geforces, ils le feront mais pour l'instant y a pas la nécessité ...
 

damien440 a écrit :


Les GPU amédé (puissance brute) évolue mieux avec le temps que les GPU nvivi, ça a été retesté il y a peu (j'ai mis des liens dans ce sujet à ce propos), mais comme le mindshare nvivi pousse les gens à ne pas comprendre les futurs technos ou a juger par rapport aux besoins des technos proprio, on se retrouve avec 2 gen de retard/copié collé (680-780) sur le plan technique parce que les fanboys ne veulent pas prendre de l'amédé même pour des HTPC.


 
3 à 4 ans après la sortie respective des cartes ... Avec des différences ne dépassant pas les 10/15% au final. Ouais les cartes G.C.N. ont mieux vieilli mais en général comme déjà dit, quand la carte nvidia commence à être réellement derrière la radeon, c'est qu'il est temps de changer  :whistle: .
 

damien440 a écrit :


L’intérêt c'est le gain de place et l'interposer directement apposé sur/au coté de la puce, donc gain de temps dans le process de fab, donc économie, les GPU consommeront moins, la carte chauffera moins donc plus de surface à exploiter, la GDDR7 (oui j'en suis déjà là) va sûrement être un échec car arrivant trop peu en perf et trop chère en développement contrairement à la HBM4 qui sera bien plus mature et aura l'avantage de ne pas prendre plus de place.
Si les constructeurs de puces ne mettent pas plus de moyen dans les puces HBM c'est parce que la GDDR leur rapporte des tonnes de devises.


 
L'interposer faut le fabriquer hein, il n'utilise pas le même process de lithographie que le chip en question ... Donc non ce n'est pas une économie de temps , l'interposer coûte chère et plombe bien les coûts... vu qu'il doit être customisé pour chaque GPU.
 
http://www.hardware.fr/focus/109/c [...] r-amd.html  
 
Les avantages de la HBM oui ils existent, mais de la à prédire que la HBM3/4 finira par être plus intéressante que le futur de la GDDR, désolé je ne suis pas devin.
 
Mais bon c'est comme si tu admettais que pour l'instant la GDDR est bien plus compétitive niveau tarif par rapport à la bande passante obtenu  :whistle:


Message édité par havoc_28 le 13-05-2017 à 00:32:31
n°10146556
Zurkum
Posté le 13-05-2017 à 09:03:42  profilanswer
 

yoshi59 a écrit :

Bon.
Annonce dans 15j et rien niveau fuite.
Les assembleurs n'ont pas de carte et paper launch.
C'était le pronostic de Yoshi.
Merci et bonne soirée :jap:

 

:O / :D


 [:teamfive94:4]

n°10146568
cartemere
Posté le 13-05-2017 à 09:28:05  profilanswer
 

damien440 a écrit :


Encore une fois troll de compèt :bounce: , si c'était de la "si stupide BP" et que vega n'avait pas son infinity fabric (dont la BP dépend énormément), certes ça n'amènerais rien sur la balance ... mais vega étant optimisé pour ce genre de mémoire, elle en aura l'usage. Surtout dans les paramètres très poussé de texture pour les VR et les technos de fluidité lors de stream.


Comment peux-tu affirmer ça alors que l'on n'a aucune information là dessus ?
 

damien440 a écrit :


Encore une fois tu ne vois pas ce qui va se passer dans les années à venir où la BP va avoir plus d'importance que la puissance même de la carte. De nouvelles techno vont commencer à se développer pour devenir plus importante qu'avant, comme l'alternate reality ou augmented reality qui demande un très bon pc et une très bonne mise en place des images, donc sans délais. AMD l'a comris, Nvivi la compris.


je comprends pas le sens de ta réponse... l'usage de la HBM permet de réduire significativement le temps de mise à disposition des frames ?
(j'ai pas l'impression)

damien440 a écrit :

Évidemment ça ne va pas arriver demain mais c'est en chemin, un long chemin tout comme le 64bits et internet.
Après je m'en fous perso de ses technos mais elles permettront de mieux interagir avec notre loisir.


L'important c'est d'être là à l'heure.
Avoir une super techno couteuse dont les avantages ne sont pas exploités... ça donne au final juste une techno couteuse
(en dehors du fapfap sur la fiche technique :D )
 

damien440 a écrit :


Les GPU amédé (puissance brute) évolue mieux avec le temps que les GPU nvivi, ça a été retesté il y a peu (j'ai mis des liens dans ce sujet à ce propos), mais comme le mindshare nvivi pousse les gens à ne pas comprendre les futurs technos ou a juger par rapport aux besoins des technos proprio, on se retrouve avec 2 gen de retard/copié collé (680-780) sur le plan technique parce que les fanboys ne veulent pas prendre de l'amédé même pour des HTPC.


J'ai pourtant l'impression que les 10*0GTX sont bien à jour sur l'aspect technologique : des perfs impressionnantes, une conso riquiqui...

n°10146613
damien440
Posté le 13-05-2017 à 11:41:41  profilanswer
 

Voila en quoi c'est utile https://youtu.be/bDl6xJJqIAU?t=3163 gain de latence d'image par seconde. La c'est sur un jeu en VR mais on aura aussi accès à ça dans les jeux à affichage standard.
Moins d'images perdues dans les limbes de la mémoire/optimisation.
Sur les écrans actuellement gsync/freesync ne gère que la "perte d'image", plus tard ce sera le délais de latence qui sera optimisé en fonction de la plateforme. L'image mettra encore moins de temps à venir depuis l'appli vers l'affichage (il suffit de regarder des tests comparatifs de latence d'image pour voir ce qui se passe). Dans peu de temps on retrouvera cette techno dans tout les nouveaux produits qui sortiront puisse que l'Esports en aura besoin.
Et ça c'est juste une techno parmi d'autres.
 
La mémoire GDDR5 aujourd'hui nous permet d'afficher des trucs correctes mais sans plus, certaines textures HD sont quand même bien pourri parfois, même sur des jeux récents.
Il y a encore de l'uncanny valley dans certains jeux qui se ressentent bien.  
 
Ce qui a l'air de bloqué c'est que les mécaniques d'affichages pour les jeux sont encore aux standards d'il y a 10/20 ans.  
Quand on achète un produit quel qu’il soit on veut qu'il dure.  
Oui avoir du day 1 c'est bien mais si c'est pour changer dans 1 an parce que le produit qu'on possède n'est plus supporté par la compagnie auquel on l'a acheté, au vue de l'investissement, c'est pénible.
Ou alors il faut payer les éditeurs pour utiliser une techno proprio qui plombe les perfs de certains produits, que se soit Nvidia ou AMD.
 
Acheter un produit pour qu'il dure c'est une nécessité, un choix.  
Que se soit rouge ou vert. AMD a fait le choix d'intégrer plus de technos dans leur produit pour faire mieux face aux demandes de leur client. Il y a 4 ans, personne ne se douteraient que DX12 arriveraient, et toute les personnes qui possèdent une carte caméléon devront changer quand DX12 sera réellement implanté de force dans beaucoup d'applis, jeux.
 
Les GTX sont à la traîne technologiquement parlant, dans quelques années on retrouvera les 1080 derrière les 580/vega pour cause de manque de puissance sur les nouvelles api.  
Nvivi triche sur le support de ses cartes puisqu'il n'y a pas d'appui matériel sur lequel la carte se repose. Sous DX12. Ça commence à se remarquer sur les GTX 1060.
Elles possèdent un support logiciel seul. Quand un logiciel n'est plus supporté on perd ce gain de puissance relatif. Aka support legacy des pilotes pour les anciennes GTX, tout comme amd d'ailleurs.
Il n'y a qu'à voir prey où même une 970 est bien largement devant pour le moment. Alors que sur tomb raider ce n'est pas le cas. BF1 ...
 
Nvidia c'est l'effet wouahou dans les tests day 1 mais au bout de quelques temps on retrouve beaucoup de cartes avec des pertes de performance, alors qu'AMD à moins ce problème sur dx12, d'où le "fine wine".  
Ex: R9 290 vs GTX 780/ti, R9 390x vs GTX 970/980. Le temps donne raison à AMD.
 
@yoshi: la prédiction que tu viens de donner c'est celle qui traîne sur le net depuis 2/3 jours :sol: , t'a oublié de donner la date de sortie aussi entre le 31 mai et le 2 juin. :D

Message cité 6 fois
Message édité par damien440 le 13-05-2017 à 11:43:49
n°10146631
darkandy
?
Posté le 13-05-2017 à 12:08:53  profilanswer
 

damien440 a écrit :


 
Nvidia c'est l'effet wouahou dans les tests day 1 mais au bout de quelques temps on retrouve beaucoup de cartes avec des pertes de performance, alors qu'AMD à moins ce problème sur dx12, d'où le "fine wine".  
Ex: R9 290 vs GTX 780/ti, R9 390x vs GTX 970/980. Le temps donne raison à AMD.
 


 
 
C'est ça qui m'intrigue, certaines personnes disent : ont veut des perfs de suite et pas dans 1 an"... Perso je préfère un GPU qui tiens dans le temps.  
 
Je sais pas si vous voyez ce que représente le budget d'une carte graphique : entre le milieu et le très haut de gamme, c'est entre 250-300 et 850 euros, vous être prêt à payer ça tous les ans parce que le taulier Nvidia en a décider ainsi ? Alors pourquoi beaucoup sont content d'avoir leur CPU encore d'actualité (des i5/7 d'anciennes générations) mais pour la partie graphique, non ? Pourtant pas de très grand changement à part l'arrivée de DX12/Vulkan, et quelques démos techniques de moteur 3D, rien de transcendant depuis 1 voir 2 ans.
 
Il faut proposer quelque chose de différent que la course aux perfs et à kikilaplugrosse car n'importe quel GPU qui a 1 an, voir plus, arrive à faire quelque chose de très bien et même d'excellent en 1080p, voir en 1440P pour certaines :  
 
-Le développement et le suivi de nouveaux moteurs 3D et Api.
 
-La conso : Nvidia y réussi plutôt bien, mais sur quelle base ? Parce qu'AMD n'est pas encore au point, il ne faut plus justifier une autre baisse de conso ?
 
-Le confort d'utilisation : parce qu'au delà de 60ips, c'est largement suffisant pour la plupart des utilisateurs, il faut se focaliser sur l'utilisation des effets supplémentaires qui bouffent des ressources, pour presque rien niveau résultats.
 
-Le tarif : 850 euros pour un GPU HDG, ça devient n'importe quoi, peut importe ce que le GPU propose, car à part des FPS  en plus et kikilaplugrosse, ça apporte rien de plus au confort visuel en 1080P, 1440P...Et en 4K ce n'est pas totalement au point, donc aucun intérêt tant que l'ont en reviens pas au point des effets supplémentaires qui consomment trop pour rien.
 
-La nouvelle techno : HBM1/2, GDDR5X/6, ce n'est pas si bête de plancher sur la bande passante et le rafraîchissement de la RAM, même si c'est pas encore totalement effectif, ça permet d'être prêt au moment ou ça sera totalement exploité, non ?
 
-Vraiment cibler la demande, c'est encore très flou concernant la résolution utilisé/utilisable réellement. Quelle justification pour des tarifs exorbitant ? Le meilleur GPU ? Je prends l'exemple d'Nvidia à la sortie de la GTX1080, quel était son tarif à sa sortie, et ensuite à la sortie de la 1080Ti ? Cette baisse de tarif ne montre t-elle pas justement que les tarifs sont exagérés depuis le début ? alors évidemment c'est souvent "j'ai le blé, j'en fait ce que je veut et j'achète le meilleur au plus chère", certes mais au final c'est Nvidia qui gère votre argent, même pas vous :/ P.S. : je parle d'Nvidia, mais c'est le même topo pour AMD niveau tarif, même si ils sont en général moins chère (hors Fury lol).

Message cité 4 fois
Message édité par darkandy le 13-05-2017 à 12:13:34

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°10146634
wnorton
Je suis néerlandophone
Posté le 13-05-2017 à 12:14:19  profilanswer
 

damien440 a écrit :

Voila en quoi c'est utile https://youtu.be/bDl6xJJqIAU?t=3163 gain de latence d'image par seconde. La c'est sur un jeu en VR mais on aura aussi accès à ça dans les jeux à affichage standard.
Moins d'images perdues dans les limbes de la mémoire/optimisation.
Sur les écrans actuellement gsync/freesync ne gère que la "perte d'image", plus tard ce sera le délais de latence qui sera optimisé en fonction de la plateforme. L'image mettra encore moins de temps à venir depuis l'appli vers l'affichage (il suffit de regarder des tests comparatifs de latence d'image pour voir ce qui se passe). Dans peu de temps on retrouvera cette techno dans tout les nouveaux produits qui sortiront puisse que l'Esports en aura besoin.
Et ça c'est juste une techno parmi d'autres.
 
La mémoire GDDR5 aujourd'hui nous permet d'afficher des trucs correctes mais sans plus, certaines textures HD sont quand même bien pourri parfois, même sur des jeux récents.
Il y a encore de l'uncanny valley dans certains jeux qui se ressentent bien.  
 
Ce qui a l'air de bloqué c'est que les mécaniques d'affichages pour les jeux sont encore aux standards d'il y a 10/20 ans.  
Quand on achète un produit quel qu’il soit on veut qu'il dure.  
Oui avoir du day 1 c'est bien mais si c'est pour changer dans 1 an parce que le produit qu'on possède n'est plus supporté par la compagnie auquel on l'a acheté, au vue de l'investissement, c'est pénible.
Ou alors il faut payer les éditeurs pour utiliser une techno proprio qui plombe les perfs de certains produits, que se soit Nvidia ou AMD.
 
Acheter un produit pour qu'il dure c'est une nécessité, un choix.  
Que se soit rouge ou vert. AMD a fait le choix d'intégrer plus de technos dans leur produit pour faire mieux face aux demandes de leur client. Il y a 4 ans, personne ne se douteraient que DX12 arriveraient, et toute les personnes qui possèdent une carte caméléon devront changer quand DX12 sera réellement implanté de force dans beaucoup d'applis, jeux.
 
Les GTX sont à la traîne technologiquement parlant, dans quelques années on retrouvera les 1080 derrière les 580/vega pour cause de manque de puissance sur les nouvelles api.  
Nvivi triche sur le support de ses cartes puisqu'il n'y a pas d'appui matériel sur lequel la carte se repose. Sous DX12. Ça commence à se remarquer sur les GTX 1060.
Elles possèdent un support logiciel seul. Quand un logiciel n'est plus supporté on perd ce gain de puissance relatif. Aka support legacy des pilotes pour les anciennes GTX, tout comme amd d'ailleurs.
Il n'y a qu'à voir prey où même une 970 est bien largement devant pour le moment. Alors que sur tomb raider ce n'est pas le cas. BF1 ...
 
Nvidia c'est l'effet wouahou dans les tests day 1 mais au bout de quelques temps on retrouve beaucoup de cartes avec des pertes de performance, alors qu'AMD à moins ce problème sur dx12, d'où le "fine wine".  
Ex: R9 290 vs GTX 780/ti, R9 390x vs GTX 970/980. Le temps donne raison à AMD.
 
@yoshi: la prédiction que tu viens de donner c'est celle qui traîne sur le net depuis 2/3 jours :sol: , t'a oublié de donner la date de sortie aussi entre le 31 mai et le 2 juin. :D


 
 [:massys]  


---------------
Je suis néerlandophone une fois
n°10146645
havoc_28
Posté le 13-05-2017 à 12:29:53  profilanswer
 

damien440 a écrit :

Voila en quoi c'est utile https://youtu.be/bDl6xJJqIAU?t=3163 gain de latence d'image par seconde. La c'est sur un jeu en VR mais on aura aussi accès à ça dans les jeux à affichage standard.


 
Mais y a rien sur la HBM en particulier dans ta vidéo.
 

damien440 a écrit :

Moins d'images perdues dans les limbes de la mémoire/optimisation.


 
Toujours pas de rapport avec la HBM/GDDR.
 

damien440 a écrit :


Sur les écrans actuellement gsync/freesync ne gère que la "perte d'image", plus tard ce sera le délais de latence qui sera optimisé en fonction de la plateforme. L'image mettra encore moins de temps à venir depuis l'appli vers l'affichage (il suffit de regarder des tests comparatifs de latence d'image pour voir ce qui se passe). Dans peu de temps on retrouvera cette techno dans tout les nouveaux produits qui sortiront puisse que l'Esports en aura besoin.
Et ça c'est juste une techno parmi d'autres.


 
Et pour pas changer, ça n'a pas de rapport entre la HBM et la GDDR.  
 

damien440 a écrit :


La mémoire GDDR5 aujourd'hui nous permet d'afficher des trucs correctes mais sans plus, certaines textures HD sont quand même bien pourri parfois, même sur des jeux récents.
Il y a encore de l'uncanny valley dans certains jeux qui se ressentent bien.


 
Mais d'où tu sors ça. Y a nulle part un papier technique qui démontre ce que tu affirmes. La HBM c'est pas un truc magique. Si c'était le cas on aurait eut la démonstration avec Fiji ...
 

damien440 a écrit :

Acheter un produit pour qu'il dure c'est une nécessité, un choix.


 
En quoi c'est une nécessité ? Au bout de 3 ans en général les performances ne sont plus suffisantes en fonction des conditions de jeux, réglages graphiques. Tu veux forcer les gens à jouer dans des conditions non optimal?  
 

damien440 a écrit :


Que se soit rouge ou vert. AMD a fait le choix d'intégrer plus de technos dans leur produit pour faire mieux face aux demandes de leur client. Il y a 4 ans, personne ne se douteraient que DX12 arriveraient, et toute les personnes qui possèdent une carte caméléon devront changer quand DX12 sera réellement implanté de force dans beaucoup d'applis, jeux.


 
Y a aussi des histoires d'architectures plus efficaces que d'autres. Genre une geforce aura un tau d'occupation bien plus élevé de ses unités qu'une radeon, et bénéficiera du coups beaucoup moins d'un multi engine ...  
 

damien440 a écrit :


Les GTX sont à la traîne technologiquement parlant, dans quelques années on retrouvera les 1080 derrière les 580/vega pour cause de manque de puissance sur les nouvelles api.


 
De quoi et les radeons elle gère D3D12_1 peut être ? La RX580 ne rattrapera jamais une GTX 1080 y a genre 60/70 % d'écart  :whistle:  
 
Entre une 780 Ti custom et une R9 290X Custom sorti au cours de la même période y avait quoi 7/8 % d'écart entre les deux (ce qui était négligeable et les deux avaient une consommation assez similaire). Il a fallut attendre 2 ans et demi environ pour que la R9 290X égale la 780 Ti, à ce rythme quand la RX 580 dépassera la GTX 1080 ça sera genre la bataille de 2fps vs 2.05 fps :D.
 

damien440 a écrit :


Nvivi triche sur le support de ses cartes puisqu'il n'y a pas d'appui matériel sur lequel la carte se repose. Sous DX12. Ça commence à se remarquer sur les GTX 1060.


 
Quelle triche ? Que nvidia dispose d'une architecture plus efficace de base et un compilateur plus efficiant et qu'il aura fallut DX12 pour pouvoir avoir un multi engine et aider une architecture ayant un tau d'occupation plus faible aka G.C.N. ? Et est ce que tous les moteurs bénéficient d'un multi engine ?  
 

damien440 a écrit :


Elles possèdent un support logiciel seul. Quand un logiciel n'est plus supporté on perd ce gain de puissance relatif. Aka support legacy des pilotes pour les anciennes GTX, tout comme amd d'ailleurs.
Il n'y a qu'à voir prey où même une 970 est bien largement devant pour le moment. Alors que sur tomb raider ce n'est pas le cas. BF1 ...


 
La GTX 970 est sorti il y a un peu plus de 2 ans et demis et elle et sa grande sœur consomme moins qu'une RX580 ...
 

damien440 a écrit :


Nvidia c'est l'effet wouahou dans les tests day 1 mais au bout de quelques temps on retrouve beaucoup de cartes avec des pertes de performance, alors qu'AMD à moins ce problème sur dx12, d'où le "fine wine".  
Ex: R9 290 vs GTX 780/ti, R9 390x vs GTX 970/980. Le temps donne raison à AMD.


 
C'est valable pour les gens qui gardent leurs cartes 4/5 ans et encore c'est pas non plus des écarts abyssaux ... mais bon faire durée une carte aussi longtemps = concessions à faire.


Message édité par havoc_28 le 13-05-2017 à 13:26:46
n°10146662
patouille7​3
Le ptit prince du rail
Posté le 13-05-2017 à 12:45:32  profilanswer
 

damien440 a écrit :


 
Les GTX sont à la traîne technologiquement parlant, dans quelques années on retrouvera les 1080 derrière les 580/vega pour cause de manque de puissance sur les nouvelles api.  


 
On parle de la RX 580 qui vient de sortir là ? [:vave:4]
 
Tu aurais même du rajouter la RX 470 tant qu'à faire  :D  
 
 
 

mood
Publicité
Posté le 13-05-2017 à 12:45:32  profilanswer
 

n°10146676
Zurkum
Posté le 13-05-2017 à 12:58:43  profilanswer
 

C'est ni un topal Polaris ni un topal Maxwell  :whistle:

n°10146681
aout
Posté le 13-05-2017 à 13:04:49  profilanswer
 

On parle souvent du fanboyisme pro AMD mais bordel, coté Green team y'a de sacrés specimens aussi !

n°10146683
Steez
Pas l'temps d'niaiser !
Posté le 13-05-2017 à 13:04:55  profilanswer
 

darkandy a écrit :


 
 
C'est ça qui m'intrigue, certaines personnes disent : ont veut des perfs de suite et pas dans 1 an"... Perso je préfère un GPU qui tiens dans le temps.  
 
Je sais pas si vous voyez ce que représente le budget d'une carte graphique : entre le milieu et le très haut de gamme, c'est entre 250-300 et 850 euros, vous être prêt à payer ça tous les ans parce que le taulier Nvidia en a décider ainsi ? Alors pourquoi beaucoup sont content d'avoir leur CPU encore d'actualité (des i5/7 d'anciennes générations) mais pour la partie graphique, non ? Pourtant pas de très grand changement à part l'arrivée de DX12/Vulkan, et quelques démos techniques de moteur 3D, rien de transcendant depuis 1 voir 2 ans.
 
Il faut proposer quelque chose de différent que la course aux perfs et à kikilaplugrosse car n'importe quel GPU qui a 1 an, voir plus, arrive à faire quelque chose de très bien et même d'excellent en 1080p, voir en 1440P pour certaines :  
 
-Le développement et le suivi de nouveaux moteurs 3D et Api.
 
-La conso : Nvidia y réussi plutôt bien, mais sur quelle base ? Parce qu'AMD n'est pas encore au point, il ne faut plus justifier une autre baisse de conso ?
 
-Le confort d'utilisation : parce qu'au delà de 60ips, c'est largement suffisant pour la plupart des utilisateurs, il faut se focaliser sur l'utilisation des effets supplémentaires qui bouffent des ressources, pour presque rien niveau résultats.
 
-Le tarif : 850 euros pour un GPU HDG, ça devient n'importe quoi, peut importe ce que le GPU propose, car à part des FPS  en plus et kikilaplugrosse, ça apporte rien de plus au confort visuel en 1080P, 1440P...Et en 4K ce n'est pas totalement au point, donc aucun intérêt tant que l'ont en reviens pas au point des effets supplémentaires qui consomment trop pour rien.
 
-La nouvelle techno : HBM1/2, GDDR5X/6, ce n'est pas si bête de plancher sur la bande passante et le rafraîchissement de la RAM, même si c'est pas encore totalement effectif, ça permet d'être prêt au moment ou ça sera totalement exploité, non ?
 
-Vraiment cibler la demande, c'est encore très flou concernant la résolution utilisé/utilisable réellement. Quelle justification pour des tarifs exorbitant ? Le meilleur GPU ? Je prends l'exemple d'Nvidia à la sortie de la GTX1080, quel était son tarif à sa sortie, et ensuite à la sortie de la 1080Ti ? Cette baisse de tarif ne montre t-elle pas justement que les tarifs sont exagérés depuis le début ? alors évidemment c'est souvent "j'ai le blé, j'en fait ce que je veut et j'achète le meilleur au plus chère", certes mais au final c'est Nvidia qui gère votre argent, même pas vous :/ P.S. : je parle d'Nvidia, mais c'est le même topo pour AMD niveau tarif, même si ils sont en général moins chère (hors Fury lol).


 
Le dev des nouveaux moteurs 3D ça risque pas de se faire de sitôt, déjà qu'on galère toujours à exploiter totalement 8 coeurs sur certains jeux encore (Watch Dogs 2, GTA 5, Civ 6, etc...), y'a encore un potentiel énorme niveau CPU encore inexploité ! Si DX12/Vulkan accélère le mouvement, ça prend toujours du temps.
 
Nvidia est pas si bon en conso si on débride tout, une GTX 1080 en custom, on part sur 225w facile, plus on OC et la part sur du 250w facile, donc une Nvidia ça consomme aussi ! Leur model FE sont bridé à mort avec, et GPU Boost 3.0 contribue à l’efficacité énergétique. Mais à l'inverse d'AMD, il gère très bien la consommation vu que leur architecture est optimisé.
Si AMD aurai optimisé GCN, ils aurait pu privilégier le rapport perf/conso, mais AMD n'a pas d'unité SFU, et tout ce qui s'en suit, donc on doit faire des unités normales, et donc en mettre plus pour avoir le même niveau de perf en jeu.
 
Ensuite, le QHD (1440p) apporte vraiment un plus face au 1080p au niveau du confort d'utilisation, et le 144 Hz aussi. Le GPU HDG permet de mieux atteindre ce que l'on veut !
Exemple, j'ai pris un écran QHD (Asus PG278Q que j'ai pu avoir avec un prix, etc...), bah fallait que change de GPU, et j'ai pris une GTX 1080, pourquoi ? Hormis le G-Sync d'on je me fout royalement et dont l'interêt se discute parfois, il fallait les avoir c'est 144 FPS en QHD, et il n'y avait que la GTX 1080 qui pouvait le faire, AMD n'avais rien, et la Fury était au perf d'une GTX 1070 qui est insuffisante pour faire tourner du QHD à 144 FPS en high (déjà que je galère si pas mal de AAA, alors avec la GTX 1070 c'était pas la peine) plus la consommation et les 4 Go de RAM (certes en HBM, mais c'est 4 Go quand même !) bah le choix était vite fait, et j'ai du passer à la caisse. Le moment où la GTX 1080 était sortis, donc 800€ et tout.
Au final c'était chère, mais à l'instant T c'est tout ce qu'il y avait, la réponse d'AMD arriverai trop tard, et le prix n'allait pas chuter avant les GTX 1080 TI qui sont arrivé récemment, et je me voyais pas rester avec ma GTX 970 qui allait galérer.
 
Quant au nouvelle techno, la HBM permet des design simplifié et un PCB bien moins grand, elle consomme bien moins que la GDDR (et surement moins que la GDDR6) néanmoins quand la production de GDDR6 est pas avant 2018, la HBM3 en 2019/2020 ? Mais faut pas oublier que la HBM low coast existe aussi avec moins d'entrées/sorties, donc interposer 2x moins complexe (HBM low coast 512 I/O, HBM 1024 I/O), donc à la fin c'est moins chère.
 
Si la HBM2 s'OC bien, vu que le bus est bien plus large qu'avec la GDDR, les gains en BP seront beaucoup plus important que sur la GDDR en augmentant à fréquence égale, ce qui pourrait faire qu'on gratte un peu plus de performances.
 
 
Après c'est quoi le plus chère entre la HBM2 (comme Vega) et 8 Go de GDDR5 interfacé avec un bus 512 bits ? Parce que sinon, GDDR5 8 Gbits, bus 512 bits, et hop on a 512 Go/s en BP, sans se faire chier avec interposer + HBM.

n°10146684
couillesho​t
Les bouboules et la boubouche
Posté le 13-05-2017 à 13:05:09  profilanswer
 

damien440 a écrit :

Voila en quoi c'est utile ... blablabli


 
http://i.imgur.com/ZiGyS.gif


---------------
:o :o :o
n°10146690
patouille7​3
Le ptit prince du rail
Posté le 13-05-2017 à 13:15:58  profilanswer
 

aout a écrit :

On parle souvent du fanboyisme pro AMD mais bordel, coté Green team y'a de sacrés specimens aussi !


 
Ok alors je revends ma 1070 tant qu'elle vaut quelque chose , pour acheter une RX 580 qui lui roulera dessus en 2024  :o

n°10146691
GrouikR7
Posté le 13-05-2017 à 13:16:35  profilanswer
 

aout a écrit :

On parle souvent du fanboyisme pro AMD mais bordel, coté Green team y'a de sacrés specimens aussi !


 
Venir justifier leurs choix sur un topic VEGA, c'est génial  :pt1cable:

n°10146698
havoc_28
Posté le 13-05-2017 à 13:22:09  profilanswer
 

Steez a écrit :


Après c'est quoi le plus chère entre la HBM2 (comme Vega) et 8 Go de GDDR5 interfacé avec un bus 512 bits ? Parce que sinon, GDDR5 8 Gbits, bus 512 bits, et hop on a 512 Go/s en BP, sans se faire chier avec interposer + HBM.


 
La HBM2 easy. Même si l'interposer est moins complexe que celui de Fiji (4096 vs 2048 bits) ça ne compense toujours pas la différence de prix importante. Router une interface 512 bits sur un PCB c'est bien moins coûteux que la fabrication d'un interposer.

Message cité 1 fois
Message édité par havoc_28 le 13-05-2017 à 13:24:06
n°10146700
kriaz
Posté le 13-05-2017 à 13:22:59  profilanswer
 

damien440 a écrit :

Les GTX sont à la traîne technologiquement parlant, dans quelques années on retrouvera les 1080 derrière les 580/vega pour cause de manque de puissance sur les nouvelles api.


 
Qui aura dans " quelques années " sur ce forum encore une série 500 ou 10x0 xD , si demain tu me dis que mon vieux athlon64 est aussi perf que mon core2duo, cool mais je m'en tape très cher, ca reste du vieux matos, ensuite comparer une 580 a une 1080 gtx même quelques années plus tard est purement ridicule ...

n°10146710
Steez
Pas l'temps d'niaiser !
Posté le 13-05-2017 à 13:36:16  profilanswer
 

havoc_28 a écrit :


 
La HBM2 easy. Même si l'interposer est moins complexe que celui de Fiji (4096 vs 2048 bits) ça ne compense toujours pas la différence de prix importante. Router une interface 512 bits sur un PCB c'est bien moins coûteux que la fabrication d'un interposer.


 
Après ça consomme pas mal aussi vu que c'est du 1.5V, mais je pense que tout ce petit monde en GDDR6 pourrait faire un tabac tout simplement.
 
On aura une consommation réduite face à de la GDDR5 en 8 Gbits/s, une BP 2x supérieur (ça veut dire 1024 Go/s soit 1 To/s avec la GDDR6 16 Gbits/s qui est la 1er gen de GDDR6), enfin bref si ça coût moins chère, pourquoi avantager la HBM dans des puces qui ne sont pas destiné aux entreprises, encore la HBM low coast je dis pas, car tout est 2x plus simple et bien moins chère donc au final entre de la GDDR5 en 512 bits et de la HBM low coast on doit au final revenir à un prix compétitif face à la GDDR5 en 512 bits.
 
Mais si AMD utilise la HBM, c'est pas aussi pour leur solution de cache à très haut vitesse je crois ? Ou alors c'est complètement indépendant et leur volonté serai alors de baisser pas mal la consommation de ces GPU (parce que GDDR5 8 Gbits/s en 1.5V en bus 512 bits, donc 16 modules GDDR5, ça doit bien consommer face à la HBM), et au final, faire entrer la HBM en tant que standard avec la GDDR sur le segment des CG.

n°10146711
drey19
Posté le 13-05-2017 à 13:39:11  profilanswer
 

Le contenu de ce message a été effacé par son auteur

Message cité 2 fois
Message édité par drey19 le 13-05-2017 à 13:46:51
n°10146722
darkandy
?
Posté le 13-05-2017 à 13:50:15  profilanswer
 

drey19 a écrit :


 
Il parait même qu'en étant fanboy AMD tu auras un bonus qui te donnera les perf d'un sli de 1080 custom.  :D  
 
Certains ici pourront confirmer  :lol:
 
Il y a 6 mois la 480 était deja largement devant la 1060 d’après certains, maintenant qu'elle approche de son anniversaire, elle doit deja avoir rattrapé la 1070.
 
http://www.hardware.fr/getgraphimg.php?id=524&n=18
 


 
 [:kev_hanouleh:1]  
 
La RX480 stock était à 50% de la GTX1070 au début :
 
https://tpucdn.com/reviews/AMD/RX_480/images/perfrel_3840_2160.png https://tpucdn.com/reviews/AMD/RX_480/images/perfrel_2560_1440.png
 
La RX580 est à 25% de la GTX1070 (ont s'aperçoit aussi que la RX480 stock a bien avancé depuis ses débuts face à la GTX1060) :  
 
https://tpucdn.com/reviews/Sapphire/RX_580_Nitro_Plus/images/perfrel_1920_1080.png https://tpucdn.com/reviews/Sapphire/RX_580_Nitro_Plus/images/perfrel_2560_1440.png
 
Si ça continue comme ça c'est jouable  :o
 
Edit : Attention, les protocoles de test ont sûrement changgé entre temps, un p'tit jeu DX 12/Vulkan ou un Geforce Experience peut facilement changer la donne pour l’un comme pour l'autre  :o

Message cité 1 fois
Message édité par darkandy le 13-05-2017 à 13:53:41

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°10146733
havoc_28
Posté le 13-05-2017 à 14:04:29  profilanswer
 

Steez a écrit :


Mais si AMD utilise la HBM, c'est pas aussi pour leur solution de cache à très haut vitesse je crois ? Ou alors c'est complètement indépendant et leur volonté serai alors de baisser pas mal la consommation de ces GPU (parce que GDDR5 8 Gbits/s en 1.5V en bus 512 bits, donc 16 modules GDDR5, ça doit bien consommer face à la HBM), et au final, faire entrer la HBM en tant que standard avec la GDDR sur le segment des CG.


 
Tu peux faire une inteface 512 bits relativement peu gourmande (au niveau du contrôleur mémoire en tout cas), mais dans ce cas la le coût en transistor et la surface occupée explosent. Par exemple, le bus 512 bits d’Hawaï était plus compacte que le bus 384 bits de tahiti, mais en contre partie, la consommation était importante, surtout en augmentant la fréquence de la GDDR5 comme on a pu le voir sur les R9 390 ...
 
La hbm ça permet de gagner en consommation, en transistors/surface pour le contrôleur mémoire et en compacité pour le disign global.  
 
Pour ce qui est du cache haute vitesse/faible latence, hum lorsqu'on branche un SSD pour les Vega versions instincts je ne saurais dire ... Pour du jeu, à nouveau je vois pas bien . Après comme AMD n'a pas les moyens de faire une puce uniquement destiné au marché pro, sont obligés de décliner Vega en tant que puce pro et joueur ...


Message édité par havoc_28 le 13-05-2017 à 14:04:56
n°10146735
Steez
Pas l'temps d'niaiser !
Posté le 13-05-2017 à 14:08:23  profilanswer
 

drey19 a écrit :


 
Il parait même qu'en étant fanboy AMD tu auras un bonus qui te donnera les perf d'un sli de 1080 custom.  :D  
 
Certains ici pourront confirmer  :lol:
 
Il y a 6 mois la 480 était deja largement devant la 1060 d’après certains, maintenant qu'elle approche de son anniversaire, elle doit deja avoir rattrapé la 1070.
 
http://www.hardware.fr/getgraphimg.php?id=524&n=18
 
http://www.hardware.fr/articles/96 [...] ances.html
 
"la comparaison entre les Radeon RX 480/470 et les GeForce GTX 1060 n'a pas réellement bougé."


 

darkandy a écrit :


 
 [:kev_hanouleh:1]  
 
La RX480 stock était à 50% de la GTX1070 au début :
 
https://tpucdn.com/reviews/AMD/RX_4 [...] 0_2160.png https://tpucdn.com/reviews/AMD/RX_4 [...] 0_1440.png
 
La RX580 est à 25% de la GTX1070 (ont s'aperçoit aussi que la RX480 stock a bien avancé depuis ses débuts face à la GTX1060) :  
 
https://tpucdn.com/reviews/Sapphire [...] 0_1080.png https://tpucdn.com/reviews/Sapphire [...] 0_1440.png
 
Si ça continue comme ça c'est jouable  :o
 
Edit : Attention, les protocoles de test ont sûrement changgé entre temps, un p'tit jeu DX 12/Vulkan ou un Geforce Experience peut facilement changer la donne pour l’un comme pour l'autre  :o


 
Le CPU est passé d'un i7 6700K à un i7 7700K, le stockage passe en full SSD, donc faut voir si ça change beaucoup ou pas.
 
On perd BF3 et BF4 au profite de BF1, on passe sur COD IW, exit Crysis 3, bonjour DOOM en Vulkan, enfin bref il est bien plus représentatif des jeux d'aujourd'hui.
 
En conclusion, la GTX 1060 se fait distancer, et les RX 580 se retrouvant entre les GTX 1060 et les GTX 1070 en MOYENNE ! Si on prend jeu par jeu, les Radeons supporte mieux la monté en résolution, et mettent à la mande la GTX 1060 dans BF1, DOOM, COD Infinite Warfare (de pas mal d'ailleurs), Deus Ex, F1 2016 (où elle se rapproche d'une GTX 1070 !!!), Resident Evil 7 (où elle se rapproche encore des GTX 1070 !!!), Rise of The Tomb Rider, les autres jeux sont soit égale, ou les Radeons prennent l'avantage, ou les Geforces mais ces jeux sont rares (sauf les jeux Ubisoft).
 
En clair, sur un pannel représentatif d'aujourd'hui, les Radeons sont bien plus efficaces au final, dans la plupart des jeux elle battent les Geforces, ou sont égales avec elle.
 
Donc au final, ils ont raison :lol: ! (Bon la consommation est toujours élevé, mais ce renommage est mieux que celui des Rx 300 ou Rx 200)

n°10146752
aliss
Rhyme the Rhyme Well
Posté le 13-05-2017 à 14:23:06  profilanswer
 

En plus d'être d'être hs sur ce topic, ce débat stérile devient saoulant.

n°10146777
kriaz
Posté le 13-05-2017 à 14:49:40  profilanswer
 

Steez a écrit :


On perd BF3 et BF4 au profite de BF1, on passe sur COD IW, exit Crysis 3, bonjour DOOM en Vulkan, enfin bref il est bien plus représentatif des jeux d'aujourd'hui.
En conclusion, la GTX 1060 se fait distancer


 
Déjà bf1 est sur les tests d'hardware.fr et montre moi que les 1060 se prennent une claque ?
Donc je résume pour toi, les cartes AMD se comporte mieux sur le jeu doom donc ça me me permet de dire qu'elle est plus performante sur " l'ensemble des jeux d'aujourd'hui ".. alala l'objectivité ...
Ashes of the Singularity est un jeu " d'aujourd'hui " si je prend tes exemples, il est tres bien opti amd et en dx12 pourtant je ne vois pas les cartes nvidia se faire massacrer bref .

Message cité 2 fois
Message édité par kriaz le 13-05-2017 à 14:53:40
n°10146789
django
Posté le 13-05-2017 à 15:07:42  profilanswer
 

kriaz a écrit :


 
Déjà bf1 est sur les tests d'hardware.fr et montre moi que les 1060 se prennent une claque ?
Donc je résume pour toi, les cartes AMD se comporte mieux sur le jeu doom donc ça me me permet de dire qu'elle est plus performante sur " l'ensemble des jeux d'aujourd'hui ".. alala l'objectivité ...
Ashes of the Singularity est un jeu " d'aujourd'hui " si je prend tes exemples, il est tres bien opti amd et en dx12 pourtant je ne vois pas les cartes nvidia se faire massacrer bref .


Haha oui mais dans 10 ans tu verra que rx580 aura 10% de plus sur ashes grâce au pilotes tandis que nvidia en sera à la titan xp8  [:toede:1]

n°10146808
Steez
Pas l'temps d'niaiser !
Posté le 13-05-2017 à 15:31:55  profilanswer
 

kriaz a écrit :


 
"Déjà bf1 est sur les tests d'hardware.fr et montre moi que les 1060 se prennent une claque ?
Donc je résume pour toi, les cartes AMD se comporte mieux sur le jeu doom donc ça me me permet de dire qu'elle est plus performante sur " l'ensemble des jeux d'aujourd'hui ".. alala l'objectivité ...
Ashes of the Singularity est un jeu " d'aujourd'hui " si je prend tes exemples, il est tres bien opti amd et en dx12 pourtant je ne vois pas les cartes nvidia se faire massacrer bref .


 
De 1 tu ne cite pas ma phrase en entière, ce qui est une erreur car si je répète ce que je cite ça forme: "En conclusion, la GTX 1060 se fait distancer, et les RX 580 se retrouvant entre les GTX 1060 et les GTX 1070 en MOYENNE !"
Le moyenne veut dire quoi ? Et encore plus loin: "Si on prend jeu par jeu, les Radeons supporte mieux la monté en résolution, et mettent à la mande la GTX 1060 dans BF1, DOOM, COD Infinite Warfare (de pas mal d'ailleurs), Deus Ex, F1 2016 (où elle se rapproche d'une GTX 1070 !!!), Resident Evil 7 (où elle se rapproche encore des GTX 1070 !!!), Rise of The Tomb Rider, les autres jeux sont soit égale, ou les Radeons prennent l'avantage, ou les Geforces mais ces jeux sont rares (sauf les jeux Ubisoft). "
 
C'est ce que j'ai tiré comme conclusion de leur test point, si tu le veut il est là, vérifié par toi même: https://www.techpowerup.com/reviews [...] itro_Plus/
 
Tu me dis que je suis pas objectif, mais toi non plus, juste le fait que tu dise: "Déjà bf1 est sur les tests d'hardware.fr et montre moi que les 1060 se prennent une claque ?" Tu te base sur un test, je m'en base sur un, tu es alors autant objectif que moi.
 
Quand je parles de jeux d'aujourd'hui, si je reprend le test d'HFR, qui joue encore à Crysis 3 ? Dying Light ? Project Cars ? peu de personnes, et même qui joue encore à Star Wars Battlefront, pas beaucoup de gens je pense encore vu que BF1 est sortis. Donc en comparaison, TechPower Up prend des jeux plus d'actualité (COD IW, CIV 6, Resident Evis 7, Ghost Recon Wildlands, etc...) et tu ne me dira pas le contraire.
 
Et c'est sur qu'avec cette exemple "Ils ont raisons", le test mené par TechPower Up (qui est pas un petit site web hein) à dis ça, la RX 580 bouffe la GTX 1060 en moyenne de 5% et qu'elle n'est qu'a 25% de perf d'écart face à une GTX 1070. Ça va dans leur sens, et ils invoque un argument montrant ceci, donc en soit "Ils ont raisons". C'est ce qui est dis point.  
HFR lui dis que la RX 580 bat de 3% la GTX 1060. C'est ce qui est dis point.
Techpower Up dis dans COD IW la RX 580 bat la GTX 1060 de 20 FPS en 1080p. C'est ce qui est dis point.
C'est la vision d'une personne, et pas une vision générale, si tu veut une vision générale alors regroupe tous les tests qui ont été fait, si tu le fais je te dis bonne chance car comparé avec les différents paramètres et config de test c'est pas facile.
 
Donc au final en invoquant le test de HFR sur BF1, tu es autant objectif que moi :lol: !

Message cité 1 fois
Message édité par Steez le 13-05-2017 à 15:34:17
n°10146822
aout
Posté le 13-05-2017 à 15:53:53  profilanswer
 

Non mais sur BF1 à moins d'être un putain de troll y'a pas matière à débat, 90% des benchs dispos sur le net montrent que la 580 est devant la GTX 1060.

n°10146826
kriaz
Posté le 13-05-2017 à 15:58:29  profilanswer
 

Steez a écrit :


 
De 1 tu ne cite pas ma phrase en entière, ce qui est une erreur car si je répète ce que je cite ça forme: "En conclusion, la GTX 1060 se fait distancer, et les RX 580 se retrouvant entre les GTX 1060 et les GTX 1070 en MOYENNE !"
Le moyenne veut dire quoi ? Et encore plus loin: "Si on prend jeu par jeu, les Radeons supporte mieux la monté en résolution, et mettent à la mande la GTX 1060 dans BF1, DOOM, COD Infinite Warfare (de pas mal d'ailleurs), Deus Ex, F1 2016 (où elle se rapproche d'une GTX 1070 !!!), Resident Evil 7 (où elle se rapproche encore des GTX 1070 !!!), Rise of The Tomb Rider, les autres jeux sont soit égale, ou les Radeons prennent l'avantage, ou les Geforces mais ces jeux sont rares (sauf les jeux Ubisoft). "
 
C'est ce que j'ai tiré comme conclusion de leur test point, si tu le veut il est là, vérifié par toi même: https://www.techpowerup.com/reviews [...] itro_Plus/
 
Tu me dis que je suis pas objectif, mais toi non plus, juste le fait que tu dise: "Déjà bf1 est sur les tests d'hardware.fr et montre moi que les 1060 se prennent une claque ?" Tu te base sur un test, je m'en base sur un, tu es alors autant objectif que moi.
 
Quand je parles de jeux d'aujourd'hui, si je reprend le test d'HFR, qui joue encore à Crysis 3 ? Dying Light ? Project Cars ? peu de personnes, et même qui joue encore à Star Wars Battlefront, pas beaucoup de gens je pense encore vu que BF1 est sortis. Donc en comparaison, TechPower Up prend des jeux plus d'actualité (COD IW, CIV 6, Resident Evis 7, Ghost Recon Wildlands, etc...) et tu ne me dira pas le contraire.
 
Et c'est sur qu'avec cette exemple "Ils ont raisons", le test mené par TechPower Up (qui est pas un petit site web hein) à dis ça, la RX 580 bouffe la GTX 1060 en moyenne de 5% et qu'elle n'est qu'a 25% de perf d'écart face à une GTX 1070. Ça va dans leur sens, et ils invoque un argument montrant ceci, donc en soit "Ils ont raisons". C'est ce qui est dis point.  
HFR lui dis que la RX 580 bat de 3% la GTX 1060. C'est ce qui est dis point.
Techpower Up dis dans COD IW la RX 580 bat la GTX 1060 de 20 FPS en 1080p. C'est ce qui est dis point.
C'est la vision d'une personne, et pas une vision générale, si tu veut une vision générale alors regroupe tous les tests qui ont été fait, si tu le fais je te dis bonne chance car comparé avec les différents paramètres et config de test c'est pas facile.
 
Donc au final en invoquant le test de HFR sur BF1, tu es autant objectif que moi :lol: !


 
Pour moi la moyenne sur le test "hardware.fr" la 580 se situe au niveau d'une 1060 v2, avec certes un panel de jeux qui ne te convient pas, ce qui te donne le droit de dire qu'hardware.fr n'est pas objectif mais c'est un autre débat :http://www.hardware.fr/articles/961-28/recapitulatif-performances.html .
 
Sauf que sur ton lien, le test bf1 est en dx12, tout le monde sait que les cartes nvidia ont de moins bonnes performance qu'en dx11 donc pourquoi l'utiliser ? je cite venant du test hardware.fr " Après quelques essais il est apparu que la version DirectX 12 du moteur était légèrement moins performante sur Radeon et près de 10% en retrait sur GeForce. Nous nous sommes donc contentés de la version DirectX 11 dont le rendu est identique et dont la gestion de la mémoire est par ailleurs plus efficace. "
 
et sinon Prey et mass effect ne sont pas des jeux actuels ? Donc dire que sur les jeux actuels les cartes AMD sont mieux est faux, c'est juste comme d'hab, un jeu est opti pour l'un ou l'autre .

Message cité 1 fois
Message édité par kriaz le 13-05-2017 à 16:37:44
n°10146832
aout
Posté le 13-05-2017 à 16:08:15  profilanswer
 

kriaz a écrit :

 

Pour moi la moyenne sur le test "hardware.fr" la 580 se situe au niveau d'une 1060 v2, avec certes un panel de jeux qui ne te convient pas, ce qui te donne le droit de dire hardware.fr n'est pas objectif mais c'est un autre débat :http://www.hardware.fr/articles/961-28/recapitulatif-performances.html .

 

Sauf que sur ton lien, le test bf1 en dx12, tout le monde sait que les cartes nvidia ont de moins bonnes performance qu'en dx11 donc pourquoi l'utiliser ? je cite venant du test hardware.fr " Après quelques essais il est apparu que la version DirectX 12 du moteur était légèrement moins performante sur Radeon et près de 10% en retrait sur GeForce. Nous nous sommes donc contentés de la version DirectX 11 dont le rendu est identique et dont la gestion de la mémoire est par ailleurs plus efficace. "

 

et sinon Prey et mass effect ne sont pas des jeux actuels ? Donc dire que sur les jeux actuels les cartes AMD sont mieux est faux, c'est juste comme d'hab, un jeu est opti pour l'un ou l'autre .

 

Tu test bien evidemment dans le mode qui est favorable à la carte que t'as, soit DX12 chez AMD et DX11 chez Nvidia. Maintenant en DX12 ca donne ça

 

https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9KLzAvNjY5NDIwL29yaWdpbmFsL2Zwcy5wbmc=

 

http://www.guru3d.com/index.php?ct=articles&action=file&id=30513

 

https://www.bit-tech.net/hardware/g [...] b-review/4

 

En conclusion t'as très peu de raison d'acheter une 1060 à l'heure actuelle sauf si

 

- la power efficiency est ton critère #1
- tu veux donner tes sous à Nivdia.

 

La 580 c'est :
- moins cher
- meilleures perfs on average
- plus futur proof (que tu le veuilles ou non c'est le cas)
- FreeSync

 

Tout le monde est d'accord là dessus, même la plus part des sites/techtubers à tendance pro Nvidia (du genre JayTwoCents) mettent en avant la RX 580 comme un produit qui n'a rien de révolutionnaire mais qui propose plus (+), pour moins cher.

  

Message cité 3 fois
Message édité par aout le 13-05-2017 à 16:42:40
n°10146836
kriaz
Posté le 13-05-2017 à 16:20:38  profilanswer
 

aout a écrit :


En conclusion t'as très peu de raison d'acheter une 1060 à l'heure actuelle sauf si


 
Sauf si tu joue au panel de jeu d'hardware.fr, pour les autres critères que tu cites je suis entièrement d'accord avec toi : ( freesync , moin chère ) , le futur proof mouais quand tu change ta carte tout les 1-2 ans tu t'en balance mais admettons.

n°10146844
havoc_28
Posté le 13-05-2017 à 16:29:16  profilanswer
 

aout a écrit :


 
En conclusion t'as très peu de raison d'acheter une 1060 à l'heure actuelle sauf si
 
- la power efficiency est ton critère #1
- tu veux donner tes sous à Nivdia.
 
La 580 c'est :
- moins cher
- meilleures perfs on average
- plus futur proof (que tu le veuilles ou non c'est le cas)
- FreeSync
 
Tout le monde est d'accord là dessus, même la plus part des sites/techtubers à tendance pro Nvidia (du genre JayTwoCents) mettent en avant la RX 580 comme un produit qui n'a rien de révolutionnaire mais qui propose plus (+), pour moins cher.
 


 
 
Je ne vois pas de GTX 1060 9 gb/s dans tes graphes  [:cerveau goret]
 
De plus il y a t-il une différence visuelle entre le mode DX11 et DX12 de BF1 ?

Message cité 1 fois
Message édité par havoc_28 le 13-05-2017 à 16:30:43
n°10146851
Bob74
Posté le 13-05-2017 à 16:37:35  profilanswer
 

darkandy a écrit :


Je sais pas si vous voyez ce que représente le budget d'une carte graphique : entre le milieu et le très haut de gamme, c'est entre 250-300 et 850 euros, vous être prêt à payer ça tous les ans parce que le taulier Nvidia en a décider ainsi ? ...


+1 (pour un comme moi un peu désargenté, mais pas totalement :lol:   :cry: )
Par contre, un  
 

Steez a écrit :


 
Le dev des nouveaux moteurs 3D ça risque pas de se faire de sitôt, déjà qu'on galère toujours à exploiter totalement 8 coeurs sur certains jeux encore (Watch Dogs 2, GTA 5, Civ 6, etc...), y'a encore un potentiel énorme niveau CPU encore inexploité ! Si DX12/Vulkan accélère le mouvement, ça prend toujours du temps.


 
 


---------------
Lan-Li PC 7HWX / Corsair AX760 / Gigabyte Z170X-UD5TH / Intel i5-6600K / Corsair Hydro 80iGT / Kingston HyperX DDR4-2666 2x8Go / Kingston HyperX Predator SSD M2-240Gb / Segate SSHD 2To / WD-1To / Sapphire Radeon HD 7870 / Samsung DVD / Akasa LD USB 3.0
n°10146853
darkandy
?
Posté le 13-05-2017 à 16:38:34  profilanswer
 

Mais ça vous trou le cul de dire que la RX580 se débrouille mieux que la GTX1060 sur certains domaines ?
 
RAF de DX11 si DX12 tourne bien sur une RX580...
 
Edit : de toute façon, c'est kif kif la GTX1060/GTX1060 OC 9GB et la RX480/580. Autant prendre par rapport aux jeux auquel ont joue, s'tout ^^

Message cité 1 fois
Message édité par darkandy le 13-05-2017 à 16:42:51

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°10146856
kriaz
Posté le 13-05-2017 à 16:44:27  profilanswer
 

Le problème de dx12 vient des développeurs, du comment ils optimisent leurs jeux et non de la carte graphique ex: sur hitman, Ashes of the Singularity, tomb raider, the division et même le bench  time spy, les perf sont équivalentes nvidia / amd actuellement. Sur bf1 c'est juste Dice qui a opti le jeu pour Amd point.
 
ps : je prend les test hardware.fr je n'invente rien .
http://www.hardware.fr/articles/96 [...] -test.html

n°10146861
Bob74
Posté le 13-05-2017 à 16:50:36  profilanswer
 

darkandy a écrit :


Je sais pas si vous voyez ce que représente le budget d'une carte graphique : entre le milieu et le très haut de gamme, c'est entre 250-300 et 850 euros, vous être prêt à payer ça tous les ans parce que le taulier Nvidia en a décider ainsi ? ...


+1 (pour un comme moi un peu désargenté, mais pas totalement :lol:   :cry: )
Par contre, un GROS joueur ne se privera pas d'investir dans du matériel très performant.
J'ai un fils qui travaille dans la conception des jeux vidéo et qui n'est pas mal équipé en matériels (mais, après des années en ATI -AMD, actuellement il préfère Intel i7 et nVidia   GTX 1080)...
...et en jeux dont les plus récents.
 

Steez a écrit :


Le dev des nouveaux moteurs 3D ça risque pas de se faire de sitôt, déjà qu'on galère toujours à exploiter totalement 8 coeurs sur certains jeux encore (Watch Dogs 2, GTA 5, Civ 6, etc...), y'a encore un potentiel énorme niveau CPU encore inexploité ! Si DX12/Vulkan accélère le mouvement, ça prend toujours du temps.


+1.
Mais il se pourrait qu'il y ait aussi du changement de ce côté là. Pour vendre, il faudra bien rendre le matériel actuel obsolète.
Mais en attendant, celui actuel, sauf à prendre du bas de gamme, n'est pas obsolète aussi rapidement que certains le disent. Même ma CG HD7870-2Go tourne encore bien pour la majorité des jeux.
 
Le problème vient que pour développer de nouveaux jeux il faut des clients et que ceux-ci soient donc équipés pour.  
C'est l'histoire du chien qui se mord la queue.
Mais, petit à petit ça viendra.
 
 
 


---------------
Lan-Li PC 7HWX / Corsair AX760 / Gigabyte Z170X-UD5TH / Intel i5-6600K / Corsair Hydro 80iGT / Kingston HyperX DDR4-2666 2x8Go / Kingston HyperX Predator SSD M2-240Gb / Segate SSHD 2To / WD-1To / Sapphire Radeon HD 7870 / Samsung DVD / Akasa LD USB 3.0
n°10146863
Steez
Pas l'temps d'niaiser !
Posté le 13-05-2017 à 16:52:43  profilanswer
 

havoc_28 a écrit :


 
De plus il y a t-il une différence visuelle entre le mode DX11 et DX12 de BF1 ?


 
Y'a aucune différence entre DX11 et DX12 si ce n'est que DX12 est un API de bas niveau (donc y'a ce qui s'en suit). Après y'avait pas mal de problème d'artefact avant en mode DX12. Mais ils ont été corrigé depuis, donc oui DX12 est à privilégier si on a une Radeon (on rochigne pas sur quelques FPS en plus, surtout pour faire juste 2 clique gauche voir 1 clique :lol: !)
 
Après faut se dire, que AMD aurai fait un coup de maître en utilisant la GDDR5 9 Gbpps comme Nvidia, ça aurai permis de gratter des performances et c'est toujours ça de gagner.

n°10146866
aout
Posté le 13-05-2017 à 16:55:08  profilanswer
 

Le 9gbpps c'est pas juste sur UN modèle de 1060 ?

n°10146868
havoc_28
Posté le 13-05-2017 à 16:59:24  profilanswer
 

aout a écrit :

Le 9gbpps c'est pas juste sur UN modèle de 1060 ?


 
ça n'existait pas avant, maintenant on trouve cette variante de GTX 1060 chez plusieurs constructeurs.

n°10146873
wnorton
Je suis néerlandophone
Posté le 13-05-2017 à 17:04:11  profilanswer
 

darkandy a écrit :

Mais ça vous trou le cul de dire que la RX580 se débrouille mieux que la GTX1060 sur certains domaines ?
 
RAF de DX11 si DX12 tourne bien sur une RX580...
 
Edit : de toute façon, c'est kif kif la GTX1060/GTX1060 OC 9GB et la RX480/580. Autant prendre par rapport aux jeux auquel ont joue, s'tout ^^


 
 
Heu oui
 
http://www.hardware.fr/getgraphimg.php?id=524&n=18
Ou bien non tien
 
Une seul passe devant une GTX 1060 de base non 9gbs la nitro+ donc bon...  :hello:

Message cité 1 fois
Message édité par wnorton le 13-05-2017 à 17:06:10

---------------
Je suis néerlandophone une fois
n°10146875
darkandy
?
Posté le 13-05-2017 à 17:09:55  profilanswer
 

Et bah, ça doit être bien triste ta ballade sur internet pour trouver qu'un seul test de la RX580 Nitro+ LE (et pourtant, y'en a une tripoté pour ce modèle)...  
 
Au pire, tu as regarder par rapport aux jeux testés ?

Message cité 1 fois
Message édité par darkandy le 13-05-2017 à 17:10:43

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  110  111  112  ..  621  622  623  624  625  626

Aller à :
Ajouter une réponse
 

Sujets relatifs
Meilleure CG sans alimentation 80 euros max ?[Topic Unique] Asus ROG STRIX X99 Gaming (2011-V3)
Overclocker le GPU d'un AMD AM1.changer AMD Radeon 6800HD Series
demande d'info aux specialistes AMD ( FX-6300 )[HFR] Actu : Pilotes AMD Radeon Software 16.9.2 pour Forza 3
AMD vers NVIDIA[Topic Unique] Phanteks ECLIPSE P400S
AMD Radeon R9 490 et autres nouveautés.. (?)[HFR] Actu : Pilotes AMD Radeon Software 16.9.1
Plus de sujets relatifs à : [Topic Unique] AMD Vega


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR