Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1538 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  83  84  85  ..  621  622  623  624  625  626
Auteur Sujet :

[Topic Unique] AMD Vega

n°10130260
Steez
Pas l'temps d'niaiser !
Posté le 19-04-2017 à 17:22:16  profilanswer
 

Reprise du message précédent :

havoc_28 a écrit :


 
On sait déjà que la géométrie va fortement progresser.  


 
Ouais mais y'avais aussi l'histoire des "NCU" et du cache et d'autres choses encore avec la rastérization, on sais pas tout ce que ça peut donner toutes ces améliorations.

mood
Publicité
Posté le 19-04-2017 à 17:22:16  profilanswer
 

n°10130271
havoc_28
Posté le 19-04-2017 à 17:34:38  profilanswer
 

Steez a écrit :


 
Ouais mais y'avais aussi l'histoire des "NCU" et du cache et d'autres choses encore avec la rastérization, on sais pas tout ce que ça peut donner toutes ces améliorations.


 
Polaris y avait des "new" partout et on a vu le résultat, donc je me méfie :p, au moins avec Vega on est sur que la géométrie progresse fortement c'est déjà un point positif assuré.

n°10130326
damien440
Posté le 19-04-2017 à 18:46:48  profilanswer
 

Polaris est efficace en "TDP".
 
Bon la on va parler technique, donc havoc accroche toi bien, c'est que pour TOI.
 
C'est quoi le TDP, eh bien selon plein de gens ça signifie "thermal dissipation power" "thermal power design" "Thermal design point".  
 
Tout ça c'est bien mais qu'est-ce que ça veut dire ?
 
Hé bien ça signifie que d'un constructeur à l'autre le "TDP" ça veut tout et rien dire. Selon AMD/Intel/Nvidia (et d'autres), ça dépend. Chez certain c'est la capacité max de dissipation thermique et d'autre c'est la capacité de consommation électrique. Donc on s'en fout, ça fait dire aux chiffres ce qu'on veut.  
 
Ce qui est est démontré dans les médias anglophones et non pas dans notre cher contré, soit parce que ça ne "les"(reviewers) intéressent pas, soit parce que nvidia c'est mieux que tout le reste ... alors que ça consomme autant voir plus sous certaines utilisations, donc pas mieux chez l'un que chez l'autre. AMD faisant des économies en ayant 1/10e du budget Nvidia/Intel.
 
Allez maintenant on passe aux choses sérieuses: les slides d'AMD dans leur présentation.
 
Où as t'on pu voir à un moment dans la présentation que les RX400 serait plus puissante que la compétition ?  
Nul part, bien évidemment car ce n'était pas possible.  
Ce qui apparaît d'office étant la capacité à faire des rapprochements par des personnes assez mal intentionné ou ayant surévalué le produit cad mal renseigné, /s des personnes non saines d'esprit donc /s
 
2 RX480 dans AOS sous DX12 sont toujours bien supérieur en performance face à une 1080, pour moins chère, le constat est toujours la. Etonnant me dira tu et je te répondrais que c'est grâce au scaling qui est l'effet levier des cartes amédé comparé à nvidia. Plus c'est toujours mieux quand c'est du *2.
 
La ou se cache le truc que la mémoire sélective de certains a du passer en priorité c'est la consommation: et oui soit disant les cartes AMD consomment plus. En effet c'est le cas avec un bon gros OC qui la met bien comme il ne faut pas.
 
Mais comble de l'horreur c'est exactement ce qui n'est pas préconisé sur polaris, le process était fait pour ne pas consommer beaucoup en fournissant de la puissance. On appelle ça l'underclocking.
 
Mais qu'est-ce que l'underclocking ? Eh bien comme polaris est puissante en comparaison de sa consommation il est a parié que si on joue sur le sous voltage il y a moyen d'avoir une carte plus puissante qui consomment moins.  
 
Mais pourquoi alors s'acharnent t'on tellement mettre plein de MHZ dans la face à amédé ? La aussi il faut voir avec le marché. Les CG possédant de gros chiffres impressionnent, tout comme la taille. Donc plus c'est gros, plus c'est puissant.  
 
Polaris est efficace et sera plus axé sur les prochaines API qu'nvidia va mettre dans/sur volta qui sera la première carte matériellement compatible avec DX12 nativement. Ce qui signifie que le moment où nvidia arrête d'optimiser ses drivers pour les pascals, ça plombera les perfs, et tout comme la furyX, se retrouveront devant les pascals.
 
Merci à toi havoc pour tes remarques.
 
------
 
Concernant les techno d'AMD sur Vega, elles vont avoir un très bon frametime* mais des maxframes** en retrait en comparaison d'nvidia. Comme la plupart des "reviewers" vont noté la carte sur les maxframes et average frames*** ben vega va être en retrait, sauf sur les minimums.
Ce qui sera extrêmement intéressant pour des écrans freesync1/2 et la VR ainsi que DX12/vulkan. Toutes les technos qui fonctionneront dans 10 ans encore.
 
*frametime = taux de rafraîchissement/affichage.
**maxframes = nombre d'images max affiché.
***average = moyen.

n°10130338
ever_over
Posté le 19-04-2017 à 19:01:30  profilanswer
 

@damien440 : je sais que ça sert à rien de dire ça, mais ça m'impressionne de voir à quel point tu es capable d'inventer des choses ridicules pour que la réalité colle avec tes émotions (puisqu'il semble évident que tu éprouves une forme d'amour pour la marque AMD).

n°10130357
havoc_28
Posté le 19-04-2017 à 19:19:53  profilanswer
 

damien440 a écrit :

Polaris est efficace en "TDP".
 
Bon la on va parler technique, donc havoc accroche toi bien, c'est que pour TOI.
 
C'est quoi le TDP, eh bien selon plein de gens ça signifie "thermal dissipation power" "thermal power design" "Thermal design point".  
 
Tout ça c'est bien mais qu'est-ce que ça veut dire ?
 
Hé bien ça signifie que d'un constructeur à l'autre le "TDP" ça veut tout et rien dire. Selon AMD/Intel/Nvidia (et d'autres), ça dépend. Chez certain c'est la capacité max de dissipation thermique et d'autre c'est la capacité de consommation électrique. Donc on s'en fout, ça fait dire aux chiffres ce qu'on veut.  


 
Oui la notion de TDP a évolué plus ou moins en fonction des "besoins" des constructeurs, mais bon maintenant on se reporte sur la "limite" de consommation, chose sur laquelle AMD a été assez vague ces dernières années, et où les testeurs sont obligés de tirer les vers du nez à AMD pour avoir cette information.  
 
Donc merci de rappeler que le terme TDP est un peu galvaudé même si on continue de l'utiliser pour simplifier le débat.  
 

damien440 a écrit :


Ce qui est est démontré dans les médias anglophones et non pas dans notre cher contré, soit parce que ça ne "les"(reviewers) intéressent pas, soit parce que nvidia c'est mieux que tout le reste ... alors que ça consomme autant voir plus sous certaines utilisations, donc pas mieux chez l'un que chez l'autre.


 
Des sources pour étayer ces propos, car si c'est genre sur 100 applications une poignée où l'on a ce cas de figure, comment dire ...  Le constat comme quoi dans la grande majorité des cas de figures à performance équivalente, Pascal est plus efficace sur le plan énergétique que Polaris ne risque pas de changer... en tout cas sur les test anglophones désolés, mais GP106 < P10 niveau consommation, après peut être qu'en visitant ce genre de site sous l’emprise de certaines substances, on peut voir un P10 consommant en moyenne moins qu'un GP106, pourquoi pas.  
 
Bref on veut bien la liste des centaines de cas de figure ou un GP106 est plus consommateur que P10, accroches toi comme tu dis :D.  
 

damien440 a écrit :


Allez maintenant on passe aux choses sérieuses: les slides d'AMD dans leur présentation.
 
Où as t'on pu voir à un moment dans la présentation que les RX400 serait plus puissante que la compétition ?


 
Où est ce que j'ai dit que P10 avait été présenté comme plus puissant que la compétition ??  Vers janvier / février 2016 quand on a su la taille de la puce j'ai pensé que P10 complet serait équivalent à environ Hawai XT (R9 290X/R9 390X) après au fil du temps l'estimation ça été R9 290 au pire, 390X au mieux .
 

damien440 a écrit :


2 RX480 dans AOS sous DX12 sont toujours bien supérieur en performance face à une 1080, pour moins chère, le constat est toujours la. Etonnant me dira tu et je te répondrais que c'est grâce au scaling qui est l'effet levier des cartes amédé comparé à nvidia. Plus c'est toujours mieux quand c'est du *2.


 
AOS, c'est comme utilisé uniquement project cars pour tester les GPU ... Pour ça qu'on utilise un panel de jeux histoire d'avoir une moyenne représentative des performances des cartes dans les jeux actuels.
 

damien440 a écrit :

La ou se cache le truc que la mémoire sélective de certains a du passer en priorité c'est la consommation: et oui soit disant les cartes AMD consomment plus. En effet c'est le cas avec un bon gros OC qui la met bien comme il ne faut pas.


 
C'est pourtant un fait établi que ce soit chez la presse ICI ou étrangère. Mais bon dans le monde parallèle ou tu habites c'est pas forcément le cas. Après je ne sais pas trop comment tu fais pour communiquer avec nous. A nouveau tu es libre de nous fournir les cas en pratiques ou P10 consomme moins que le GP106.  
 

damien440 a écrit :


Mais comble de l'horreur c'est exactement ce qui n'est pas préconisé sur polaris, le process était fait pour ne pas consommer beaucoup en fournissant de la puissance. On appelle ça l'underclocking.


 
Oui on connaît déjà l'histoire hein. J'en ai débattu assez souvent avec Boolay1er. Avec l'histoire de P10 qui était à l'origine cadencé à 1.120 ghz en turbo et 5.1 Tflops etc . Avec ça on tenait largement sur la carte de référence sans dépasser les normes du PCI-SIG.  
 

damien440 a écrit :


Mais qu'est-ce que l'underclocking ? Eh bien comme polaris est puissante en comparaison de sa consommation il est a parié que si on joue sur le sous voltage il y a moyen d'avoir une carte plus puissante qui consomment moins.


 
C'est comme l'overclocking repousser les marges de sécurités établies par le constructeur.  
 

damien440 a écrit :


Mais pourquoi alors s'acharnent t'on tellement mettre plein de MHZ dans la face à amédé ? La aussi il faut voir avec le marché. Les CG possédant de gros chiffres impressionnent, tout comme la taille. Donc plus c'est gros, plus c'est puissant.


 
La course au MHZ ça fait longtemps que les gens ont compris que c'était terminé, l'ère du Pentium IV est loin ...
 

damien440 a écrit :


Polaris est efficace et sera plus axé sur les prochaines API qu'nvidia va mettre dans/sur volta qui sera la première carte matériellement compatible avec DX12 nativement. Ce qui signifie que le moment où nvidia arrête d'optimiser ses drivers pour les pascals, ça plombera les perfs, et tout comme la furyX, se retrouveront devant les pascals.


 
Fury X ne dépassera jamais un GP104. On est pas 10% derrière hein.  Que ce soit nvidia ou AMD aucune des cartes actuellement ne gère toutes les features de D3D12.  
 

damien440 a écrit :

Merci à toi havoc pour tes remarques.


 
De rien.


Message édité par havoc_28 le 19-04-2017 à 19:23:55
n°10130371
kriaz
Posté le 19-04-2017 à 19:38:32  profilanswer
 

il y a 3 catégories de personnes : la personne qui a une vision assez large, elle prend le produit à l'instant T qui lui conviendra le mieux peu importe la marque, ensuite il y a le fanboy lui n'achètera que sa marque préféré tout en ayant l'esprit critique, enfin tu as le fanatique, le mec est prêt à vendre corps et âme pour sa marque, n'écoutera aucune remarque, sera dans un délire de la persécution ou dans la paranoïa .

n°10130373
B00lay Ier
Posté le 19-04-2017 à 19:41:30  profilanswer
 

havoc_28 a écrit :

Des cas où une 5770 plus rapide qu'une 5870/5850 ? J'ai du raté un épisode :o. Les deux à bande passante équivalentes je ne vois aucune raison pour que Juniper soit plus rapide, cypress a la même architecture VLIW5 plus d'unités ...


J'ai pas conservé mes données de l'époque, mais entre la latence et le contrôleur lui-même, j'ai souvenir de 2-3 tests où Juniper faisait mieux que Cypress avec une même BP, et si on divisait tout par 2 (pour avoir la même puissance de calcul) c'était pire car le rasterizer bridait tout.

 
havoc_28 a écrit :

Un gros changement avec Vega, pour V10 en tout cas c'est le passage à 11 triangle par cycles (après c'est peut être "juste" 8 triangles par cycles, et par truchement on arrive à "11", avec les scènes non affichées). Quoi qu'il en soit il va y avoir un progrès notable niveau puissance géométrique chez Vega par rapport à précédemment où on était à 4 triangles par cycle.


11 triangles c'est tout simplement 12 vertices.


Message édité par B00lay Ier le 19-04-2017 à 19:43:48
n°10130405
Activation
21:9 kill Surround Gaming
Posté le 19-04-2017 à 20:20:03  profilanswer
 

Bizarre dans mes souvenirs AOS est et reste un jeu de merde (c est escavation ou un truc comme ça qu il s appel maintenant me semble ... En attendant la nieme version chez stardock on aime changé le nom plutot que mettre un millesime d année  :o )
meme si il a ça fanbase
 
Je lui préfère les 3 supreme commander (ouep meme le 2)
 
Apres y voir un parti prit pro amd ou pro nvidia
Les sup co leur point faible c est pas le gpu à ma connaissance
 
Car bon faut y aller pour voir une remarque pro nvidia quand on dit AOS.. On s'en bat les c.....
Pas de naval, que des unité "overcraft" on va dire, des map pour moi relou...
 
Je pense que plus que regarder la moyenne dans un article qui test pleins de jeux on regarde avant tout les bench de certains jeux, les jeux qu on prefere
Admettons un bench sur un call of moisi
Amd y serait 3x plus perf qu une nvidia je m en battrais les steack
Car PERSONNELLEMENT odef des call of (je dois en acheter 1 tout les 4 episodes au max, bref suis pas fanboy)
Par contre demain tu m annonce je sais pas que le futur cyberpunk 2077 tournerait 30 %  plus vite sur amd que nvidia
Là oui tu vois Damien440. Je suivrais ça avec grand interet
 
Bref tu parle de AOS... Faut pas y voir un mouvement anti AMD
Perso AOS j en ai entendu parlé avant l histoire de l opti dx12 trop bien sur AMD
(Un peu comme no man's sky avant que sony vienne foutre sa merde comme d hab... À la sauce, drive club, ou le coup de pute de lourdé ceux qui ont fait les wipeout et 1an apres le coup de salaud de sortir une compil version ps4... Bref)
 
Enfin bref AOS avant meme que y ai le coup de pub amd à je sais plus quel gdc, il est bourré de manque, manque qu on a notifié à stardock facile 1an avant que le jeu ssoit en vente
Manque qui n ont jamais été comblé
 
Et si tu regarde l historique gaming chez stardock, cet editeur sort plus de navet que de bon jeu

n°10130496
robin4002
Posté le 19-04-2017 à 23:16:18  profilanswer
 

havoc_28 a écrit :


 
Polaris y avait des "new" partout et on a vu le résultat, donc je me méfie :p, au moins avec Vega on est sur que la géométrie progresse fortement c'est déjà un point positif assuré.


En effet polaris il avait des new partout sur un slide, mais niveau détails on avait pas grand chose et surtout niveau code dans amdgpu/mesa on restait sur du "gfxv8" et un code identique pour l'implémentation OpenGL.
Pour vega, en plus des détails qu'on donné AMD, ce qui me rassure c'est surtout de voir que côté mesa vega a besoin de nouveau code spécifique qui ne peuvent pas être partagé avec l'ancienne gen (idem côté kernel, avec un passage vers "gfxv9" ). Car impossibilité de partager des grosses parties du code du pilote avec les gen précédentes = pas mal de changement côté archi et il n'y a rien de mieux qu'une confirmation par le code du pilote.

Message cité 1 fois
Message édité par robin4002 le 19-04-2017 à 23:17:33
n°10130591
havoc_28
Posté le 20-04-2017 à 08:54:02  profilanswer
 

robin4002 a écrit :


En effet polaris il avait des new partout sur un slide, mais niveau détails on avait pas grand chose et surtout niveau code dans amdgpu/mesa on restait sur du "gfxv8" et un code identique pour l'implémentation OpenGL.
Pour vega, en plus des détails qu'on donné AMD, ce qui me rassure c'est surtout de voir que côté mesa vega a besoin de nouveau code spécifique qui ne peuvent pas être partagé avec l'ancienne gen (idem côté kernel, avec un passage vers "gfxv9" ). Car impossibilité de partager des grosses parties du code du pilote avec les gen précédentes = pas mal de changement côté archi et il n'y a rien de mieux qu'une confirmation par le code du pilote.


 
Vi, après j'espère que Vega ne sera pas une sorte de laboratoire comme fut Cayman et le VLIW4 avant de passer à G.C.N. avant de passer à Navi où l'on aura peut être enfin une nouvelle gamme unifiée avec une seule et unique architecture.

mood
Publicité
Posté le 20-04-2017 à 08:54:02  profilanswer
 

n°10130597
Bébé Yoda
Posté le 20-04-2017 à 09:14:14  profilanswer
 

J'ai vu passer une news Vega hier ou avant-hier, parlant d'une sortie mi mai. Je retrouve plus le lien, c'est pipo ?

n°10130601
aliss
Rhyme the Rhyme Well
Posté le 20-04-2017 à 09:20:37  profilanswer
 

havoc_28 a écrit :


 
Vi, après j'espère que Vega ne sera pas une sorte de laboratoire comme fut Cayman et le VLIW4 avant de passer à G.C.N. avant de passer à Navi où l'on aura peut être enfin une nouvelle gamme unifiée avec une seule et unique architecture.


 
Vu la manière dont ils ont présenté la marque et l'absence de com de leur part sur un hypothétique Vega 11, j'ai bien l'impression que c'est ce qui va se produire.
 
Je ne serais pas surpris que Vega se résume à 3 modèles comme ce fût le cas pour Fiji.

n°10130641
damien440
Posté le 20-04-2017 à 10:21:55  profilanswer
 

Concernant vega il y a 8 drivers qui sont prévues donc potentiellement 8 modèles:  
http://www.kitguru.net/components/ [...] iver-code/
 
---------------------
Je ne suis pas fanboy, ni fanatique, je ne vis pas dans un monde parallèle mais croyez donc en Jésus je ne suis pas la pour vous juger, quand on a plus d'arguments dans un débat on part sur les critiques ad hoc.
 
Qu'en est-il des performance actuelles de polaris 10/20 ? Très en retrait par rapport à la compétition ? En rapport avec ce que propose AMD. CAD remplacer les CG milieu de gamme d'il y a 3 à 4 ans.
 
http://images.hardwarecanucks.com/image//skymtl/GPU/RX580-REVIEW/RX580-REVIEW-21.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/RX580-REVIEW/RX580-REVIEW-22.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/RX580-REVIEW/RX580-REVIEW-52.jpg
 
http://www.hardwarecanucks.com/for [...] iew-3.html
 
Mais puisque je vois que les débats partent sur des arguments que vous ne comprenez pas vraiment, en tout cas pour certain.  
AOTS a été présenté car étant le premier jeux DX12, AMD démontrait exactement son point: 2RX faisait aussi bien qu'une 1080 de référence. Point.  
Le gameplay est a chié, le jeu manque de contenue, les factions sont lisses, il n'y a rien.
Ce n'est pas l'histoire de kikalaplugross mais du: pourquoi payer plus alors que les mêmes perf sont la pour moins chère. Vous pouvez trouver des arguments comme quoi ce n'est pas le cas mais se sont les fait. Sur AOTS.
 
Concernant votre persistance à trouver des défauts dans les CG AMD, effectivement ils ont du retard, nvidia ayant bouclé le marché avec ses technos proprio et ses accords avec beaucoup d'éditeurs/devs, forcément amédé: c'est caca.
 
Je rajouterais qu'avec tout ceci il n'y pas a de façon intelligente de terminer ce débat, donc je vais le marquer pour l'égo de ceux que ça intéresse.  
 
Vous avez raison, j'ai tord. Je suis un fanboy trollesque et je mérite me faire flageller à coup de GT210.
 
Je rajouterais pour terminer que je suis aussi déçu des performance globales de toute les CG en générale, mais comme le dit techdeals, les détails ultra de jean-développeur sont la pour vendre, pas pour jouer.

Message cité 2 fois
Message édité par damien440 le 20-04-2017 à 10:39:14
n°10130663
havoc_28
Posté le 20-04-2017 à 10:37:36  profilanswer
 

damien440 a écrit :

Je ne suis pas fanboy, ni fanatique, je ne vis pas dans un monde parallèle mais croyez donc en Jésus je ne suis pas la pour vous juger, quand on a plus d'arguments dans un débat on part sur les critiques ad hoc.
 
Qu'en est-il des performance actuelles de polaris ? Très en retrait par rapport à la compétition ? En rapport avec ce que propose AMD.  
 
http://images.hardwarecanucks.com/ [...] IEW-21.jpg
http://images.hardwarecanucks.com/ [...] IEW-22.jpg
http://images.hardwarecanucks.com/ [...] IEW-52.jpg
 
1) http://www.hardwarecanucks.com/for [...] iew-3.html


 
 
https://tpucdn.com/reviews/Sapphire/RX_580_Nitro_Plus/images/power_average.png https://tpucdn.com/reviews/Sapphire/RX_580_Nitro_Plus/images/perfrel_1920_1080.png
 
Où est ce que j'ai dit que les RX480/580 étaient très en retrait des GTX 1060 ??  
 
Mais stop les produits hallucinogènes ça va pas la.
 
Tu nous as sorti l'énormité que Polaris consommait autant voir moins que le GP106 à performance équivalente ... Et la tu reviens avec juste les performances où personne n'a dit que les GTX 1060 étaient supérieur au RX480 ...
 

damien440 a écrit :

AOTS a été présenté car étant le premier jeux DX12, AMD démontrait exactement son point: 2RX faisait aussi bien qu'une 1080 de référence. Point.


 
Et les jeux "DX12" ou nvidia est devant c'est du DX12 mal utilisé ? De plus AOTS c'est un des rares jeux ou le scalling est aussi bon. Donc la pratique en moyenne 2 RX480 sont très loin d'une GTX 1080.


Message édité par havoc_28 le 20-04-2017 à 10:47:34
n°10130677
damien440
Posté le 20-04-2017 à 10:55:39  profilanswer
 

Je me cite:
"nvidia ayant bouclé le marché avec ses technos proprio et ses accords avec beaucoup d'éditeurs/devs,"
 
En quoi est-ce faux ?
 
Ça doit être le double effet kisscool nvidia/fanboy. Les jeux DX12 vont connaître un grand bon en avant avec volta. Chose que ne peuvent pas se permettre les CG actuelles car aucun des constructeurs n'est à jour actuellement niveau software.
 
Concernant la consommation des cartes, tout ce que je montre dans mes graphs se sont les preuves demandés des CG amédé faisant moins bien car consommant plus.  
 
Je vais donner une vidéo pour bien comprendre l'enjeu de "radeon chill", un programme dans radeon relive drivers, c'est adoredTV qui s'y colle: world of warcraft étant le jeu utilisé.
Premier exemple: https://youtu.be/MQ9ro5pwfXY?t=781
Deuxième exemple: https://youtu.be/MQ9ro5pwfXY?t=1129
 
Tout ceci démontre 2 choses, amd n'a pas besoin de tout ces watts, mais comme je l'ai écrit tout au début, plus il y a de MHZ plus les néophytes vont aller vers ce genre de produit, d'où les nomenclature à rallonge.
De 2 si RX vega n’apparaîtra pas comme le sauveur d'amd dans la catégorie des fps max, elle le sera dans les minimums tout comme ses petites soeurs. Tout sera axé autour des produits AMD, freesync, ryzen, dx12/vulkan.

Message cité 1 fois
Message édité par damien440 le 20-04-2017 à 10:58:46
n°10130678
chaced
Posté le 20-04-2017 à 10:57:57  profilanswer
 

elle consomme rien la 1070, comment ça se fait que ma 970 se prenne un 210w ? oO (via hwinfo je précise)


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°10130680
damien440
Posté le 20-04-2017 à 10:59:20  profilanswer
 
n°10130681
havoc_28
Posté le 20-04-2017 à 10:59:26  profilanswer
 

damien440 a écrit :

"nvidia ayant bouclé le marché avec ses technos proprio et ses accords avec beaucoup d'éditeurs/devs,"


 
C'est un autre problème. Après Game Works n'est pas autant généralisé que ça. (Encore heureux).  
 

damien440 a écrit :


Ça doit être le double effet kisscool nvidia/fanboy. Les jeux DX12 vont connaître un grand bon en avant avec volta. Chose que ne peuvent pas se permettre les CG actuelles car aucun des constructeurs n'est à jour actuellement niveau software.


 
DX12 demande un travail supplémentaire conséquent aux développeurs ... Pour des résultats parfois mitigés. Car les fonctions qui manquent à l'un ou l'autre pour un vrai support complet de D3D12 c'est des broutilles ...
 

damien440 a écrit :

Concernant la consommation des cartes, tout ce que je montre dans mes graphs se sont les preuves demandés des CG amédé faisant moins bien car consommant plus.


 
La réalité est bien que Polaris consomme plus que le GP106 ...  
 

damien440 a écrit :


Je vais donner une vidéo pour bien comprendre l'enjeu de "radeon chill", un programme dans radeon relive drivers, c'est adoredTV qui s'y colle: world of warcraft étant le jeu utilisé.
 
Tout ceci démontre 2 choses, amd n'a pas besoin de tout ces watts, mais comme je l'ai écrit tout au début, plus il y a de MHZ plus les néophytes vont aller vers ce genre de produit, d'où les nomenclature à rallonge.  


 
Radeon Chill ça sert à diminuer la conso en baissant la fréquence lorsqu'on "suffisamment" d'image par seconde en fonction d'un pallier défini. Si ta carte a du mal à atteindre ce pallier tu consommeras plein gaz, après nvidia procède de façon similaire avec son mode de gestion d'énergie "adaptive power".  
 

damien440 a écrit :

De 2 si RX vega n’apparaîtra pas comme le sauveur d'amd dans la catégorie des fps max, elle le sera dans les minimums tout comme ses petites soeurs. Tout sera axé autour des produits AMD, freesync, ryzen, dx12/vulkan.


 
Tout dépendra du positionnement tarifaire, de ces perfs et sa consommation.  
 

chaced a écrit :

elle consomme rien la 1070, comment ça se fait que ma 970 se prenne un 210w ? oO (via hwinfo je précise)


 
Carte de Référence VS Custom ?  :whistle:

Message cité 1 fois
Message édité par havoc_28 le 20-04-2017 à 11:12:27
n°10130689
chaced
Posté le 20-04-2017 à 11:05:59  profilanswer
 


c'est une kfa exoc, mais je n'ai rien overclocké.


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°10130690
havoc_28
Posté le 20-04-2017 à 11:07:09  profilanswer
 

chaced a écrit :


c'est une kfa exoc, mais je n'ai rien overclocké.


 
Carte custom =  limite de consommation et fréquences plus élevées qu'une carte de référence = consommation plus élevée.

n°10130698
chaced
Posté le 20-04-2017 à 11:14:44  profilanswer
 

donc la nitro+ n'a rien d’anormal d'avoir une conso qui monte si haut ?


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°10130728
Marc
Chasseur de joce & sly
Posté le 20-04-2017 à 11:43:42  profilanswer
 

Oh un nouveau...

 
damien440 a écrit :

Ce qui est est démontré dans les médias anglophones et non pas dans notre cher contré, soit parce que ça ne "les"(reviewers) intéressent pas, soit parce que nvidia c'est mieux que tout le reste ... alors que ça consomme autant voir plus sous certaines utilisations, donc pas mieux chez l'un que chez l'autre. AMD faisant des économies en ayant 1/10e du budget Nvidia

 

Et donc, quelles sont ces utilisations, qui seraient bien plus pertinentes que celles ou l'avantage est à Nvidia de ce côté j'imagine :??:

 
damien440 a écrit :

Mais comble de l'horreur c'est exactement ce qui n'est pas préconisé sur polaris [...] Mais pourquoi alors s'acharnent t'on tellement mettre plein de MHZ dans la face à amédé ?

 

Mais WTF ? Polaris est clocké trop haut à l'insu du plein gré d'AMD c'est ça :??:

Message cité 1 fois
Message édité par Marc le 20-04-2017 à 11:44:24
n°10130828
flagada007
No Pain No Gain
Posté le 20-04-2017 à 13:49:36  profilanswer
 

Bébé Yoda a écrit :

J'ai vu passer une news Vega hier ou avant-hier, parlant d'une sortie mi mai. Je retrouve plus le lien, c'est pipo ?

 

Ça voudrait dire que l'annonce serait bientôt. Mais dans 1 mois ça fait pas un peu trop prêt des Polaris refresh?

 

Puisse tu avoir raison j'espère  [:zigg]


---------------
La plus belle victoire est de se vaincre soi-même (Chevalier de Méré 1687)
n°10130901
robin4002
Posté le 20-04-2017 à 15:11:42  profilanswer
 

damien440 a écrit :

Concernant vega il y a 8 drivers qui sont prévues donc potentiellement 8 modèles:  
http://www.kitguru.net/components/ [...] iver-code/


Ce sont des ids pci, pas des drivers.
Et il y a souvent bien plus d'id pci que de modèle final. (par exemple polaris10 à 12 id, polaris11 en a 9. https://cgit.freedesktop.org/~agd5f [...] 2-wip#n421 )


Message édité par robin4002 le 20-04-2017 à 15:11:52
n°10131017
Profil sup​primé
Posté le 20-04-2017 à 17:42:56  answer
 

flagada007 a écrit :


 
Ça voudrait dire que l'annonce serait bientôt. Mais dans 1 mois ça fait pas un peu trop prêt des Polaris refresh?
 
Puisse tu avoir raison j'espère  [:zigg]


pas forcément  
comme l'on déjà dit certains , on se dirige probablement vers une situation similaire à la sortie de fiji  
le refresh/renommage  de polaris n'est là que pour donner l'illusion d'une gamme complète et combler les trous en terme de positionnement le tout à moindre cout  
ils ont fait la même chose avec hawaii juste avant la sortie de fiji  
 
 
du coup , le fait que les sorties soient relativement proches est tout à fait logique  :jap:

n°10131019
damien440
Posté le 20-04-2017 à 17:47:42  profilanswer
 

havoc_28 a écrit :

C'est un autre problème. Après Game Works n'est pas autant généralisé que ça. (Encore heureux).


Je ne vais pas énumérer tout les jeux étant optimisé pour amd et nvidia car on y passerait l'aprem. Mais étant donné que cete sous couche logiciel fait planté/réduit les perfs des CG du constructeur qui l'a mis au point ...
 

havoc_28 a écrit :

DX12 demande un travail supplémentaire conséquent aux développeurs ... Pour des résultats parfois mitigés. Car les fonctions qui manquent à l'un ou l'autre pour un vrai support complet de D3D12 c'est des broutilles ...

 
Comme toute API ou nouveau logiciel, si le monde s'arrêtait de tourner à chaque nouvelle techno ...
Des résultats mitigés pour quelles produits ? Car dans beaucoup de jeux avec une implémentation native les gains sont plus que correcte même avec des vieilles cartes. En plus du scaling.
DX12 implanté à la va-vite n'a rien de glorieux, il faut reprendre toute la biblio du programme et repasser sur le code.  
Ceci dis, à partir du moment où il y a des écarts considérables par moment entre 2 API alors que l'un des 2 constructeurs a permis d'amener de nouvelles techno sur le marché, moi je dis merci, je dis pas merde.  
Malgré le fait que les produits soit un peu moins bien, sinon on jouerais encore avec des dual cores et des cartes avec 256mo de mémoire.
 

havoc_28 a écrit :

La réalité est bien que Polaris consomme plus que le GP106 ...  


A quelle occasion ?
Polaris ne consommant pas plus que le GP106, voir même moins en underclock (mais ça toute les cartes peuvent le faire), pour arriver à faire mieux elle consomme autant voir plus, prends donc une carte ultra OC et tu verra qu'elle consomme pareil à quelques exceptions près. La différence majeur étant qu'nvidia traite ses cartes en fonction logicielle. La où amd est matérielle (en partie). Et ça se voit de plus en plus sur les anciennes gen.
 

havoc_28 a écrit :

Radeon Chill ça sert à diminuer la conso en baissant la fréquence lorsqu'on "suffisamment" d'image par seconde en fonction d'un pallier défini. Si ta carte a du mal à atteindre ce pallier tu consommeras plein gaz, après nvidia procède de façon similaire avec son mode de gestion d'énergie "adaptive power".

 
Les différences entre ces 2 fonctionnements est légèrement plus tordu: d'une il faut l'écran adapté et une carte récente. De 2 de la bonne mémoire, ce qui signifie qu'avec seulement 8go de ram, on est très bridé chez nvidia et AMD.
Radeon chill ne fonctionnant pas seulement pour limiter les images mais aussi la conso en ayant le profil du jeux demandé. Ce qui n'est pas le cas avec nvidia.
 

havoc_28 a écrit :

Tout dépendra du positionnement tarifaire, de ces perfs et sa consommation.


Les perfs sont annoncés, elles ne seront pas décevantes, l'équipe marketing pour ryzen a vu juste où il fallait concernant les tarifs. Pour les GPU c'est pareil, du milieu au bon prix c'est trouvable. Si ryzen a été promis très compétitif et le tarif a suivi, rien n'empêchera AMD de proposer vega moins chère que la 1080ti.
 

Marc a écrit :

Oh un nouveau.../quotemsg]  
Sur le fofo en effet, je suit le site hardware.fr depuis de nombreuses années, mais avec le retour d'amd dans la course ça fait plaisir de "débattre" avec des arguments.
 
[quotemsg=10130728,3342,31409]Et donc, quelles sont ces utilisations, qui seraient bien plus pertinentes que celles ou l'avantage est à Nvidia de ce côté j'imagine :??:


Je vais avancer mes arguments évidemment pro amédé, je suis catalogué maintenant, donc je vais faire avec.
 
Déjà si on part du TDP, les titansXP/Xp qui sont les plus puissantes ne rivalisent pas au même niveau avec la R9 295X2, oui c'est un dual GPU.  
Ça chauffe/consomme plus mais sort plus de puissance.
Il n’empêche que cette carte (R9) garde un avantage assez certain, malgré son age.
Je met hardware unboxed pour appuyer. https://youtu.be/nLRCK7RfbUg?t=537  
 
Si on prendre donc cette carte (la R9) et que le scaling est le même pour les prochaines CG arrivant, les avantages vont augmentés, mais seront clairement plus en avant pour AMD. Car titan étant plus récente, se retrouve derrière.
Pour ceux qui me soutiendrais que titan n'est pas faite pour le jeu, la 1080ti a exactement le même PCB et presque les mêmes caracs, excepté 1go de mémoire en moins.
 

Marc a écrit :

Mais WTF ? Polaris est clocké trop haut à l'insu du plein gré d'AMD c'est ça :??:

:)
En effet, il a été démontré dans de nombreux exemple qu'une fois underclock le GPU se comporte normalement, cad à son potentiel original (comme démontré lors de la présentation de la carte il y a 1 an sous SW battlefront avec ses 96w de conso), vous n'avez pas fait de test ? /ironie
Biensur les gens qui s'y connaissent n'ont que peu d'attachement aux Mhz, mais les néophytes sont souvent perdu et donc achète ce qui se fait de mieux. Exemple extrème: plus c'est gros et plus ça montre que c'est puissant CF titanXp avec 12go de ram.
 
Personnellement je ne vis pas aux pays des licornes magiques, mais d'après ce que je lis, AMD c'est vraiment de la bouse, alors que pour le prix ... ya pas photo.

n°10131034
flagada007
No Pain No Gain
Posté le 20-04-2017 à 18:06:42  profilanswer
 

 

J'espère que tu as raison et qu'ils vont vite nous sortir cette nouvelle architecture  [:sunset rider]


---------------
La plus belle victoire est de se vaincre soi-même (Chevalier de Méré 1687)
n°10131036
Profil sup​primé
Posté le 20-04-2017 à 18:09:05  answer
 

Citation :

Personnellement je ne vis pas aux pays des licornes magiques
 


nous en veux pas , mais on a quelques doutes  :o  
si c'est pas des licornes , ça doit être des poneys toxicomanes     [:multiponey3:2]
 
par curiosité , je t'aurais bien demandé de faire tourner , mais je crois que c'est un peu trop fort pour moi  :whistle:


Message édité par Profil supprimé le 20-04-2017 à 18:34:09
n°10131051
Marc
Chasseur de joce & sly
Posté le 20-04-2017 à 18:30:46  profilanswer
 

damien440 a écrit :


Je vais avancer mes arguments évidemment pro amédé, je suis catalogué maintenant, donc je vais faire avec.

 

Déjà si on part du TDP, les titansXP/Xp qui sont les plus puissantes ne rivalisent pas au même niveau avec la R9 295X2, oui c'est un dual GPU.
Ça chauffe/consomme plus mais sort plus de puissance.
Il n’empêche que cette carte (R9) garde un avantage assez certain, malgré son age.
Je met hardware unboxed pour appuyer. https://youtu.be/nLRCK7RfbUg?t=537

 

Si on prendre donc cette carte (la R9) et que le scaling est le même pour les prochaines CG arrivant, les avantages vont augmentés, mais seront clairement plus en avant pour AMD. Car titan étant plus récente, se retrouve derrière.
Pour ceux qui me soutiendrais que titan n'est pas faite pour le jeu, la 1080ti a exactement le même PCB et presque les mêmes caracs, excepté 1go de mémoire en moins.

 

Quel rapport avec ton assertion "alors que ça consomme autant voir plus sous certaines utilisations" ?

 

La R9 295X2 (500W) et devant la Titan XP (250W) dans un jeu ou la seconde n'est utilisée à 50% (donc probablement très en-dessous des 250W) du fait d'un souci (annoncé comme exception d'ailleurs quelques secondes avant le début de ton passage), et, quel rapport avec ce que tu disais ?

 
damien440 a écrit :

:)
En effet, il a été démontré dans de nombreux exemple qu'une fois underclock le GPU se comporte normalement, cad à son potentiel original (comme démontré lors de la présentation de la carte il y a 1 an sous SW battlefront avec ses 96w de conso), vous n'avez pas fait de test ? /ironie
Biensur les gens qui s'y connaissent n'ont que peu d'attachement aux Mhz, mais les néophytes sont souvent perdu et donc achète ce qui se fait de mieux. Exemple extrème: plus c'est gros et plus ça montre que c'est puissant CF titanXp avec 12go de ram.

 

Oui et, ce n'est pas un choix d'AMD ? Si Polaris est poussé "haut" c'est que AMD juge que c'est le meilleur moyen de le vendre, car à une vitesse inférieure le rendement serait certes meilleur mais les performances plus suffisantes pour le positionnement tarifaire. Mais d'après toi, rien n'est du fait d'AMD... j'ai du mal à voir ou tu veux en venir !


Message édité par Marc le 20-04-2017 à 18:31:01
n°10131052
havoc_28
Posté le 20-04-2017 à 18:33:14  profilanswer
 

damien440 a écrit :

Je ne vais pas énumérer tout les jeux étant optimisé pour amd et nvidia car on y passerait l'aprem. Mais étant donné que cete sous couche logiciel fait planté/réduit les perfs des CG du constructeur qui l'a mis au point ...


 
ça dépend du développeur en question s'il utilise correctement les outils qu'on lui donne  :whistle:  
 

damien440 a écrit :

 
Comme toute API ou nouveau logiciel, si le monde s'arrêtait de tourner à chaque nouvelle techno ...
Des résultats mitigés pour quelles produits ? Car dans beaucoup de jeux avec une implémentation native les gains sont plus que correcte même avec des vieilles cartes. En plus du scaling.
DX12 implanté à la va-vite n'a rien de glorieux, il faut reprendre toute la biblio du programme et repasser sur le code.  
Ceci dis, à partir du moment où il y a des écarts considérables par moment entre 2 API alors que l'un des 2 constructeurs a permis d'amener de nouvelles techno sur le marché, moi je dis merci, je dis pas merde.  
Malgré le fait que les produits soit un peu moins bien, sinon on jouerais encore avec des dual cores et des cartes avec 256mo de mémoire.


 
Jusqu'à présent DX12 fonctionne correctement chez Nvidia mais n'apporte pas vraiment de gain vu que l'architecture hautement efficace et d'un multi engine perfectible ... C'est mieux du coté AMD, dont l'architecture actuelle se prête mieux aux commandes différées etc, du fait d'un tau d'occupation des unités moindres, vu qu'il y a plus de goulet d’étranglement que chez Nvidia.
 

damien440 a écrit :


A quelle occasion ?
Polaris ne consommant pas plus que le GP106, voir même moins en underclock (mais ça toute les cartes peuvent le faire), pour arriver à faire mieux elle consomme autant voir plus, prends donc une carte ultra OC et tu verra qu'elle consomme pareil à quelques exceptions près.


 
Un GP106 comme tu le dis ça dispose aussi d'une bonne marge niveau tension, donc abaisser la tension du GP106 fera également baisser sa consommation ... Donc dans tous les cas de figures en jeu, en moyenne le GP106 est plus efficient sur le plan énergétique que Polaris. Diminuer la tension sur Polaris améliore les choses oui, mais on peut faire de même avec Pascal.
 

damien440 a écrit :

La différence majeur étant qu'nvidia traite ses cartes en fonction logicielle. La où amd est matérielle (en partie). Et ça se voit de plus en plus sur les anciennes gen.


 
Se plaindre qu'nvidia optimise au mieux ces pilotes? Durant la vie commercial les cartes nvidia sont bien suivis, après oui ça se dégrade et c'est assez visible avec Kepler ... après hum tout dépend combien de temps on garde sa carte. En général on sera passer à la génération suivante avant que le déficit de performance soit vraiment trop marqué ... Mais bon oui l'architecture G.C.N. pour l'instant semble très bien vieillir.
 
Mais je me rappelle du VLIW4 de Cayman qui a été mis aux oubliettes 1 an après sa sortie quoi  :sarcastic:  
 

damien440 a écrit :


Les perfs sont annoncés, elles ne seront pas décevantes, l'équipe marketing pour ryzen a vu juste où il fallait concernant les tarifs. Pour les GPU c'est pareil, du milieu au bon prix c'est trouvable. Si ryzen a été promis très compétitif et le tarif a suivi, rien n'empêchera AMD de proposer vega moins chère que la 1080ti.


 
Pour l'instant on a 0 sur le niveau de performances annoncé, rien n'a fuité la dessus. Un leak sur des tests synthétiques d'une carte prototype à 1200mhz qui placerait la carte légèrement devant une GTX 1080? Moui ... on va attendre la sortie final du produit.
 
Ouais sauf que Vega c'est une puce de 500/550 mm², la galette chez Globalfoundries doit être un peu moins chère que l'équivalent chez TSMC, mais bon y a aussi un interposer 2048 bits certes plus économique que celui utilisé par Fiji, mais on est pas sur une production économique pour V10.

Message cité 1 fois
Message édité par havoc_28 le 20-04-2017 à 18:51:09
n°10131054
Profil sup​primé
Posté le 20-04-2017 à 18:38:25  answer
 

havoc_28 a écrit :


 
Un GP106 comme tu le dis ça dispose aussi d'une bonne marge niveau tension, donc abaisser la tension du GP106 fera également baisser sa consommation ... Donc dans tous les cas de figures en jeu, en moyenne le GP106 est plus efficient sur le plan énergétique que Polaris. Diminuer la tension sur Polaris améliore les choses oui, mais on peut faire de même avec Pascal.
 


ouais enfin là , le gazier , il parle pas d'undervolt ,   mais carrément d'underclock  
et à partir de là , je suis assez d'accord , il est surement possible qu'un FX 9xxx sous cadencé ne consomme pas plus qu'un core 2 E6600  :o  
 
on atteint les sommets  :whistle:

Message cité 1 fois
Message édité par Profil supprimé le 20-04-2017 à 18:43:18
n°10131059
havoc_28
Posté le 20-04-2017 à 18:41:33  profilanswer
 


 
Dans son monde merveilleux tout porte à Croire que Polaris n'a pas de défaut, niveau de performance similaire au GP106 tout en consommant moins et en étant par dessus le marché moins chère  [:cerveau prodigy] . Quoi qu'ici 2 points sur 3 sont tout autant véridique dans notre réalité.


Message édité par havoc_28 le 20-04-2017 à 18:44:08
n°10131141
damien440
Posté le 20-04-2017 à 20:24:37  profilanswer
 

Donc Vega sera supérieur à tout ce que propose nvidia, en terme de prix.

n°10131147
drey19
Posté le 20-04-2017 à 20:28:14  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par drey19 le 20-04-2017 à 20:29:43
n°10131158
kriaz
Posté le 20-04-2017 à 20:38:48  profilanswer
 

Nvidia a déjà rentabilisé sa série 10x0, que Vega ou non soit meilleur en terme de qualité/prix n'a aucune importance pour eux. Nvidia se concentre sur Volta maintenant avec peut être une sortie dans 6 mois.

n°10131276
la_taupe
myope-la-boum
Posté le 21-04-2017 à 00:01:29  profilanswer
 

damien440 a écrit :

Je vais avancer mes arguments évidemment pro amédé, je suis catalogué maintenant, donc je vais faire avec.

Mais... on est sur le topik AMD Vega [:zedlefou:1] C'est pas ton opinion qui pose problème, mais ta façon de claironner tout et n'imp en considérant toute réponse comme une attaque.

n°10131288
mogana
Posté le 21-04-2017 à 00:48:52  profilanswer
 

sérieux je n'arrive pas à croire que vous mordiez à ça  :o

n°10131296
quicksilve​r01
Posté le 21-04-2017 à 01:55:47  profilanswer
 

http://www.hardware.fr/medias/photos_news/00/52/IMG0052599.png
 
N’empêche 64 rops pour une carte censé etre puissante, j'ai 40 rops sur une vieille gtx570 qui a je ne sais combien d'années.
 
Bon il y a tout le reste qui compte, j’attend vega mais j'ai peur de la déception :/


---------------
Gerer Linux comme un pro
n°10131304
blackkaise​r
Borat pour steam
Posté le 21-04-2017 à 07:24:24  profilanswer
 

Les 1080 ont aussi 64 rops et une mémoire 2 x moins rapide ;)

n°10131387
Bob74
Posté le 21-04-2017 à 10:01:59  profilanswer
 

damien440 a écrit :

Donc Vega sera supérieur à tout ce que propose nvidia, en terme de prix.


 
On ne sait pas.
 
Mais il y a de grandes chances car nVidia, selon des rumeurs, avancerait la sortie de Volta au 3ème trimestre 2017.
Il se pourrait bien que, comme avec RyZen qui précipite Intel dans la sortie de nouvelles puces, Vega qui contrerait les 1080 et 1081Ti, voire les Titan XP, fasse assez peur à son concurrent.
Bien sur, ce ne sont que des rumeurs...
 
http://www.ginjfo.com/actualites/c [...] a-20170420
 
 
 


---------------
Lan-Li PC 7HWX / Corsair AX760 / Gigabyte Z170X-UD5TH / Intel i5-6600K / Corsair Hydro 80iGT / Kingston HyperX DDR4-2666 2x8Go / Kingston HyperX Predator SSD M2-240Gb / Segate SSHD 2To / WD-1To / Sapphire Radeon HD 7870 / Samsung DVD / Akasa LD USB 3.0
n°10131411
aliss
Rhyme the Rhyme Well
Posté le 21-04-2017 à 10:34:53  profilanswer
 

Bob74 a écrit :


 
On ne sait pas.
 
Mais il y a de grandes chances car nVidia, selon des rumeurs, avancerait la sortie de Volta au 3ème trimestre 2017.
Il se pourrait bien que, comme avec RyZen qui précipite Intel dans la sortie de nouvelles puces, Vega qui contrerait les 1080 et 1081Ti, voire les Titan XP, fasse assez peur à son concurrent.
Bien sur, ce ne sont que des rumeurs...
 
http://www.ginjfo.com/actualites/c [...] a-20170420
 


 
On parle du site à clic vivant dans une réalité alternative ou Vega est sorti en 2016 ?  :o  
 
http://img4.hostingpics.net/pics/280420clic.jpg
 
Edit pour ne pas leur offrir de clic supplémentaire... :D

Message cité 1 fois
Message édité par aliss le 21-04-2017 à 10:38:40
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  83  84  85  ..  621  622  623  624  625  626

Aller à :
Ajouter une réponse
 

Sujets relatifs
Meilleure CG sans alimentation 80 euros max ?[Topic Unique] Asus ROG STRIX X99 Gaming (2011-V3)
Overclocker le GPU d'un AMD AM1.changer AMD Radeon 6800HD Series
demande d'info aux specialistes AMD ( FX-6300 )[HFR] Actu : Pilotes AMD Radeon Software 16.9.2 pour Forza 3
AMD vers NVIDIA[Topic Unique] Phanteks ECLIPSE P400S
AMD Radeon R9 490 et autres nouveautés.. (?)[HFR] Actu : Pilotes AMD Radeon Software 16.9.1
Plus de sujets relatifs à : [Topic Unique] AMD Vega


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)