Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2431 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  274  275  276  ..  621  622  623  624  625  626
Auteur Sujet :

[Topic Unique] AMD Vega

n°10199608
cartemere
Posté le 01-08-2017 à 08:22:52  profilanswer
 

Reprise du message précédent :

darkandy a écrit :


 
Et c'est reparti, et curieusement toujours les mêmes qui relance encore et encore, et curieusement toujours les mêmes qui sont là sur le topic VEGA pour encore relancer un débat stérile...
 
Vous allez êtres nombreux à saouler avec la RX580 (ou RX480) ? Elle est au niveau de la GTX980, tout comme la GTX1060 (ou GTX 1060 OC), rien à ajouter dessus. Si ça vous amuse de comparer à 2-3fps près ou VS une GTX980 "super custom overclockée à fond kikolol" c'est votre problème. Si 100W de différence entre un GPU AMD et un GPU Nvidia vous fait peur, bah passez votre chemin, les Nvidia font très bien le taf de toute façon.
 
La conso, ça fait depuis Maxwell qu'Nvidia a un longueur d'avance, ce n'est pas un scoop.
 
L'archi GCN utilisée de cette façon arrive aussi à ses limites, notamment pour la montée en fréquence, ça non plus ce n'est pas un scoop.
 
Ce qui est navrant c'est de toujours voir les mêmes rabâcher constamment la même chose.
 
Ont s'en fou de Maxwell... Et oui face à Pascal, Polaris et VEGA sont limite et VEGA très en retard.
 
Donc oui  [:tim_coucou]
 
P.S. : si AMD vous fatigue, voir VEGA, il y a le topic VOLTA qui a ouvert ses portes : http://forum.hardware.fr/hfr/Hardw [...] 9419_1.htm (avec quelques personnes qui ont démonté VEGA depuis le début  :o  ).


"Quand le sage montre la lune, l'idiot regarde le doigt"

mood
Publicité
Posté le 01-08-2017 à 08:22:52  profilanswer
 

n°10199625
Bob74
Posté le 01-08-2017 à 08:43:40  profilanswer
 

darkandy a écrit :


 
 
Euh... Même quand certaines des anciennes générations de cartes AMD/ATI ( 9xxx, HD3xxx, HD4xxx, HD5xxx, HD6xxx, HD7xxx, R9 2xx) étaient au niveau ou au dessus des cartes Nvidia, ça a toujours été les cartes Nvidia qui ont eue sur pas mal de modèles, les meilleurs ventes. Sûrement un meilleur marketing...
 
Le coup de bâton ne date pas d'hier, ni de VEGA, ni de Polaris, ni de Fidji, mais de bien plus loin...
 
À force de penser qu'Nvidia est toujours au dessus, ils ont eue de plus en plus de parts de marché et au final plus de budget... Ce sont les consommateurs qui ont aidés à cette situation...


Oui, c'est vrai.
Le lancement en 1999 de la première GeForce la 256 (qui présentait des avantages sur les autres cartes de l'époque) a été le gros départ des ventes de nVidia, même lorsque les cartes étaient moins bien que la concurrence, beaucoup plus importante à l'époque.
Beaucoup de gens, pas forcément connaisseurs, étaient attirés par ce "GeForce", comme ils l'étaient avec "Intel Inside", pour des Celeron anémiques, alors qu'en face les AMD Duron étaient nettement plus performants. En CPU, même des Pentium "foireux" se vendaient mieux que les Athlon.
 
Radeon, lancé un an après (déjà un an de retard sur le concurrent  :cry: ), n'a pas été un nom qui a attiré les foules.

n°10199631
Bob74
Posté le 01-08-2017 à 08:50:56  profilanswer
 

Bébé Yoda a écrit :

...et hormis des soucis de consommation (modérés sur la 56)  ça permet de faire face sur une grosse partie du marché et de donner du choix aux consommateurs...


Par contre, il faudra voir les tests de cette carte...
...comme des autres Vega.
C'est bien d'avoir une "vitrine technologique" (nVidia), mais, comme je l'ai dit souvent, ce n'est pas elle, en raison de ses tarifs élevés) qui se vend le plus. Malheureusement, elle fait vendre les modèles d'entrée de gamme.
 

n°10199633
oufouf84
Posté le 01-08-2017 à 08:53:03  profilanswer
 

Star2k a écrit :

Far cry 5 et Wolfstein 2 vont utilisés le FP16 ? [:liosarreis]  
Nvidia n'ayant pas ça, ca risque de sacrément les pénaliser non ?


 
http://reho.st/thumb/self/ea63654efe45c644e48bbd2f2df490baae210e0d.png
 
not bad.

n°10199636
Star2k
Posté le 01-08-2017 à 08:56:15  profilanswer
 


Dans les faits, je ne sais pas trop ce que ça change, mais ça doit avoir un intérêt.

n°10199638
oufouf84
Posté le 01-08-2017 à 08:59:34  profilanswer
 

Star2k a écrit :


Dans les faits, je ne sais pas trop ce que ça change, mais ça doit avoir un intérêt.


 
http://www.anandtech.com/show/1032 [...] n-review/5

n°10199645
Bébé Yoda
Posté le 01-08-2017 à 09:09:07  profilanswer
 

 

C'est illisible sur mon téléphone, ça dit quoi ?

n°10199648
vladobar
J'aime pas quand ça rame…
Posté le 01-08-2017 à 09:12:55  profilanswer
 

Bob74 a écrit :


Oui, c'est vrai.
Le lancement en 1999 de la première GeForce la 256 (qui présentait des avantages sur les autres cartes de l'époque) a été le gros départ des ventes de nVidia, même lorsque les cartes étaient moins bien que la concurrence, beaucoup plus importante à l'époque.
Beaucoup de gens, pas forcément connaisseurs, étaient attirés par ce "GeForce", comme ils l'étaient avec "Intel Inside", pour des Celeron anémiques, alors qu'en face les AMD Duron étaient nettement plus performants. En CPU, même des Pentium "foireux" se vendaient mieux que les Athlon.
 
Radeon, lancé un an après (déjà un an de retard sur le concurrent  :cry: ), n'a pas été un nom qui a attiré les foules.


Le marketing Nvidia est très bon, ce n’est pas nouveau. Ils ont réussi a installer une image de marque qui marche bien depuis plusieurs années, et qui fait que les gens leur « pardonne » les quelques ratées qu’ils ont eu (comme toutes les marques, Nvidia n’a pas fait que des cartes exceptionnelles).
 
A l’inverse, AMD n’a pas réussi à imposer l’image Radeon et c’est même plutôt l’inverse, ils ont eu du mal à se sortir de certaine polémique (genre : « prend pas une Radeon, les drivers sont foireux » que l’on entendait encore plusieurs années après que ce ne soit plus le cas).
 
Le résultat final est qu’entre 2 produits équivalents (ce qui est quand meme la plupart du temps le cas), les gens auront plutôt tendance a prendre le Nvidia.  

n°10199649
oufouf84
Posté le 01-08-2017 à 09:14:48  profilanswer
 

Bébé Yoda a écrit :


 
C'est illisible sur mon téléphone, ça dit quoi ?


 
en gros que sur un bench avec une vega 64 ils obtiennent 50ips en fp16 et 44ips en fp32

n°10199659
ever_over
Posté le 01-08-2017 à 09:35:01  profilanswer
 

vladobar a écrit :


Le marketing Nvidia est très bon, ce n’est pas nouveau. Ils ont réussi a installer une image de marque qui marche bien depuis plusieurs années, et qui fait que les gens leur « pardonne » les quelques ratées qu’ils ont eu (comme toutes les marques, Nvidia n’a pas fait que des cartes exceptionnelles).
 
A l’inverse, AMD n’a pas réussi à imposer l’image Radeon et c’est même plutôt l’inverse, ils ont eu du mal à se sortir de certaine polémique (genre : « prend pas une Radeon, les drivers sont foireux » que l’on entendait encore plusieurs années après que ce ne soit plus le cas).
 
Le résultat final est qu’entre 2 produits équivalents (ce qui est quand meme la plupart du temps le cas), les gens auront plutôt tendance a prendre le Nvidia.  


C'est pas simplement du marketing. Les 2 n'ont pas la même culture d'entreprise. Chacun a ses avantages et inconvénients. En caricaturant, on pourrait dire :
AMD : c'est ouvert, mais manque de finition, c'est à l'utilisateur d'essuyer les plâtres mais il y a plus de libertés.
NVidia : c'est fermé mais bien conçu et pensé. L'utilisateur achète un produit fini, il ne pourra pas trop aller au delà.
On retrouve cette distinction de culture sous diverse forme, de la façon de gérer la stéréoscopie à la finition des cartes.
La grosse difference entre AMD et NVidia point de vue client, c'est la finition, et c'est pas de la comm ou du marketing. ça a des conséquences bien réelles. Par exemple, on pourrait dire que NVidia fait des produits agréables à utiliser, et AMD fait des produits agréables à bricoler (sans être péjoratif).

mood
Publicité
Posté le 01-08-2017 à 09:35:01  profilanswer
 

n°10199661
oufouf84
Posté le 01-08-2017 à 09:39:59  profilanswer
 

c'est farpaitement bien résumé ever_over :jap:

n°10199667
Bébé Yoda
Posté le 01-08-2017 à 09:47:19  profilanswer
 

Donc en gros :
AMD = le vrai esprit PC
NVIDIA = Apple

 

Les vrais fignolent leur matériel à la main et s'en sortent aussi bien pour moins cher.

 


(je trouve qu'une petite guerre PC/Mac aurait sa place avec celle polaris/GTX)

n°10199668
src386
Posté le 01-08-2017 à 09:47:43  profilanswer
 

ever_over a écrit :

En caricaturant, on pourrait dire :
AMD : c'est ouvert, mais manque de finition, c'est à l'utilisateur d'essuyer les plâtres mais il y a plus de libertés.


La phrase laisse penser qu'il y a des bugs au lancement... c'est discutable.
On a reproché à Polaris les 6 phases or en pratique personne n'a eu de souci.
Pareil pour Ryzen et ses problèmes de 'cache' : personne ne s'en plaint.
Je trouve que ça marche plutôt bien moi  :)


---------------
MSI B350M MORTAR, R7-3700X, KFA2 HOF-3600 16GB, RTX 3070 FE
n°10199671
drey19
Posté le 01-08-2017 à 09:48:36  profilanswer
 

Le contenu de ce message a été effacé par son auteur

n°10199675
Invite_Sur​prise
Racaille de Shanghaï
Posté le 01-08-2017 à 09:50:09  profilanswer
 

Bébé Yoda a écrit :

Donc en gros :  
AMD = le vrai esprit PC
NVIDIA = Apple
 
Les vrais fignolent leur matériel à la main et s'en sortent aussi bien pour moins cher.
 
 
(je trouve qu'une petite guerre PC/Mac aurait sa place avec celle polaris/GTX)


 
C'est plus AMD qui a l'esprit console et qui veut exploiter tout ça dans ces nouvelles technos.
Le PC c'est plus brut force et comme on peut le voir sur Steam, c'est surtout des users nVidia.

n°10199676
django
Posté le 01-08-2017 à 09:50:54  profilanswer
 

vladobar a écrit :


Le marketing Nvidia est très bon, ce n’est pas nouveau. Ils ont réussi a installer une image de marque qui marche bien depuis plusieurs années, et qui fait que les gens leur « pardonne » les quelques ratées qu’ils ont eu (comme toutes les marques, Nvidia n’a pas fait que des cartes exceptionnelles).

 

A l’inverse, AMD n’a pas réussi à imposer l’image Radeon et c’est même plutôt l’inverse, ils ont eu du mal à se sortir de certaine polémique (genre : « prend pas une Radeon, les drivers sont foireux » que l’on entendait encore plusieurs années après que ce ne soit plus le cas).

 

Le résultat final est qu’entre 2 produits équivalents (ce qui est quand meme la plupart du temps le cas), les gens auront plutôt tendance a prendre le Nvidia.


La radeon 9800 pro aiw qui pouvait décrypter canal+ :love:

Message cité 2 fois
Message édité par django le 01-08-2017 à 09:52:08
n°10199682
duck69
Posté le 01-08-2017 à 09:58:15  profilanswer
 

django a écrit :


La radeon 9800 pro aiw qui pouvait décrypter canal+ :love:


 
La x800 pro vivo qui passait en XT avec un flash , la x1800 XT qui passe en platinium avec un bios fournis par ATI , la bonne époque  [:duck69:3]


---------------
T'a la variante Duck qui consiste a manger des tomates farcies chez papa/maman, avoir la vie d'un moine au moyen age, acheter des drouilles au moment où elles valent rien, les revendre à *2 10 ans plus tard.
n°10199683
Star2k
Posté le 01-08-2017 à 09:58:37  profilanswer
 

django a écrit :


La radeon 9800 pro aiw qui pouvait décrypter canal+ :love:


C'était une autre époque mon bon monsieur !  [:panzemeyer]

n°10199685
aresias
Posté le 01-08-2017 à 09:58:57  profilanswer
 

drynek a écrit :

Ce qui devrait être le cas, pour l'instant je ne joue quasi plus ma 380 n'y arrive plus en 4k, enfin si les dark souls ça passe, fallout arrive a passer péniblement en low médium mais c'est a peu près tout.
Je suis surpris quand même elle en a dans le bide finalement.
Meme skyrim (pas mal de mod) passe plus en 4k j'atteint même pas les 30fps constant  :cry:  
Donc vite les tests  :o  
 


En même temps Skyrim c'est l'un des jeux les moins bien optimisé auquel j'ai joué ces 10 dernières années, en plus d'avoir été très en retard techniquement à sa sortie et même les derniers patchs n'ont pas changé grand chose. les textures sont plates ils sont encore à l'époque du bumpmapping  :lol:

Message cité 1 fois
Message édité par aresias le 01-08-2017 à 10:02:49
n°10199694
oufouf84
Posté le 01-08-2017 à 10:09:24  profilanswer
 

drey19 a écrit :

 

Mettre en avant l'undervolt et la baisse de fréquence...   :lol:

 

Genre on ne peut pas en faire autant chez le concurrent, on en revient a la situation initiale du coup...

 

sauf que si nvidia avaient poussé pascal a sa limite sa tournerai a 1.200v pour du 2.2ghz et la conso ben ....


Message édité par oufouf84 le 01-08-2017 à 10:09:54
n°10199696
ever_over
Posté le 01-08-2017 à 10:11:48  profilanswer
 

Bébé Yoda a écrit :

Donc en gros :  
AMD = le vrai esprit PC
NVIDIA = Apple
 
Les vrais fignolent leur matériel à la main et s'en sortent aussi bien pour moins cher.
 
 
(je trouve qu'une petite guerre PC/Mac aurait sa place avec celle polaris/GTX)


Oui, on peut voir la chose sous une multitude d'angles différents. Mais il ne faut pas se leurrer, ce que fait NVidia nécessite bien plus de talent, de compétence, de travail que ce que fait AMD. Ce sont des entreprises, ça reste des aventures humaines, un gros groupe d'ingénieurs, techniciens, chercheurs, commerciaux... à gérer, fixer un cap, des objectifs. NVidia a une vision plus claire, plus réfléchie, vise plus loin et plus haut.
Il y aurait beaucoup de choses à dire sur tout ça, en particulier sur l'importance du PDG, mais c'est HS ici. Je voulais juste faire cette remarque pour montrer que c'est trop simpliste de présenter la chose sous l'angle : AMD manque de moyens, les clients sont des moutons, c'est injuste... Les racines de ces differences de réussite sont bien plus profondes.

n°10199698
Moumoule
Posté le 01-08-2017 à 10:14:25  profilanswer
 

drey19 a écrit :


 
Mettre en avant l'undervolt et la baisse de fréquence...   :lol:  
 
Genre on ne peut pas en faire autant chez le concurrent, on en revient a la situation initiale du coup...


 
Chez AMD, du fait que la puce graphique consomme plus (fréquence en dehors du sweet spot, ce qui implique aussi un leakage plus haut), implique que l'undervolt est bien plus bénéfique que chez le concurrent (en prenant la génération actuelle, ofc). Les cartes nvidia sont très efficientes, juste besoin de comparer la consommation d'une RX480/580 stock et après oc contre une GTX 1060 stock et après oc. La consommation explose après oc sur RX480/580, la consommation est maitrisée après oc sur la GTX 1060.
 
Bien sûr qu'on peut le faire chez le concurrent, merci captain obvious. Tu n'essaies même pas de comprendre ce qui se passe derrière les coulisses et tu préfères comparer 2 uarch différentes et lâcher le grand classique "Le concurrent peut aussi le faire, hein".

Message cité 1 fois
Message édité par Moumoule le 01-08-2017 à 10:15:34
n°10199699
aresias
Posté le 01-08-2017 à 10:16:01  profilanswer
 

Pour moi il y a quand même toujours eu ce coté qu'Nvidia empêche le développement de certaines technologies ou fait tout pour le freiner dès lors que ça ne vient pas de chez eux.

n°10199700
ZzDazzleZz
Bencheur Oufff
Posté le 01-08-2017 à 10:18:20  profilanswer
 

Bébé Yoda a écrit :

Fait arrêter de parler de honte de n'avoir pas eu de hdg pendant 1 an.
Ça pouvait aussi être un choix. Consolider leur marché milieu de gamme avec un upgrade vers 570/580. Tenter de gagner des utilisateurs, poussés vers le freesync pour les fidéliser quand ils auraient leur hdg.
Il peut y avoir plein de raisons.
Ils n'ont pas les mêmes moyens que chez NVIDIA, franchement vu leurs difficultés je trouve qu'ils s'en sortent pas mal avec des moyens limités.
C'est le dernier concurrent qu'il reste sur le marché des GPU après la disparition de tous les autres ils sont peut-être pas si mauvais que ça. Et le jour où ils disparaîtront, on regrettera de plus avoir de concurrence.
 
J'ai bien conscience des limitations de l'offre chez AMD, mais elle a le mérite d'exister, et hormis des soucis de consommation (modérés sur la 56)  ça permet de faire face sur une grosse partie du marché et de donner du choix aux consommateurs. Je sais pas mais ça me saoule les messages qui viennent juste démolir le truc : merci on est au courant, vous essayez d'être un peu constructifs et de voir s'il y a un peu de positif là dedans ?
 
PS : oui merci je sais je suis un fanboy AMD. Mais pour ceux qui vont me prendre la tête je rappelle qu'en mars dernier j'étais sur une configuration 4770+gtx970, donc je tourne de temps en temps.


 
Donc si je comprends bien tu as du avoir un énorme choc en passant d'une GTX 970 à une RX 480 ????  intéressant l'upgrade  :o , je comprends mieux ta vision now  :lol:
Mais y a pire !! passer d'une 1080 à une Vega 56Cu (~1070) pour revenir chez AMD :)

Message cité 2 fois
Message édité par ZzDazzleZz le 01-08-2017 à 10:19:39
n°10199704
ZzDazzleZz
Bencheur Oufff
Posté le 01-08-2017 à 10:22:08  profilanswer
 

aresias a écrit :

Pour moi il y a quand même toujours eu ce coté qu'Nvidia empêche le développement de certaines technologies ou fait tout pour le freiner dès lors que ça ne vient pas de chez eux.


 
Mon dieu !!! quel horreur et ils ne sont pas en prison ??? et des gens achètent encore des cartes nvidia ?? franchement c'est horrible...

n°10199705
B00lay Ier
Posté le 01-08-2017 à 10:22:37  profilanswer
 

Moumoule a écrit :

Chez AMD, du fait que la puce graphique consomme plus (fréquence en dehors du sweet spot, ce qui implique aussi un leakage plus haut), implique que l'undervolt est bien plus bénéfique que chez le concurrent (en prenant la génération actuelle, ofc). Les cartes nvidia sont très efficientes, juste besoin de comparer la consommation d'une RX480/580 stock et après oc contre une GTX 1060 stock et après oc. La consommation explose après oc sur RX480/580, la consommation est maitrisée après oc sur la GTX 1060.

 

Bien sûr qu'on peut le faire chez le concurrent, merci captain obvious. Tu n'essaies même pas de comprendre ce qui se passe derrière les coulisses et tu préfères comparer 2 uarch différentes et lâcher le grand classique "Le concurrent peut aussi le faire, hein".


Là, tu es en train de tourner un "l'efficacité énergétique est médiocre" en "il y a une belle marge de progression sur l'efficacité énergétique", quand même :o

 

Autant présenter les choses sous cet angle est pertinent quand il s'agit d'un renouvellement de gamme (AMD a effectivement une grosse marge de progression, étant médiocre), autant pour une même carte ça n'a guère d'intérêt.

Message cité 1 fois
Message édité par B00lay Ier le 01-08-2017 à 10:23:22
n°10199708
aresias
Posté le 01-08-2017 à 10:24:52  profilanswer
 

ZzDazzleZz a écrit :


 
Mon dieu !!! quel horreur et ils ne sont pas en prison ??? et des gens achètent encore des cartes nvidia ?? franchement c'est horrible...


wow je trouve ça quand même assez incroyable de lire une telle réponse.
Donc pour toi payer des technologies inférieurs (oui j'ai bien dis inférieur car c'est le cas) et en plus plus chère ça ne te dérange pas ?
waowww je pensais pas qu'il y avait des personnes autant fanboy d'Nvidia.

n°10199710
ZzDazzleZz
Bencheur Oufff
Posté le 01-08-2017 à 10:27:06  profilanswer
 

aresias a écrit :


wow je trouve ça quand même assez incroyable de lire une telle réponse.
Donc pour toi payer des technologies inférieurs (oui j'ai bien dis inférieur car c'est le cas) et en plus plus chère ça ne te dérange pas ?
waowww je pensais pas qu'il y avait des personnes autant fanboy d'Nvidia.


 
Ah c'est vrai au niveau techno Nvidia est inférieur ;) et c'est vrai que j'ai dépensé 500euros dans une GTX 1080 mais mon dieu pourquoi dépenser une telle fortune et donner de l'argent à une société qui escroque les gens !!!  :D

n°10199712
src386
Posté le 01-08-2017 à 10:28:38  profilanswer
 

aresias a écrit :


En même temps Skyrim c'est l'un des jeux les moins bien optimisé auquel j'ai joué ces 10 dernières années, en plus d'avoir été très en retard techniquement à sa sortie et même les derniers patchs n'ont pas changé grand chose. les textures sont plates ils sont encore à l'époque du bumpmapping  :lol:


J'y jouais avec une HD5850 en 1080p, c'était pas parfaitement fluide mais c'était jouable.
Je crois que les Assassin's creed et Dishonored 2 sont loin devant en terme de foutage de gueule.


---------------
MSI B350M MORTAR, R7-3700X, KFA2 HOF-3600 16GB, RTX 3070 FE
n°10199713
aresias
Posté le 01-08-2017 à 10:28:45  profilanswer
 

ZzDazzleZz a écrit :


 
Ah c'est vrai au niveau techno Nvidia est inférieur ;) et c'est vrai que j'ai dépensé 500euros dans une GTX 1080 mais mon dieu pourquoi dépenser une telle fortune et donner de l'argent à une société qui escroque les gens !!!  :D


Je ne parle pas des cartes graphiques, je parle de tout ce qu'ils ont développé à coté niveau soft Gimpworks, CUDA, G-sync ect

n°10199716
aresias
Posté le 01-08-2017 à 10:33:53  profilanswer
 

src386 a écrit :


J'y jouais avec une HD5850 en 1080p, c'était pas parfaitement fluide mais c'était jouable.
Je crois que les Assassin's creed et Dishonored 2 sont loin devant en terme de foutage de gueule.


Ben Dishonored c'est du BethesdaBugthesda donc normal ^^
Assassin's creed ça dépend, niveau technologies graphiques au moins ils sont à peu près au niveau après ouais niveau opti c'est pas ça. D'ailleur il y a encore eu de l'abus sur la tessellation sur ce jeu (merci Gimpworks et la tessellation !)


Message édité par aresias le 01-08-2017 à 10:34:29
n°10199717
oufouf84
Posté le 01-08-2017 à 10:34:29  profilanswer
 

aresias a écrit :

Pour moi il y a quand même toujours eu ce coté qu'Nvidia empêche le développement de certaines technologies ou fait tout pour le freiner dès lors que ça ne vient pas de chez eux.


 
tu oublie aussi l'appropriation de techno existante pour la mettre a leurs sauce et la rendre proprio, je pense au G-sync sur certains laptop qui non pas de puce G-sync ...  

n°10199721
Yeagermach​42
Posté le 01-08-2017 à 10:35:24  profilanswer
 

aresias a écrit :

Pour moi il y a quand même toujours eu ce coté qu'Nvidia empêche le développement de certaines technologies ou fait tout pour le freiner dès lors que ça ne vient pas de chez eux.


Tu veux dire comme AMD avec les technos Nvidia ?

n°10199722
aresias
Posté le 01-08-2017 à 10:36:16  profilanswer
 

oufouf84 a écrit :


 
tu oublie aussi l'appropriation de techno existante pour la mettre a leurs sauce et la rendre proprio, je pense au G-sync sur certains laptop qui non pas de puce G-sync ...  


Ben c'est surtout que les technologies d'Nvidia tu peux me sortir n'importe quel trucs qu'ils ont développés on est capable de trouver une technologie qui est soit plus performante, soit moins chère (voir gratuite) et qui en plus tourne sur toutes les cartes graphiques.

n°10199723
Moumoule
Posté le 01-08-2017 à 10:37:04  profilanswer
 

B00lay Ier a écrit :


Là, tu es en train de tourner un "l'efficacité énergétique est médiocre" en "il y a une belle marge de progression sur l'efficacité énergétique", quand même :o
 
Autant présenter les choses sous cet angle est pertinent quand il s'agit d'un renouvellement de gamme (AMD a effectivement une grosse marge de progression, étant médiocre), autant pour une même carte ça n'a guère d'intérêt.


 
C'est ton interprétation.  
 
Si tu penses que j'essaie de tourner cela à l'avantage de AMD, tu te trompes. Y a une belle marge de progression (comme j'ai expliqué, fréquence supérieur au sweet spot etc ...) mais avec l'implémentation actuelle (sous entendre, architecture ET process utilisé), AMD n'arrivera pas à égaler Nvidia au niveau de l'efficacité énergétique à performance égale, même avec de l'undervolt.
 
Edit: Petit ajout


Message édité par Moumoule le 01-08-2017 à 10:44:31
n°10199725
ZzDazzleZz
Bencheur Oufff
Posté le 01-08-2017 à 10:37:17  profilanswer
 

aresias a écrit :


Je ne parle pas des cartes graphiques, je parle de tout ce qu'ils ont développé à coté niveau soft Gimpworks, CUDA, G-sync ect


 
Désolé ont parle de carte graphique, pour le reste je m'en tape de cuda et compagnie...et pour gsync oui ça ma coûté ~100 euros de plus et ça me regarde..
Alors les insultes tu te les gardes..

n°10199726
aresias
Posté le 01-08-2017 à 10:37:26  profilanswer
 

Yeagermach42 a écrit :


Tu veux dire comme AMD avec les technos Nvidia ?


Va-y donnes un exemple je te prie ?
Tress-FX ? les performances sont que très légèrement inférieurs sur les cartes Nvidia, rien à voir avec Hairworks vs AMD.
l'async-compute, DX12, Vulkan ? c'est un virage qu'ils ont pas su prendre, bien fait pour eux. Quoi que non car à cause d'eux ça freine l'utilisation de ces technologies qui apportent des gains de performances gratuits.
Pour le reste toutes les technologies d'AMD tournent sur les cartes Nvidia.

Message cité 2 fois
Message édité par aresias le 01-08-2017 à 10:40:35
n°10199727
Bébé Yoda
Posté le 01-08-2017 à 10:37:51  profilanswer
 

ZzDazzleZz a écrit :

 

Donc si je comprends bien tu as du avoir un énorme choc en passant d'une GTX 970 à une RX 480 ???? intéressant l'upgrade :o , je comprends mieux ta vision now :lol:
Mais y a pire !! passer d'une 1080 à une Vega 56Cu (~1070) pour revenir chez AMD :)

 

Ben je dois dire que le passage est plutôt agréable avec l'apport du freesync. J'ai vendu ma GTX 180€, racheté une 480 à 220€ je crois. Ça va :)

n°10199728
gougui
Posté le 01-08-2017 à 10:38:16  profilanswer
 

Yeagermach42 a écrit :


Tu veux dire comme AMD avec les technos Nvidia ?


 
Un exemple de techno Nvidia ouverte que Amd pourrait utiliser ?

n°10199735
ZzDazzleZz
Bencheur Oufff
Posté le 01-08-2017 à 10:41:50  profilanswer
 

gougui a écrit :


 
Un exemple de techno Nvidia ouverte que Amd pourrait utiliser ?


 
Ce sont 2 sociétés  concurrentes ils sont la pour faire du business pas pour s'échanger des mamours :)
 
Tiens un exemple Audi à un niveau de qualité à des années lumière d'une Peugeot et on va dire oh les vilains ils ont des technologies fermés à la concurrence pourquoi Peugeot n'y a pas droit ??  
Bienvenu dans la vie réelle :)

Message cité 1 fois
Message édité par ZzDazzleZz le 01-08-2017 à 10:43:44
n°10199739
aresias
Posté le 01-08-2017 à 10:45:06  profilanswer
 

ZzDazzleZz a écrit :


 
Ce sont 2 sociétés  concurrentes ils sont la pour faire du business pas pour s'échanger des mamours :)
 
Tiens un exemple Audi à un niveau de qualité à des années lumière d'une Peugeot et on va dire oh les vilains ils ont des technologies fermés à la concurrence pourquoi Peugeot n'y a pas droit ??  
Bienvenu dans la vie réelle :)


Ton exemple n'a rien à voir et n'est en aucun cas comparable.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  274  275  276  ..  621  622  623  624  625  626

Aller à :
Ajouter une réponse
 

Sujets relatifs
Meilleure CG sans alimentation 80 euros max ?[Topic Unique] Asus ROG STRIX X99 Gaming (2011-V3)
Overclocker le GPU d'un AMD AM1.changer AMD Radeon 6800HD Series
demande d'info aux specialistes AMD ( FX-6300 )[HFR] Actu : Pilotes AMD Radeon Software 16.9.2 pour Forza 3
AMD vers NVIDIA[Topic Unique] Phanteks ECLIPSE P400S
AMD Radeon R9 490 et autres nouveautés.. (?)[HFR] Actu : Pilotes AMD Radeon Software 16.9.1
Plus de sujets relatifs à : [Topic Unique] AMD Vega


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)