Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Shop Recherche
1841 connectés 

 


 

Petit recensement : actuellement combien êtes-vous à avoir une des nouvelles cartes ?
Sondage à 4 choix possibles.




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  72  73  74  ..  304  305  306  307  308  309
Auteur Sujet :

[Topic Unique] AMD RDNA2 - RX6000 - "Navi 2x"

n°10857780
ppn7
Posté le 19-10-2020 à 18:38:15  profilanswer
 

Reprise du message précédent :

havoc_28 a écrit :


 
En terme de performance / prix, Polaris 10/20/30 ont été remplacé par N14, sauf qu'on au final on a quasi rien gagné niveau performance, uniquement niveau rapport performance / consommation.


 
oui j'aimerais bien la remplaçante niveau tarifaire de la 5500XT et 5600 XT 250/300€ max

mood
Publicité
Posté le 19-10-2020 à 18:38:15  profilanswer
 

n°10857781
genom
urinam non decolor unda
Posté le 19-10-2020 à 18:38:39  profilanswer
 

https://uploads.disquscdn.com/images/612468e6b0e6b818fd9fc60386246dd10bfcd2c124ae4adb1e835f19891e97b0.gif?w=600&h=180
 AMD back into the game...
 

Citation :

https://uploads.disquscdn.com/images/26b7df95f5df3f704d59c45c7a2748825020a14aeeff6356ef3b9e20446ad848.gif?w=600&h=315

Message cité 1 fois
Message édité par genom le 19-10-2020 à 18:51:03
n°10857793
oufouf84
Posté le 19-10-2020 à 19:00:18  profilanswer
 
n°10857823
alffir
Posté le 19-10-2020 à 20:03:22  profilanswer
 

havoc_28 a écrit :


Donc si tu connais le cas de Maxwell, et la taille de N10, en quoi est ce étonnant d'attendre au minimum une puce capable de venir s’intercaler entre TU102/GA104 et GA102 ? ça fait déjà un gain plus que notable en 4K : 50 % vs N10 si on arrive juste au niveau des TU102/GA104 (environ) et d'après la petite mise en bouche d'AMD lors de la présentation de Zen 3 ça semble être parti pour plus donc dans les 60/75 % de gain vs N10 en 4K.

 

Donc c'est nous qui sommes étonné par ton exemple basé sur N10 extrapolant qu'AMD en 7nm n'aurait pas beaucoup plus de marges ... Après si tu fais allusion à ceux qui pensent qu' AMD en rasterisation pure dépassera la G102, ou aura des performances identiques en RT hum oui c'est autre chose.


Mais des améliorations d'efficacité sans amélioration de finesse, comme Maxwell, RDNA ou les HD4870, c'est rare et on sort d'une.

 

Je comprends que beaucoup attendent un Big Navi pour revoir AMD sur du HdG, mais ma question portait sur RDNA 2.

 

Car quand on voit le peu d'amélioration qu'amenaient les successions de CGN et de Vega, je ne pense pas que RDNA 2 apportera grand chose.


---------------
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes.
n°10857835
havoc_28
Posté le 19-10-2020 à 20:21:46  profilanswer
 

alffir a écrit :


Mais des améliorations d'efficacité sans amélioration de finesse, comme Maxwell, RDNA ou les HD4870, c'est rare et on sort d'une.
 
Je comprends que beaucoup attendent un Big Navi pour revoir AMD sur du HdG, mais ma question portait sur RDNA 2.
 
Car quand on voit le peu d'amélioration qu'amenaient les successions de CGN et de Vega, je ne pense pas que RDNA 2 apportera grand chose.


 
GCN, tout au long de ses itérations à améliorer certains aspects qui n'ont pas forcément beaucoup impacter les performances à leurs époques. Le besoin en bande passante a pas mal diminué tout au long des évolutions de GCN, la puissance géométrique / tesselation a fortement augmenté, (doublement des grosses unités géométrique / tesselation en passant de 2 à 4 entre Tahiti et Hawaï, améliorations de leurs efficacité au fur et a meure des évolutions de GCN, tout comme le gains mécanique dus à l'augmentation progressive de la fréquence des puces GCN.  
 
Pour revenir spécialement sur GCN 5.0 / Vega aurait du apporter des gains qui ne sont concrétisés uniquement que dans RDNA 1, les primitives shaders, et le travail sur les ROPs qui n'ont donné / porté leurs fruits que dans RDNA 1.  
RDNA 1 lui même peut être qualifié d'architecture de transition entre GCN et RDNA 1, et RDNA 2  devrait gagner pas mal en efficience en se débarrassant d'une partie de son héritage lié à GCN.  
 
Bref coté RDNA 2 on va pas forcément gagné énormément en performance par unité donc en IPC, mais gagner fortement en efficience (les 50 % prmis), diminuer les besoins en bande passante mémoire (l'histoire de l'infinity cache), gagner en compacité grâce à l’expérience gagné avec le 7nm et en se débarrassant à nouveau des choses redondantes liés à GCN, tout comme 251 mm² de N10 pour une puce ça laisse énormément place pour y coller énormément de transistors / unités de calcul avec une puce plus imposante. Les rumeurs parlent quand même de 80 CU vs 40 CU actuellement, oui on a jamais un scaling parfait surtout quand la bande passante mémoire et le reste ne suivent pas, mais escompter 60/75% de gain vs N10 en 4K en doublant le nombre d’unité + améliorations diverses, ça me semble pas irréaliste.
 
Après y aura peut être des compromis sur les performances en RT, et on aura pas forcément une solution aussi efficace que ne l'est le DLSS si on a ne serait qu'une sorte d'équivalent ...

Message cité 1 fois
Message édité par havoc_28 le 19-10-2020 à 20:46:39
n°10857910
genom
urinam non decolor unda
Posté le 19-10-2020 à 21:44:31  profilanswer
 

havoc_28 a écrit :


 
Pour revenir spécialement sur GCN 5.0 / Vega aurait du apporter des gains qui ne sont concrétisés uniquement que dans RDNA 1, les primitives shaders, et le travail sur les ROPs qui n'ont donné / porté leurs fruits que dans RDNA 1.  
RDNA 1 lui même peut être qualifié d'architecture de transition entre GCN et RDNA 1, et RDNA 2  devrait gagner pas mal en efficience en se débarrassant d'une partie de son héritage lié à GCN.  
 
Bref coté RDNA 2 on va pas forcément gagné énormément en performance par unité donc en IPC, mais gagner fortement en efficience (les 50 % prmis), diminuer les besoins en bande passante mémoire (l'histoire de l'infinity cache), gagner en compacité grâce à l’expérience gagné avec le 7nm et en se débarrassant à nouveau des choses redondantes liés à GCN, tout comme 251 mm² de N10 pour une puce ça laisse énormément place pour y coller énormément de transistors / unités de calcul avec une puce plus imposante. Les rumeurs parlent quand même de 80 CU vs 40 CU actuellement, oui on a jamais un scaling parfait surtout quand la bande passante mémoire et le reste ne suivent pas, mais escompter 60/75% de gain vs N10 en 4K en doublant le nombre d’unité + améliorations diverses, ça me semble pas irréaliste.
 
Après y aura peut être des compromis sur les performances en RT, et on aura pas forcément une solution aussi efficace que ne l'est le DLSS si on a ne serait qu'une sorte d'équivalent ...


 
C'est parce que les modifications requises au niveau de l'API sont arrivées bien plus tard, un peu avant RDNA1...
https://techreport.com/news/33153/r [...] i-support/
 
Il y eu aussi le DSBR (Draw Stream Binning Rasterizer) qui offre la possibilité de regrouper les polygones par "tuile". Comme Nvidia et son Tile-Based Rendering sur Maxwell, ça permets de réduire la quantité de polygones à traiter et de saturer la mémoire en y accédant avec des quantité de tuiles plus petites/moins lourdes/compressées et de faire un meilleur travail d'élimination des pixels cachés, les empêchant d'atteindre les pixels shaders et d'y consommer trop de ressources.

Message cité 1 fois
Message édité par genom le 19-10-2020 à 21:52:26
n°10857917
havoc_28
Posté le 19-10-2020 à 21:53:33  profilanswer
 

genom a écrit :

C'est parce que les modifications requises au niveau de l'API sont arrivées bien plus tard, un peu avant RDNA1...
https://techreport.com/news/33153/r [...] i-support/


 
https://www.hardware.fr/articles/96 [...] -hbm2.html
 

Citation :

Là encore cela demandera un travail important aux développeurs ce qui fait qu'on peut douter qu'elle soit exploitée, mais AMD disposerait d'un path alternatif dans ses pilotes qui permettrait au cas par cas d'obtenir des gains.


 
J'en étais resté à cette promesse d'un support au cas par cas via les pilotes, ce qui au final ne c'est jamais concrétisé. Après j'ai pas l'impression que Vega en bénéficie vraiment depuis l'intégration dans les API :o.
 

genom a écrit :


Il y eu aussi le DSBR (Draw Stream Binning Rasterizer) qui offre la possibilité de regrouper les polygones par "tuile". Comme Nvidia et son Tile-Based Rendering sur Maxwell, ça permets de réduire la quantité de polygones à traiter et de saturer la mémoire en y accédant avec des quantité de tuiles plus petites/moins lourdes/compressées et de faire un meilleur travail d'élimination des pixels cachés, les empêchant d'atteindre les pixels shaders et d'y consommer trop de ressources.


 
Ah j'avais même oublié cela coté Vega, oui y a pas mal de chose qu'ils ont essayé avec Vega mais qui n'ont pas vraiment été utile à Vega en son temps, tant mieux si se travail a servi ensuite pour RDNA 1.  
 

Message cité 1 fois
Message édité par havoc_28 le 19-10-2020 à 22:02:25
n°10857936
AllenMadis​on
Posté le 19-10-2020 à 22:25:14  profilanswer
 

BON ALLEZ LAAA JPP D'ATTENDRE
 
 
On en a gros, Lisa !


---------------
Je parle de ce que mes proches vivent et ce que je vois / Tant de mecs coulés par le désespoir qui partent a la dérive.
n°10857950
HIETA
Posté le 19-10-2020 à 22:42:50  profilanswer
 

Pour patienter et je ne l'ai pas vu passer sur le forum, c'est un récapitulatif de moor's law is dead selon ses sources, sa date du 1er octobre mais avec les rumeurs qui sortent maintenant sa confirmerais ses dires ou alors les rumeurs actuelles se sont basées sur sa vidéo.
 
https://www.youtube.com/watch?v=IJHnaxZdeEk

n°10857954
havoc_28
Posté le 19-10-2020 à 22:46:45  profilanswer
 

HIETA a écrit :

Pour patienter et je ne l'ai pas vu passer sur le forum, c'est un récapitulatif de moor's law is dead selon ses sources, sa date du 1er octobre mais avec les rumeurs qui sortent maintenant sa confirmerais ses dires ou alors les rumeurs actuelles se sont basées sur sa vidéo.
 
https://www.youtube.com/watch?v=IJHnaxZdeEk


 
La moitié de son tableau ampère c'est révélé faux donc bon ...

mood
Publicité
Posté le 19-10-2020 à 22:46:45  profilanswer
 

n°10857959
boulba33
Posté le 19-10-2020 à 23:02:53  profilanswer
 

N'oublions pas la ô combien célèbre maxime du génial-fou-voyant-développeur incompris-visionnaire mr W : " ¡ Vous serez surpris ! "
 
Et zen lui donna raison, pourquoi pas rdna ?
 
C'est quand même une autre architecture, on a tellement eu l'habitude de gcn pendant des années..  
 
A en oublier qu'aux début de cayman personne ne voyait venir les HD 7000

n°10857965
genom
urinam non decolor unda
Posté le 19-10-2020 à 23:17:55  profilanswer
 

havoc_28 a écrit :


 
https://www.hardware.fr/articles/96 [...] -hbm2.html
 

Citation :

Là encore cela demandera un travail important aux développeurs ce qui fait qu'on peut douter qu'elle soit exploitée, mais AMD disposerait d'un path alternatif dans ses pilotes qui permettrait au cas par cas d'obtenir des gains.


 
J'en étais resté à cette promesse d'un support au cas par cas via les pilotes, ce qui au final ne c'est jamais concrétisé. Après j'ai pas l'impression que Vega en bénéficie vraiment depuis l'intégration dans les API :o.
 


 

havoc_28 a écrit :


 
Ah j'avais même oublié cela coté Vega, oui y a pas mal de chose qu'ils ont essayé avec Vega mais qui n'ont pas vraiment été utile à Vega en son temps, tant mieux si se travail a servi ensuite pour RDNA 1.  
 


 
On a tellement l'impression qu'ils étaient à la bourre (en mode rush) avec leur roadmap décalé auparavant, ça aidait pas c'est sûr, que toutes les nouvelles technos introduites ont mis du temps a être exploitées, sans parler des bugs divers et optimisation driverses au niveau driver/support... Là ils ont eu le temps de bien travailler leur nouvelle archi, en continuant d'innover et d'améliorer certains points, se caler sur le roadmap du concurrent et de bosser la partie refroidissement / esthétique. J'espère que ce sera un succès, car on voit bien qu'ils sont sur la bonne voie au niveau management et marketing avec Dr Lisa Su.  
 
Leur présentation était bien, clair, précise avec des benchs live honnêtes pour Ryzen 3. Finger crossed, de toute façon cette histoire de camp, c'est ridicule, car l'un dans l'autre le consommateur bénéfice d'une compétition saine, après si telles features sont importantes à l'un ou l'autre pas de problèmes, mais pas besoin de faire du bashing pour conforter sa position, c'est puéril :D

Message cité 3 fois
Message édité par genom le 19-10-2020 à 23:27:31
n°10857968
lecas
Posté le 19-10-2020 à 23:21:54  profilanswer
 

genom a écrit :


Leur présentation était bien, clair, précise avec des benchs live honnête pour Ryzen 3. Finger crossed, de toute façon cette histoire de camp, c'est rdicule, car l'un dans l'autre le consomateur bénéfice d'une compétition saine, après si tel features est importante à l'un ou l'autre pas de problèmes mais pas besoin de faire du bashing pour conforter sa position, c'est puéril :D


 
Le meilleur camp, c'est celui du rapport qualité/prix... enfin, si il est en stock.  :sweat:  

n°10857976
havoc_28
Posté le 20-10-2020 à 00:19:07  profilanswer
 

genom a écrit :

On a tellement l'impression qu'ils étaient à la bourre (en mode rush) avec leur roadmap décalé auparavant, ça aidait pas c'est sûr, que toutes les nouvelles technos introduites ont mis du temps a être exploitées, sans parler des bugs divers et optimisation driverses au niveau driver/support...


 
Oui RDNA 2 n'aura plus trop ce soucis de sortie décalée, après faudra toujours vérifier ce que ça donne coté pilote etc
 

genom a écrit :

Là ils ont eu le temps de bien travailler leur nouvelle archi, en continuant d'innover et d'améliorer certains points, se caler sur le roadmap du concurrent et de bosser la partie refroidissement / esthétique. J'espère que ce sera un succès, car on voit bien qu'ils sont sur la bonne voie au niveau management et marketing avec Dr Lisa Su.


 
Je ne sais pas s'ils ont eut plus le temps par rapports aux différentes itérations de GCN, mais par contre j'ai l'impression qu'ils ont pu mettre plus de moyen grâce à Zen etc ...  Pour le ventirad en tout cas ils n'ont pas refait la même erreur avec le Logo Radeon sur le coté trop protubérant et gênant le flux d'air, donc ça va dans le bon sens en espérant que le ventirad en lui même progresse aussi.  
 

genom a écrit :

Leur présentation était bien, clair, précise avec des benchs live honnêtes pour Ryzen 3. Finger crossed, de toute façon cette histoire de camp, c'est ridicule, car l'un dans l'autre le consommateur bénéfice d'une compétition saine, après si telles features sont importantes à l'un ou l'autre pas de problèmes, mais pas besoin de faire du bashing pour conforter sa position, c'est puéril :D


 
Oui y a cette impression d’honnêteté et des chiffres tout à fait plausibles lors de leurs présentation c'est sur, après quand ils sont dans une telle position de force y a pas besoin de trop enjoliver la situation. Coté GPU la dernière présentation vraiment sereine ça été celle de Pascal.

n°10857983
Rayaki
Posté le 20-10-2020 à 00:45:53  profilanswer
 

boulba33 a écrit :

N'oublions pas la ô combien célèbre maxime du génial-fou-voyant-développeur incompris-visionnaire mr W : " ¡ Vous serez surpris ! "
 
Et zen lui donna raison, pourquoi pas rdna ?
 
C'est quand même une autre architecture, on a tellement eu l'habitude de gcn pendant des années..  
 
A en oublier qu'aux début de cayman personne ne voyait venir les HD 7000


 
oui enfin entre les cores Buldozer et Zen, y a quand même eu pas mal d'avancées et d'années :p


---------------
Clan Torysss.
n°10857997
AllenMadis​on
Posté le 20-10-2020 à 04:04:28  profilanswer
 

plus que 8 dodos :o


---------------
Je parle de ce que mes proches vivent et ce que je vois / Tant de mecs coulés par le désespoir qui partent a la dérive.
n°10857998
shenron67
Sure we can. We're Sega.
Posté le 20-10-2020 à 04:15:29  profilanswer
 

Rayaki a écrit :


 
oui enfin entre les cores Buldozer et Zen, y a quand même eu pas mal d'avancées et d'années :p


 
Rien du tout à l'échelle de la civilisation  [:casediscute]

n°10858070
duck69
Posté le 20-10-2020 à 10:32:49  profilanswer
 

genom a écrit :


 
On a tellement l'impression qu'ils étaient à la bourre (en mode rush) avec leur roadmap décalé auparavant, ça aidait pas c'est sûr, que toutes les nouvelles technos introduites ont mis du temps a être exploitées, sans parler des bugs divers et optimisation driverses au niveau driver/support... Là ils ont eu le temps de bien travailler leur nouvelle archi, en continuant d'innover et d'améliorer certains points, se caler sur le roadmap du concurrent et de bosser la partie refroidissement / esthétique. J'espère que ce sera un succès, car on voit bien qu'ils sont sur la bonne voie au niveau management et marketing avec Dr Lisa Su.  
 
Leur présentation était bien, clair, précise avec des benchs live honnêtes pour Ryzen 3. Finger crossed, de toute façon cette histoire de camp, c'est ridicule, car l'un dans l'autre le consommateur bénéfice d'une compétition saine, après si telles features sont importantes à l'un ou l'autre pas de problèmes, mais pas besoin de faire du bashing pour conforter sa position, c'est puéril :D


 
Le gain financier depuis 2017 avec zen et les apu et non négligeable aussi , ça permet de faire de la R&D et d’être serein , je pense que rdna3 sera le vrai retour de AMD vis à vis de nvidia.
 
Il reste encore des part de marché sur le pc portable , un secteur qui est encore largement intel pour le coup.

n°10858082
aliss
Rhyme the Rhyme Well
Posté le 20-10-2020 à 10:44:45  profilanswer
 

https://i.imgur.com/XjN2C0I.png
 
[:franceurop-detresse:10]
 
https://www.igorslab.de/en/amd-rade [...] exclusive/
 
[:psywalk]
 
...Also AMD has completely limited the graphics performance to avoid annoying leaks. Corresponding reports that board partners had complained about insufficient performance were answered exactly the same way by AMD.  So the AIB don’t know (like NVIDIA’s AIC in September) what they are actually producing. Not bad either...
 
Décidemment, c'est une nouvelle mode...

Message cité 3 fois
Message édité par aliss le 20-10-2020 à 10:58:24
n°10858100
davideneco
Posté le 20-10-2020 à 10:59:15  profilanswer
 

TBP , TGP , TDP  
 
C'est un bordel pas possible  
 
Je retient que le TGP de la 5700XT est a 225W et le gpu consomme au total 225W max (pour le modèle de référence)
 
Alors une Navi 21 custom avec 255W de TGP , je vois mal comment elle consommerait 355W

n°10858103
aliss
Rhyme the Rhyme Well
Posté le 20-10-2020 à 11:03:34  profilanswer
 

davideneco a écrit :

TBP , TGP , TDP

 

C'est un bordel pas possible

 

Je retient que le TGP de la 5700XT est a 225W et le gpu consomme au total 225W max (pour le modèle de référence)

 

Alors une Navi 21 custom avec 255W de TGP , je vois mal comment elle consommerait 355W

 

Car les deux n'utilisent pas les termes de la même manière (y compris les AIB :/).

 

Dans le détail selon Igor, un modèle custom oc d'usine de N21 XT serait à 270w pour le gpu uniquement et 355w pour la carte (en tenant compte des mosfet, gddr, ventilateurs) etc.


Message édité par aliss le 20-10-2020 à 11:04:54
n°10858113
Moihey
Qui veut m adopter ?
Posté le 20-10-2020 à 11:19:12  profilanswer
 

Drapal


---------------
Les jeux sont faits, rien ne va plus ! Battletag : GogoLeSuperb#2246
n°10858114
qhyron90
Soyez pas vache adoptez un cha
Posté le 20-10-2020 à 11:21:37  profilanswer
 

aliss a écrit :

https://i.imgur.com/XjN2C0I.png
 
[:franceurop-detresse:10]
 
https://www.igorslab.de/en/amd-rade [...] exclusive/
 
[:psywalk]
 
...Also AMD has completely limited the graphics performance to avoid annoying leaks. Corresponding reports that board partners had complained about insufficient performance were answered exactly the same way by AMD.  So the AIB don’t know (like NVIDIA’s AIC in September) what they are actually producing. Not bad either...
 
Décidemment, c'est une nouvelle mode...


 
JPP des rumeurs plus folles les unes que les autres :o


---------------
la VR de bonhomme: https://forum.hardware.fr/hfr/JeuxV [...] 0695_1.htm
n°10858115
drivergta
Posté le 20-10-2020 à 11:23:05  profilanswer
 

qhyron90 a écrit :


 
JPP des rumeurs plus folles les unes que les autres :o


 
A ce stade c'est plus des rumeurs, on est à 7 jours de la présentation.
 
On a eu une suite de leak qui vont tous dans le même sens, le mec ne suppose rien il affirme  :bounce:

n°10858117
Baudeflo
Posté le 20-10-2020 à 11:23:40  profilanswer
 

A une semaine des annonces tout le monde s'affole sur les rumeurss :o
 
Normal :o
 
J'ai hâte  [:ryo-ohki:2]


---------------
Reho.st est mort, vive Rehost | Yoga
n°10858128
chrisleurn
Hardcore Will Never Die !
Posté le 20-10-2020 à 11:36:05  profilanswer
 

aliss a écrit :

https://i.imgur.com/XjN2C0I.png
 
[:franceurop-detresse:10]
 
https://www.igorslab.de/en/amd-rade [...] exclusive/
 
[:psywalk]
 
...Also AMD has completely limited the graphics performance to avoid annoying leaks. Corresponding reports that board partners had complained about insufficient performance were answered exactly the same way by AMD.  So the AIB don’t know (like NVIDIA’s AIC in September) what they are actually producing. Not bad either...
 
Décidemment, c'est une nouvelle mode...


Le dernier leak sur la conso, c’était 120-150W le GPU et là, selon Igor, c'est 230W, sacré up d'un coup :o  

n°10858132
drivergta
Posté le 20-10-2020 à 11:38:46  profilanswer
 

chrisleurn a écrit :


Le dernier leak sur la conso, c’était 120-150W le GPU et là, selon Igor, c'est 230W, sacré up d'un coup :o  


Non ça c'était au début, quand les gens disaient encore que AMD arriverai au niveau d'une 2080ti grand max et  qu'elle serait sans doute en dessous d'une 3070 de peu.

n°10858133
kaiser52
Posté le 20-10-2020 à 11:39:24  profilanswer
 

davideneco a écrit :

TBP , TGP , TDP  
 
C'est un bordel pas possible  
 
Je retient que le TGP de la 5700XT est a 225W et le gpu consomme au total 225W max (pour le modèle de référence)
 
Alors une Navi 21 custom avec 255W de TGP , je vois mal comment elle consommerait 355W


 
Peut être que cela a à voir avec le reste de la carte ?
Si on regarde les détails de GPU-Z sur la RTX 3080, on a 184w en moyenne pour le GPU lui même et 317w en moyenne pour la carte complète.
https://cdn.wccftech.com/wp-content/uploads/2020/09/NVIDIA-GeForce-RTX-3080-Memory-OC-Test.png
 
La GDDR semble sucer un max ici pour cette génération non ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°10858135
aliss
Rhyme the Rhyme Well
Posté le 20-10-2020 à 11:40:28  profilanswer
 

chrisleurn a écrit :


Le dernier leak sur la conso, c’était 120-150W le GPU et là, selon Igor, c'est 230W, sacré up d'un coup :o  


 
Ou ça ?
 
Sinon il explique le pourquoi du comment (selon lui évidemment) dans son article.
 
Many of the news suggest, based on a leak by Patrick Schur, a power consumption of the Navi21 XT of 255 watts and the Navi 21 XL of 220 watts for the entire graphics card. This is not only wrong, but suggests an efficiency that unfortunately does not exist in this form. AMD calls the power consumption of the entire card TBP (Total/Typical Board Power) while NVIDIA calls the equivalent TGP (Total Graphics Power). So I can only advise those who write the daily news to go a little deeper into the subject matter they report on. Patrick was right, but from the sight of AMD. That’s a difference.
 
Il est habituellement fiable (et c'est un journaliste avant d'être un "leakeur" ), sur Ampere il avait vu juste sur bon nombre de points.
 
Bref w&s.  ;)  

n°10858142
xiky
Posté le 20-10-2020 à 11:48:49  profilanswer
 

Bait for wenchmark :o

n°10858143
chrisleurn
Hardcore Will Never Die !
Posté le 20-10-2020 à 11:49:48  profilanswer
 

aliss a écrit :

bp, largeur de bus, vram et tdp (die only) de N21/22/23 selon KittyYYuko (à l'origine du premier leak du doublement des F32 de Ampere).
 
https://i.imgur.com/hzv9Y5s.png
 
https://twitter.com/KittyYYuko/stat [...] 16832?s=20


 

aliss a écrit :


 
Ou ça ?
 


D'un tweet venant de toi :o

n°10858146
qhyron90
Soyez pas vache adoptez un cha
Posté le 20-10-2020 à 11:51:26  profilanswer
 

drivergta a écrit :


 
A ce stade c'est plus des rumeurs, on est à 7 jours de la présentation.
 
On a eu une suite de leak qui vont tous dans le même sens, le mec ne suppose rien il affirme  :bounce:


 
 
comme les +80% de nvidia? :lol:
 
au final +25% :o


---------------
la VR de bonhomme: https://forum.hardware.fr/hfr/JeuxV [...] 0695_1.htm
n°10858148
aliss
Rhyme the Rhyme Well
Posté le 20-10-2020 à 11:53:46  profilanswer
 

chrisleurn a écrit :


D'un tweet venant de toi :o


 
Ben il s'est brouté.  ;)  
 
Ou alors il se basait sur une carte au niveau du TU102.
 
Avec le leak d'AMD, à moins de 100% de gain d'efficience, fallait s'attendre à plus.

n°10858149
Aqua-Niki
Posté le 20-10-2020 à 11:56:02  profilanswer
 

qhyron90 a écrit :


 
 
comme les +80% de nvidia? :lol:
 
au final +25% :o


Toujours plus x) Encore un peu et tu nous sors que 2080 = 3080 :pt1cable:

n°10858151
Jojos92
Quand on aime on ne compte pas
Posté le 20-10-2020 à 12:00:44  profilanswer
 

qhyron90 a écrit :

 


comme les +80% de nvidia? :lol:

 

au final +25% :o

 


Les + 80% vs une RTX 2080 y sont
Et +35% vs une 2080ti

 

En 4K biensur, si tu te pecho ça faut pas jouer dans la définition du pleutre
 [:jean-michel platini:1]

 

Message cité 1 fois
Message édité par Jojos92 le 20-10-2020 à 12:01:20

---------------
XG27UQ 4K 144HZ | i9 10900 @4,6ghz | 32Go de RAM | RTX 3080 FE @1920mhz/900mv
n°10858195
Blast Game​r
Posté le 20-10-2020 à 13:08:44  profilanswer
 

En 4K on a les 30% face à la 2080Ti, mais en 1440p il me semble que le gain est plus aux alentours de 20% d'après :
https://www.techspot.com/review/211 [...] ottleneck/
 
Il y aurait un bottleneck propre à l'archi d'ampère qui serait plus efficace en 4K qu'en 1440p.
 
 
J'attend AMD perso plus sur le 1440p vu que j'ai le 27GL850 de LG (que je recommande chaudement).


Message édité par Blast Gamer le 20-10-2020 à 13:12:05
n°10858257
qhyron90
Soyez pas vache adoptez un cha
Posté le 20-10-2020 à 14:26:38  profilanswer
 

Jojos92 a écrit :


 
 
Les + 80% vs une RTX 2080 y sont
Et +35% vs une 2080ti  
 
En 4K biensur, si tu te pecho ça faut pas jouer dans la définition du pleutre
 [:jean-michel platini:1]  
 


 
 
tout ça pour dire qu'il faut savoir garder un oeil critique sur les rumeurs et "certitudes" :o


---------------
la VR de bonhomme: https://forum.hardware.fr/hfr/JeuxV [...] 0695_1.htm
n°10858276
havoc_28
Posté le 20-10-2020 à 14:50:43  profilanswer
 

aliss a écrit :

https://i.imgur.com/XjN2C0I.png
 
[:franceurop-detresse:10]
 
https://www.igorslab.de/en/amd-rade [...] exclusive/
 
[:psywalk]
 
...Also AMD has completely limited the graphics performance to avoid annoying leaks. Corresponding reports that board partners had complained about insufficient performance were answered exactly the same way by AMD.  So the AIB don’t know (like NVIDIA’s AIC in September) what they are actually producing. Not bad either...
 
Décidemment, c'est une nouvelle mode...


 
1) AMD et Nvidia se sont concertés pour produire des cartes graphiques gourmandes :o.
2) Les AIBs avancent dans le noir : /, j'espère qu'ils auront de quoi faire niveau solution de refroidissement dans ces conditions.
 
ça serait pas la première fois que la RTG annonce un fort gain d'efficience (dans des conditions bien particulière), pour au final en pratique en être très très loin : /. Bon reste à confirmer tout cela ...
 
En fonction du rapport performance / prix ça pourrait être une bonne carte mais en fonction de la taille de la puce, consommation, performance sur le plan technique ça pourrait être pas terrible au final mais bon dans l'absolu c'est le rapport performance / prix qui compte encore une fois.
 
les nouveaux node apportent de moins en moins faut se faire une raison :( (même si AMD coté CPU pour l'instant mène bien sa barque).

Message cité 1 fois
Message édité par havoc_28 le 20-10-2020 à 14:58:34
n°10858336
Jojos92
Quand on aime on ne compte pas
Posté le 20-10-2020 à 16:04:56  profilanswer
 

Le gain d'efficience de l'archi peut être donné à genre une fréquence donné.
 
Genre si je bride la carte à 100w et 1000mhz la 3080 est surement 50% plus efficiente qu'une 2080ti à la même fréquence.
 
Pour autant derrière si je veux de la perf faut cracher :o


---------------
XG27UQ 4K 144HZ | i9 10900 @4,6ghz | 32Go de RAM | RTX 3080 FE @1920mhz/900mv
n°10858341
havoc_28
Posté le 20-10-2020 à 16:13:03  profilanswer
 

Jojos92 a écrit :

Le gain d'efficience de l'archi peut être donné à genre une fréquence donné.
 
Genre si je bride la carte à 100w et 1000mhz la 3080 est surement 50% plus efficiente qu'une 2080ti à la même fréquence.
 
Pour autant derrière si je veux de la perf faut cracher :o


 
On a l'habitude avec Polaris etc :o. Où les samples de test était sous le GHZ où la courbe des tensions / fréquences étaient plus qu'optimal.

n°10858343
Jojos92
Quand on aime on ne compte pas
Posté le 20-10-2020 à 16:15:07  profilanswer
 

Hahaha a ouais AMD avait fait ce coup là? :o


---------------
XG27UQ 4K 144HZ | i9 10900 @4,6ghz | 32Go de RAM | RTX 3080 FE @1920mhz/900mv
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  72  73  74  ..  304  305  306  307  308  309

Aller à :
Ajouter une réponse
 

Sujets relatifs
Amd Rysen serie 3000 ou patienceTempératures AMD RX 580 8 Go
Config.Gamer: Intel ou AMD ?.
Question processeur I7 7700K ou AMD Ryzen 3700xUtilisation AMD Ryzen Master
CG Nvidia + CG Amd dans un même PC.[Topic unique] ASUS TUF GAMING B550M-PLUS (wifi)
[Topic Unique] Technologie SMR...Compatibilité AMD Radeon HD 6670
Plus de sujets relatifs à : [Topic Unique] AMD RDNA2 - RX6000 - "Navi 2x"


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR