Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2701 connectés 

 

 

Petit recensement : actuellement combien êtes-vous à avoir une des nouvelles cartes ?
Sondage à 4 choix possibles.




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  36  37  38  ..  580  581  582  583  584  585
Auteur Sujet :

[Topic Unique] RDNA2 - AMD RX6x00 - Navi 2x

n°10830051
Lestanquet
Posté le 18-09-2020 à 08:27:23  profilanswer
 

Reprise du message précédent :
Un cpu qui n'existe pas  [:melon]


---------------
Feedback et ventes http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le 18-09-2020 à 08:27:23  profilanswer
 

n°10830057
aliss
Rhyme the Rhyme Well
Posté le 18-09-2020 à 08:33:36  profilanswer
 

Lestanquet a écrit :

Un cpu qui n'existe pas  [:melon]


 
Peut-être le mois prochain.  ;)  

n°10830058
Lestanquet
Posté le 18-09-2020 à 08:33:54  profilanswer
 

Espérons !


---------------
Feedback et ventes http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°10830376
havoc_28
Posté le 18-09-2020 à 10:58:52  profilanswer
 

aliss a écrit :


 
C'est justement lorsque l'on est gpu bound qu'une archi creuse le plus l'écart.  
 
J'ai lu à plusieurs reprises que de doubler les FP32 avait eu pour incidence une baisse de l'IPC, ce qui semble assez cohérent avec les résultats obtenus.
 


 
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-founders-edition/images/arch3.jpg https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/images/arch5.jpg
 
Sur Turing, les unités flottantes et entières fonctionnaient en parallèles, sur Ampère c'est toujours le cas mais juste pour la moitié des unités FP32, les autres alternes entre entier et flottant en fonction de la charge, FP32 + INT.

Message cité 1 fois
Message édité par havoc_28 le 18-09-2020 à 11:02:12
n°10830433
aliss
Rhyme the Rhyme Well
Posté le 18-09-2020 à 11:15:46  profilanswer
 

havoc_28 a écrit :


 
https://www.techpowerup.com/review/ [...] /arch3.jpg https://www.techpowerup.com/review/ [...] /arch5.jpg
 
Sur Turing, les unités flottantes et entières fonctionnaient en parallèles, sur Ampère c'est toujours le cas mais juste pour la moitié des unités FP32, les autres alternes entre entier et flottant en fonction de la charge, FP32 + INT.


 
N'y a t'il pas une perte d'efficacité des SU compensée par une forte augmentation de leur nombre ?
 
Qui de Turing ou Ampere serait le plus efficace avec le même nombre de Shading Units ?

n°10830474
havoc_28
Posté le 18-09-2020 à 11:27:04  profilanswer
 

aliss a écrit :


 
N'y a t'il pas une perte d'efficacité des SU compensée par une forte augmentation de leur nombre ?
 
Qui de Turing ou Ampere serait le plus efficace avec le même nombre de Shading Units ?


 
J'imagine que c'est une histoire de compromis et coût en transistors, je pense aussi que Turing à nombre de SU identique serait plus performant qu'Ampère vu qu'il n'y aurait pas la moitié des unités en qui seraient sujette à alterner entre flottant et entier en fonction de la charge, soucis ce super Turing serait encore nettement plus gourmand niveau transistor (en tout cas pour la partie SU, j'imagine que les RT / Tensore Core sur Ampere sont plus performant, même si pour l'instant ça se voit trop dans les test au final ...  
 
Enfin moi je l'interprète comme ça, nvidia à augmenter massivement ce qui était le plus profitable dans une utilisation jeu, même si cette forte augmentation ne donne pas toujours un gain aussi important que suggéré niveau chiffre, après oui on peut dire que ça fait baisser le rendement des SU peut être ?
 
Le 8nm a peut être au final impose plus de compromis qu'on ne le voudrait ?
 
Mais bon pour, AMD le challenge est toujours, là. Le 7NP n'est qu'une amélioration mineur du 7N, et le coût des galettes de 7nm TSMC c'est pas donné, y a de l'espoir vu la compacité de l'APU de la Xboite série X, mais je sais toujours pas à quoi vraiment m'attendre avec RDNA 2 et ses Navi 2X.
 

Message cité 1 fois
Message édité par havoc_28 le 18-09-2020 à 11:31:18
n°10830497
aliss
Rhyme the Rhyme Well
Posté le 18-09-2020 à 11:36:16  profilanswer
 

havoc_28 a écrit :

 

Mais bon pour, AMD le challenge est toujours, là. Le 7NP n'est qu'une amélioration mineur du 7N, et le coût des galettes de 7nm TSMC c'est pas donné, y a de l'espoir vu la compacité de l'APU de la Xboite série X, mais je sais toujours pas à quoi vraiment m'attendre avec RDNA 2 et ses Navi 2X.

 


 

Tiens, ça me fait penser que je suis tombé là dessus, c'est pratiquement du x2,5 vs le 16nm.

 

https://i.imgur.com/dEDATpC.png

 

https://twitter.com/chiakokhua/stat [...] 86848?s=20

Message cité 3 fois
Message édité par aliss le 18-09-2020 à 11:37:53
n°10830508
AllenMadis​on
Posté le 18-09-2020 à 11:38:30  profilanswer
 

aliss a écrit :


 
Tiens, ça me fait penser que je suis tombé là dessus, c'est pratiquement du x2,5 vs le 16nm.
 
https://i.imgur.com/dEDATpC.png
 
https://twitter.com/chiakokhua/stat [...] 86848?s=20


 
Faut regarder la ligne "price per chip". On voit que finalement si, c'est donné.

n°10830525
aliss
Rhyme the Rhyme Well
Posté le 18-09-2020 à 11:46:23  profilanswer
 

AllenMadison a écrit :


 
Faut regarder la ligne "price per chip". On voit que finalement si, c'est donné.


 
Forget about the per-chip price. I think it is not very useful or even valid.

n°10830561
havoc_28
Posté le 18-09-2020 à 11:57:43  profilanswer
 

aliss a écrit :


 
Tiens, ça me fait penser que je suis tombé là dessus, c'est pratiquement du x2,5 vs le 16nm.
 
https://i.imgur.com/dEDATpC.png
 
https://twitter.com/chiakokhua/stat [...] 86848?s=20


 
Est ce qu'AMD peut vraiment se permettre une puce de 500mm² comme pointé par certaines rumeurs ? Uniquement si les performances sont de premier ordre avec les tarifs qui vont avec.

mood
Publicité
Posté le 18-09-2020 à 11:57:43  profilanswer
 

n°10830583
genom
urinam non decolor unda
Posté le 18-09-2020 à 12:14:03  profilanswer
 

aliss a écrit :


 
C'est justement lorsque l'on est gpu bound qu'une archi creuse le plus l'écart.  
 
J'ai lu à plusieurs reprises que de doubler les FP32 avait eu pour incidence une baisse de l'IPC, ce qui semble assez cohérent avec les résultats obtenus.
 
Pour le reste (optimisations, pilotes) c'est ce qu'on pouvait déjà entendre à la sortie de Turing (ou RDNA par exemple).
 
La principale limitation semble tout de même venir de la puissance des cpu's actuels (ou du retard de la gestion des core/threads par les devs).
 
C'est assez flagrant en 1440p chez TPU ou l'écart est élevé entre un 3900XT et un 9900k/10900k.
 
https://www.techpowerup.com/review/ [...] 0k/27.html
 
https://i.imgur.com/7lUW6DP.png
 
Il va falloir un sacré cpu pour exploiter convenablement une 3090 (hors UHD & +).  :D  


 
Oui les cpu sont en partis responsable, c'est clair, mais les devs doivent effectivement adapter leur coding tant au niveau gestion des threads cpu que de la "nouvelle" puissance gpu au final, en tout cas basculer le maximum sur le gpu. On le voit bien que sur certains jeux bien parallélisé, avec une bonne gestion des threads et pas sur uniquement 4/6 threads hyper dépendant de fréquences des cœurs et des latences. Que ça tourne bien. Souvent Les cpu se tournent les pouces.  
 
Alors es-ce que dans le flow l'approche avec accès au disque SSD par le gpu vont enlever ce bottleneck ? Ca pourrait être une piste. Mais ça forcera le devs à revoir leur approche et coding, en tout cas.
 
Je ne suis pas sur que l'exemple de TPU soit le plus optimale, car sur leur setup du 3900XT il maxout l'IF @ 1866Mhz ok, mais avec de la ram en cas @ 3733 MHz 19-23-23-42, on peut se demander si le font exprès ? Ca vaut la peine d'héberger DRAM calculator si c'est pour coller au 3900XT de la ram pourrie. Ça me dépasse perso  :D  
 
Après ça dépends du panel de jeux du testeurs j'ai essayé de trouver des résultats différents. Mais c'est pas légion.
 
KitGuru (CPU OC)
DDR4 3600 CL 18-22-22-42 - IF @ 1800Mhz
https://www.kitguru.net/wp-content/uploads/2020/09/avg-1440-1.png
 
Techsport / Hardware unboxed (CPU 3950X)
DDR4 3200 CL14 - IF @ 1600Mhz  
https://static.techspot.com/articles-info/2099/bench/CPU_1440p.png
 
J'aimerais bien voir des test avec le 3900XT optimisé avec l'IF @ 16800Mhz avec des timings en cas 16 minimum, voir si l'écart ce réduit, en tout cas Intel est devant, rien à redire là dessus.

Message cité 2 fois
Message édité par genom le 18-09-2020 à 12:36:53
n°10830605
Rayaki
Posté le 18-09-2020 à 12:22:17  profilanswer
 

"sur leur setup du 3900XT il maxout l'IF @ 1866Mhz ok, mais avec de la ram en cas @ 3733 MHz 19-23-23-42"
 
 [:chatoo:5] CL19... ils sont sérieux ?
Bonjour la latence moisie et la petite baisse de perfs graphiques que ca entraine !
Pourquoi pas non plus de la 4400 CL20 :o


Message édité par Rayaki le 18-09-2020 à 12:22:36

---------------
Clan Torysss.
n°10830625
Gilbert Go​sseyn
Dr Liara T'Soni
Posté le 18-09-2020 à 12:30:54  profilanswer
 

genom a écrit :


 
Oui les cpu sont en partis responsable, c'est clair, mais les devs doivent effectivement adapter leur coding tant au niveau gestion des threads cpu que de la "nouvelle" puissance gpu au final, en tout cas basculer le maximum sur le gpu. On le voit bien que sur certains jeux bien parallélisé, avec une bonne gestion des threads et pas sur uniquement 4/6 threads hyper dépendant de fréquences des cœurs et des latences. Que ça tourne bien. Souvent Les cpu se tournent les pouces.  
 
Alors es-ce que dans le flow l'approche avec accès au disque SSD par le gpu vont enlever ce bottleneck ? Ca pourrait être une piste. Mais ça forcera le devs à revoir leur approche et coding, en tout cas.
 
Je ne suis pas sur que l'exemple de TPU soit le plus optimale, car sur leur setup du 3900XT il maxout l'IF @ 1866Mhz ok, mais avec de la ram en cas @ 3733 MHz 19-23-23-42, on peut se demander si le font exprès ? Ca vaut la peine d'héberger DRAM calculator si c'est pour coller au 3900XT de la ram pourrie. Ça me dépasse perso  :D  
 
Après ça dépends du pannel de jeux, du testeurs j'ai essayé de touver des résultats différents. Mais c'est pas légion.
 
KitGuru (CPU OC)
DDR4 3600 CL 18-22-22-42 - IF @ 1800Mhz
https://www.kitguru.net/wp-content/ [...] 1440-1.png
 
Techsport / Hardware unboxed (CPU 3950X)
DDR4 3200 CL14 - IF @ 1600Mhz  
https://static.techspot.com/article [...] _1440p.png
 
J'aimerais bien voir des test avec le 3900XT optimisé avec l'IF @ 1600Mhz avec des timings en cas 16 minimum, voir si l'écart ce réduit, en tout cas Intel est devant, rien à redire là dessus.


Le Ryzen, avec ses fréquences inférieures, tant base que boost, se maintient bien je trouve.


Message édité par Gilbert Gosseyn le 18-09-2020 à 12:32:36

---------------
Tant que la couleur de la peau sera plus importante que celle des yeux, nous ne connaitrons pas la paix. ● L'écriture, c'est la mémoire du futur. ● Mods FO4
n°10830642
genom
urinam non decolor unda
Posté le 18-09-2020 à 12:39:37  profilanswer
 

aliss a écrit :


 
Forget about the per-chip price. I think it is not very useful or even valid.


 
c'est clair si t'as pas le volume, le taux de rejet ou de declassement par wafer, en plus pour AMD c'est du custom chip, il y a tellement de paramètres qui rentrent en compte, eux seuls savent le prix de revient de leur chip :D
 
au passage, les "us" se mobilisent  :D  
https://www.techspot.com/news/86789 [...] -chip.html


Message édité par genom le 18-09-2020 à 13:20:16
n°10830800
aliss
Rhyme the Rhyme Well
Posté le 18-09-2020 à 14:30:15  profilanswer
 

genom a écrit :


 
Je ne suis pas sur que l'exemple de TPU soit le plus optimale, car sur leur setup du 3900XT il maxout l'IF @ 1866Mhz ok, mais avec de la ram en cas @ 3733 MHz 19-23-23-42, on peut se demander si le font exprès ? Ca vaut la peine d'héberger DRAM calculator si c'est pour coller au 3900XT de la ram pourrie. Ça me dépasse perso  :D  
 
Après ça dépends du panel de jeux du testeurs j'ai essayé de trouver des résultats différents. Mais c'est pas légion.
 
J'aimerais bien voir des test avec le 3900XT optimisé avec l'IF @ 16800Mhz avec des timings en cas 16 minimum, voir si l'écart ce réduit, en tout cas Intel est devant, rien à redire là dessus.


 
Oui c'est effectivement bizzare, note que le 10900k est logé à la même enseigne.
 
On passe de 8% d'écart (TPU) à 6% (Techspot) ce qui ne change pas vraiment la donne. Cet écart devrait être gommé avec Zen 3.

n°10830951
ohyes78
Posté le 18-09-2020 à 16:24:36  profilanswer
 

Analyse par mes soins du die de la xbox series X pour définir les gains au passage du RDNA 1.0 7NM vs RDNA 2.0 en 7nm+.
 
Méthodologie:
 
J'ai comparé 2 photos avec mise à l’échelle des "die shoot" du gpu "Scarlett" et du "Navi 10" (avec 56 les Cu du Scarlett).
 
Source:
 
Microsoft pour le die (SOC Spec - Physical view) et les specs chez techpowerup "https://www.techpowerup.com/gpu-specs/xbox-series-x-gpu.c3482"
https://image.noelshack.com/minis/2020/38/5/1600440463-202008180207551.png
Conclusion:
 
Consommation global du SOC + mémoires du fait du passage du 7nm vers le 7nm+ avec 10% de gagné en densité, soit une consommation de la partie GPU de 150 Watt maximum!
 
https://image.noelshack.com/minis/2020/38/5/1600438922-estimation.png
 
Un Big Navi de 80 Cu? pour une consommation de 250 Watt?avec 3 fois les perfs du 5700xt?C'est possible?

Message cité 1 fois
Message édité par ohyes78 le 18-09-2020 à 16:48:32
n°10830973
ppn7
Posté le 18-09-2020 à 16:37:42  profilanswer
 

Je dis pas non à un Navi 52/56CU à moins de 200W pour 300€

n°10830974
wazany
Posté le 18-09-2020 à 16:38:44  profilanswer
 

Fin octobre c'est loin :o


---------------
L'annuaire des serveurs Discord Hardware.fr Aidez nous à le compléter ! | Mes ventes
n°10830979
ppn7
Posté le 18-09-2020 à 16:40:21  profilanswer
 

wazany a écrit :

Fin octobre c'est loin :o


 
On a le temps de revoir le COVID

n°10831020
havoc_28
Posté le 18-09-2020 à 17:12:30  profilanswer
 

ohyes78 a écrit :

Un Big Navi de 80 Cu? pour une consommation de 250 Watt?avec 3 fois les perfs du 5700xt?C'est possible?


 
Ils peuvent très bien faire une puce avec 80/96 CU voir plus, mais t'auras pas 3X les perfs d'une 5700XT et même pas 2x juste en doublant le nombre de CU et en augmentant la bande passante mémoire en conséquence, la mise à échelle est rarement parfaite dans le domaine, et le tout pour juste 250w ouais non là ça devient mission impossible ...
 
ET 3X de gain en restant sur du 7nm, juste un peu améliorer, même si y a de la place pour faire des puces bien plus imposantes que Navi 10 faut pas non plus pousser hein :D.


Message édité par havoc_28 le 18-09-2020 à 17:24:09
n°10831053
Activation
21:9 kill Surround Gaming
Posté le 18-09-2020 à 17:35:00  profilanswer
 

aliss a écrit :


 
Tiens, ça me fait penser que je suis tombé là dessus, c'est pratiquement du x2,5 vs le 16nm.
 
https://i.imgur.com/dEDATpC.png
 
https://twitter.com/chiakokhua/stat [...] 86848?s=20


 
Ça serait pas mal la correlation avec la taille des wafer aussi
 
Faudrait pas oublier que les wafer on vu leur diametre augmenter
Donc à finesse de gravure egal tu mettrait plus de puce sur un wafer en 2020 qu un wafer en 2020
C'est vague "1 wafer"

n°10831060
havoc_28
Posté le 18-09-2020 à 17:43:46  profilanswer
 

Activation a écrit :


 
Ça serait pas mal la correlation avec la taille des wafer aussi
 
Faudrait pas oublier que les wafer on vu leur diametre augmenter
Donc à finesse de gravure egal tu mettrait plus de puce sur un wafer en 2020 qu un wafer en 2020
C'est vague "1 wafer"


 
Hum, les galettes de 300 mm² ça a commencé à se démocratiser avec le "90 nm", donc j'imagine que ce tableau c'est 300 mm² pour tous les procédés de lithographie du tableau (qui commence à 90 nm).


Message édité par havoc_28 le 18-09-2020 à 17:45:03
n°10831063
xkozen
Posté le 18-09-2020 à 17:44:55  profilanswer
 

drap

n°10831208
Jumpyman97​2
Posté le 18-09-2020 à 19:57:38  profilanswer
 

La plus grande cause du CPU limited en ce moment, c'est simplement qu'on est en fin de génération de console est donc que le gpu de base pour développer les jeux, c'est celui de la Xbox one qui fait 1,3 TFlops.
 
C était la même chose quand la 7800 gtx était sortie ou la gtx 580. Les consoles étaient à bout et ces gpu se tournaient les pouces. Avec la PS5 et la XBSX et leurs 10 et 12 TFlops, la baseline des moteurs va changer(unreal engine 5, etc...) et les GPU seront de nouveau limitant.

Message cité 2 fois
Message édité par Jumpyman972 le 18-09-2020 à 20:03:43
n°10831214
havoc_28
Posté le 18-09-2020 à 20:00:59  profilanswer
 

Jumpyman972 a écrit :

La plus grande cause du CPU limited en ce moment, c'est simplement qu'on est en fin de génération de console est donc que le gpu de base pour développer les jeux, c'est celui de la Xbox one qui fait 1,3 TFlops.
 
C était la même chose quand la 7800 gtx était sortie ou la gtx 580. Les consoles étaient à bout et les gpu se tournaient les pouces. Avec la PS5 et la XBSX et leurs 10 et 12 TFlops, la baseline des moteurs va changer(unreal engine 5, etc...) et les GPU seront de nouveau limitant.


 
IL y a quand même des jeux assez bien parallélisés qui sont tout de même bridés coté CPU avec les 2080 Ti et supérieur : /. Il y a jamais un unique facteur pour ce genre de situation mais une combinaisons :p.

Message cité 1 fois
Message édité par havoc_28 le 18-09-2020 à 20:01:21
n°10831231
Jumpyman97​2
Posté le 18-09-2020 à 20:12:56  profilanswer
 

havoc_28 a écrit :


 
IL y a quand même des jeux assez bien parallélisés qui sont tout de même bridés coté CPU avec les 2080 Ti et supérieur : /. Il y a jamais un unique facteur pour ce genre de situation mais une combinaisons :p.


 
C est vrai mais  la faiblesse de la baseline gpu fait que l on va souvent être gpu limited en "basse" resolution avec la gtx 3080 dans les jeux actuels
 
Mais c'était la même chose avec la gtx 7800 qui était sortie juste avant la Xbox 360. Dans le test de hardware.fr, il y a même une page sur le sujet. Juste après, sortait, la x360 et lorsque les premiers jeux "next Gen" sont arrivés style gears of War, rainbow six Vegas ou Oblivion, plus personnes ne parlaient de CPU limited pour la 7800, car elle etait devenu l'élément limitant. Pour moi, ce sera la même chose avec la 3080.

Message cité 1 fois
Message édité par Jumpyman972 le 18-09-2020 à 20:16:44
n°10831232
havoc_28
Posté le 18-09-2020 à 20:14:57  profilanswer
 

Jumpyman972 a écrit :


 
C est vrai mais  la faiblesse de la baseline gpu fait que l on va souvent être gpu limited en "basse" resolution avec la gtx 3080 dans les jeux actuels
 
Mais c'était la même chose avec la gtx 7800 qui était sortie juste avant la Xbox 360. Dans le test de hardware.fr, il y a même une page sur le sujet. Juste après, sortait, la x360 et lorsque les premiers jeux "next Gen" sont arrivés style gears of War, rainbow six Vegas ou Oblivion, plus personnes ne parlaient de CPU limited, car la gtx 7800 etait devenu l'élément limitant. Pour moi, ce sera la même chose avec la 3080.


 
Peut être j'attends de voir l'évolution des performances dans les mois qui viennent après la sortie des nouvelles consoles et des jeux dit "nouvelle génération".

n°10831260
Kageryuzan
Posté le 18-09-2020 à 20:50:48  profilanswer
 

Jumpyman972 a écrit :

Les consoles étaient à bout et ces gpu se tournaient les pouces. Avec la PS5 et la XBSX et leurs 10 et 12 TFlops, la baseline des moteurs va changer(unreal engine 5, etc...) et les GPU seront de nouveau limitant.


Sauf que pour le coup, la baseline sera les 4 TFlops RDNA2 de la Serie S (Microsoft n'autorisera pas la sortie de jeux qui tourneront trop mal sur la Serie S).


---------------
MSI X670E Tomahawk | AMD Ryzen 7600X | Asus TUF 7900 XTX Gaming OC | Corsair AIO Capellix Elite | Corsair RM Shift 1000X | Hyte Y40 | Cooler Master GP27Q | Mode Design Envoy | Corsair Scimitar RGB Elite
n°10831274
Feitan21
Posté le 18-09-2020 à 21:02:12  profilanswer
 

Ça se jouera sur la résolution, 1080 30/60 pour la Serie S, et 4k pour la Serie X

n°10831286
Kageryuzan
Posté le 18-09-2020 à 21:10:36  profilanswer
 

Feitan21 a écrit :

Ça se jouera sur la résolution, 1080 30/60 pour la Serie S, et 4k pour la Serie X


Ce que je vais dire n'est pas un jugement de valeur mais juste un fait (et que perso je m'en tape mais c'est important pour une partie des joueurs), ça veut quand même dire que les studios ne pourront pas tourner les potards à fond en fin de gen (par exemple au point de repasser en 1440p 30fps sur XsX/PS5) parce qu'il y aura la Serie S à prendre en compte (et je pense que MS n'acceptera pas qu'un jeu tourne en 720p par exemple), donc sur le long terme ça va être potentiellement limitant tout de même.


---------------
MSI X670E Tomahawk | AMD Ryzen 7600X | Asus TUF 7900 XTX Gaming OC | Corsair AIO Capellix Elite | Corsair RM Shift 1000X | Hyte Y40 | Cooler Master GP27Q | Mode Design Envoy | Corsair Scimitar RGB Elite
n°10831343
Activation
21:9 kill Surround Gaming
Posté le 18-09-2020 à 22:19:33  profilanswer
 

La series S est une grosse connerie
 
Si tu veut pondre un jeu qui a un instant "t" affiche 15millions de polygones
Que tu sois en 1080p en 1440p en 2160p faudra toujours afficher 15millions de polygones
 
Market la séries S comme une console 1080-1440p
C est complètement débile
 
Les one x et ps4pro les jeux ont été pensé pour tourner sur ps4 et one/one S
 
Bref MS a complètement merdé
Ils se sont déjà flingué avec halo infinité
Déjà pour halo lui mm
Et en + ça envoie le message "on a tellement lâché la bride à nos studio que y a plus que des pseudo manager qui sous traite tout et n y connaissent plus rien en gaming"
 
Cette series S à la con aurait du sortir dans genre 1an en tant que box xcloud
 
L autre fail only 512GB... on oubliera pas que l OS sur les x box bouffe bien 100Gb du volume à lui seul
 
Si c était pour diviser par 2 le ssd fallait pas enlever le lecteur optique  
Tu vire le lecteur optique fallait laisser 1To
 
Bref tout les compteurs te disent que cette séries S a été pensé xcloud et retrocomp one/360
Et un débile du marketing a dit faisons nos crevard on va aussi dire que si si c est new gen
 
Et flingue ta com
Toute façon ils ont flingué la com Smart delivery
Ils ont flingué la perf de la X à cause de comment il marketing de la S
 
À croire qu ils ont reembauché l autre débile du lancement de la one "tv tv tv" et "t a pas internet acheté une 360"
 
La connerie a la peau dur chez microsoft


Message édité par Activation le 18-09-2020 à 22:20:08
n°10831365
CardinalFu​neste
Posté le 18-09-2020 à 22:40:53  profilanswer
 

La Series X a un hardware au top
Dommage qu'il soit dans une console, un mini pc basé dessus aurait été parfait sous une Tv. J’espère vraiment une faille de sécurité, pour pouvoir installer autre chose dessus  :whistle:

n°10831461
AllenMadis​on
Posté le 19-09-2020 à 00:31:15  profilanswer
 

Rumeur : la 6900XT battrait la 3090.

 

http://www.redgamingtech.com/radeo [...] exclusive/

 

La source de la rumeur est la personne qui a révélé les photos exclusives du design des radeons, qu'il possédait depuis un certain temps.

 
Citation :

I have also learned that this GPU will likely clock to the stratosphere, and further to this the performance of the card is said to be very competitive to Nvidia’s RTX 30 series, with the RTX 3070 being fought by the Radeon RX 6700 XT, and the RTX 3090 taking on the RX 6900 XT. For more information feel free to check the two links to my videos. I’ll be putting out a deeper drill down into all of this soon.

 

S'ils nous sortent une carte graphique qui clock à 3+ ghz ce serait éventuellement possible de battre la 3090.

Message cité 3 fois
Message édité par AllenMadison le 19-09-2020 à 00:33:00
n°10831462
havoc_28
Posté le 19-09-2020 à 00:32:35  profilanswer
 

AllenMadison a écrit :

Rumeur : la 6900XT battrait la 3090.  
 
http://www.redgamingtech.com/radeo [...] exclusive/
 
La source de la rumeur est la personne qui a révélé les photos exclusives du design des radeons, qu'il possédait depuis un certain temps.  
 

Citation :

I have also learned that this GPU will likely clock to the stratosphere, and further to this the performance of the card is said to be very competitive to Nvidia’s RTX 30 series, with the RTX 3070 being fought by the Radeon RX 6700 XT, and the RTX 3090 taking on the RX 6900 XT. For more information feel free to check the two links to my videos. I’ll be putting out a deeper drill down into all of this soon.


 


 
Et la marmotte du Zen 2 elle fait du 5.0 ghz ...

Message cité 1 fois
Message édité par havoc_28 le 19-09-2020 à 00:32:51
n°10831464
AllenMadis​on
Posté le 19-09-2020 à 00:33:22  profilanswer
 

havoc_28 a écrit :

 

Et la marmotte du Zen 2 elle fait du 5.0 ghz ...

 

MAUVAISE LANGUE VA

 

Homme de peu de foi :(

 

Pour son crédit, il a effectivement sorti les photos exclusives de la radeon, ce qui veut quand même dire que sa source est de 1ere main.

Message cité 1 fois
Message édité par AllenMadison le 19-09-2020 à 00:34:08
n°10831467
havoc_28
Posté le 19-09-2020 à 00:36:57  profilanswer
 

AllenMadison a écrit :


 
MAUVAISE LANGUE VA
 
Homme de peu de foi :(
 
Pour son crédit, il a effectivement sorti les photos exclusives de la radeon, ce qui veut quand même dire que sa source est de 1ere main.


 
Les photos de la carte de référence c'est une chose, avoir une capture d'écran avec les fréquences de fonctionnement s'en ait une autre, "j'ai entendu que le GPU atteindrait des fréquences très importante", mais y a rien de concret au final.
 
Et faut rappeler par exemple que Navi 10 gagne très peu en performance en montant en fréquence (limité par la bande passante mémoire). Alors venir chatouiller une RTX 3090 avec un bus mémoire 256 bits ? :D, deux fois moins de bande passante mémoire, mais stop je vais pas faire un dessin :D. Pourquoi pas en 1080p sur les jeux ou on est limité par le CPU et toutes les cartes sont au niveau de la 2080 Ti  :whistle:.

Message cité 1 fois
Message édité par havoc_28 le 19-09-2020 à 00:39:48
n°10831469
AllenMadis​on
Posté le 19-09-2020 à 00:40:40  profilanswer
 

havoc_28 a écrit :

 

Les photos de la carte de référence c'est une chose, avoir une capture d'écran avec les fréquences de fonctionnement s'en ait une autre, "j'ai entendu que le GPU atteindrait des fréquences très importante", mais y a rien de concret au final.

 

Et faut rappeler par exemple que Navi 10 gagne très peu en performance en montant en fréquence (limité par la bande passante mémoire). Alors venir chatouiller une RTX 3090 avec un bus mémoire 256 bits ? :D, deux fois moins de bande passante mémoire, mais stop je vais pas faire un dessin :D. Pourquoi pas en 1080p sur les jeux ou on est limité par le CPU et toutes les cartes sont au niveau de la 2080 Ti  :whistle:.

 

Et si c'est un bus 512 bits comme a parié igor ? Hein, hein, hein ? :o

 

Bon en vrai effectivement il va falloir attendre quelques dodos, et prudence et scepticisme sont de mise, mais en attendant on fait avec ce qu'on a et c'est une rumeur sym-pa-thique. :o

Message cité 1 fois
Message édité par AllenMadison le 19-09-2020 à 00:41:36
n°10831470
havoc_28
Posté le 19-09-2020 à 00:42:04  profilanswer
 

AllenMadison a écrit :

Et si c'est un bus 512 bits comme a parié igor ? Hein, hein, hein ? :o


 
Bas voila, il peut avoir raison pour une chose et tord pour une autre, le Rad stock c'est un bon leak, le "j'ai entendu dire que les fréquences montaient haut" c'est de la merde pour moi car y a rien derrière pour l'étayer.
 

AllenMadison a écrit :

Bon en vrai effectivement il va falloir attendre quelques dodos, et prudence et scepticisme sont de mise, mais en attendant on fait avec ce qu'on a et c'est une rumeur sym-pa-thique. :o


 
Quand je verrais les specs finale là on pourra commencer à pouvoir estimer quelque chose.


Message édité par havoc_28 le 19-09-2020 à 00:43:11
n°10831480
ohyes78
Posté le 19-09-2020 à 01:04:15  profilanswer
 

Un petit tableau de pure spéculation pour la gamme des futurs RADEON pour les prochains mois façon 2017!Guillaume, Damien!
 
En comparaison des APU's de la Xbox series X et PS5.  
 
https://image.noelshack.com/minis/2020/38/6/1600470189-amd-2020-2021.png
 
Je signe pour de la HBM2 (sk hynix la 2e en production de masse depuis Juillet 2020) pour le NAVI 20 voir de la HBM2e en cours de production de masse chez SAMSUNG!


Message édité par ohyes78 le 19-09-2020 à 01:13:04
n°10831498
Feitan21
Posté le 19-09-2020 à 02:03:30  profilanswer
 

Je ne vois pas comment une carte avec un die 50% plus grand et avec de la HBM qui est censée couter un bras pourrait se trouver juste 50$ plus chère.

n°10831499
WiiDS
20 titres en GC, 0 abandon, 0 DQ
Posté le 19-09-2020 à 02:07:39  profilanswer
 

AllenMadison a écrit :

Rumeur : la 6900XT battrait la 3090.  
 
http://www.redgamingtech.com/radeo [...] exclusive/
 
La source de la rumeur est la personne qui a révélé les photos exclusives du design des radeons, qu'il possédait depuis un certain temps.  
 

Citation :

I have also learned that this GPU will likely clock to the stratosphere, and further to this the performance of the card is said to be very competitive to Nvidia’s RTX 30 series, with the RTX 3070 being fought by the Radeon RX 6700 XT, and the RTX 3090 taking on the RX 6900 XT. For more information feel free to check the two links to my videos. I’ll be putting out a deeper drill down into all of this soon.


 
S'ils nous sortent une carte graphique qui clock à 3+ ghz ce serait éventuellement possible de battre la 3090.


 [:el_risitas:4]  
 
Si la 6900XT arrive au niveau de la 3070 ça sera très bien


---------------
"I can cry like Roger. It's just a shame I can't play like him" - Andy Murray, 2010
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  36  37  38  ..  580  581  582  583  584  585

Aller à :
Ajouter une réponse
 

Sujets relatifs
Amd Rysen serie 3000 ou patienceTempératures AMD RX 580 8 Go
Config.Gamer: Intel ou AMD ?.
Question processeur I7 7700K ou AMD Ryzen 3700xUtilisation AMD Ryzen Master
CG Nvidia + CG Amd dans un même PC.[Topic unique] ASUS TUF GAMING B550M-PLUS (wifi) AM4 eternal socket
[Topic Unique] Technologie SMR...Compatibilité AMD Radeon HD 6670
Plus de sujets relatifs à : [Topic Unique] RDNA2 - AMD RX6x00 - Navi 2x


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR