Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2775 connectés 

 


Je possède la:




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  129  130  131  ..  285  286  287  288  289  290
Auteur Sujet :

[Topic Unique] RDNA3 - AMD RX7x00 - 5nm

n°11215949
ddlabrague​tte
Posté le 27-01-2023 à 20:15:57  profilanswer
 

Reprise du message précédent :
Oui et non.  
 
Je suis pas un grand fan du DLSS  déjà  
 
Ceci dit, en full hd, une 4070ti suffit pour profiter du RT à toc sans artifice  
Inversement, en 1440p et plus les artifices deviennent nécessaires à moins d'avoir une 4090

mood
Publicité
Posté le 27-01-2023 à 20:15:57  profilanswer
 

n°11215957
francis125​6
Posté le 27-01-2023 à 20:45:30  profilanswer
 

havoc_28 a écrit :


 
Donc les 3090 étaient bof en RT, encore pire pour Turing qui devait se taper le DLSS 1.0 :o. C'est pas que la techno est mal gérée sur les générations actuelles, c'est que la techno est ultra gourmande et qui a clairement pas la puissance nécessaire même si ç'améliore de génération en génération.


 
Sur cette gen, que ce soit nvidia ou amd, il n'y a pas d'amélioration en pourcentage de perf entre le raster et le rt par rapport à la gen précédente.
Elles se débrouillent mieux car il y a plus de puissance, mais le malus entrainé par le rt reste du même ordre qu'avant.
Pour moi, au niveau hardware, il n'y a pas eu d'avancée sur ce point.

n°11215967
Gregooz
Posté le 27-01-2023 à 20:57:22  profilanswer
 

ddlabraguette a écrit :

Oui et non.  
 
Je suis pas un grand fan du DLSS  déjà  
 
Ceci dit, en full hd, une 4070ti suffit pour profiter du RT à toc sans artifice  
Inversement, en 1440p et plus les artifices deviennent nécessaires à moins d'avoir une 4090


Concernant le DLSS, je parlais pour moi.  
Chacun aura son propre avis sur le sujet :jap:

n°11215980
max022
Posté le 27-01-2023 à 22:08:08  profilanswer
 

Ah ok, je ne pensais pas que les rtx 4070ti étaient si mauvaise en RT.  
Vu le prix, je m'attendais à au moins cela mais non...  
Bref perso je passe cette nouvelle GEN en raison des prix.  
(après rien n'est figé, lorsque AMD ou Nvidia baisseront les prix comme pour le 6000
ben je changerais peu être d'avis ou j'attendrais la nouvelle GEN, on verra)

n°11215982
aliss
Rhyme the Rhyme Well
Posté le 27-01-2023 à 22:17:00  profilanswer
 

Je ne sais pas si mauvais est le terme approprié, après tout ce sont les perfs d'une 3090Ti.
 
Il y a moins de 6 mois c'était la carte la plus performante en ray tracing... :D

n°11215984
Gregooz
Posté le 27-01-2023 à 22:27:37  profilanswer
 

Perso, quand je regarde ce genre de test, je me dis que la 4070TI fait tout à fait le taf en RT@1440p :o

n°11215993
aliss
Rhyme the Rhyme Well
Posté le 27-01-2023 à 23:01:43  profilanswer
 

Sur Cyberpunk ce n'est pas vraiment le cas, à voir comment elle se comportera avec les prochains AAA.  :D

 

Si j'ai un reproche à faire à cette carte, c'est qu'ils ont (comme à leur habitude) été radins sur la vram embarquée pour une carte à ce tarif.

 

Et plus globalement ils auraient pu faire un effort avec ADA sur la connectique en proposant le displayport 2.1 comme le fait AMD.

Message cité 2 fois
Message édité par aliss le 27-01-2023 à 23:02:02
n°11216000
havoc_28
Posté le 27-01-2023 à 23:29:50  profilanswer
 

francis1256 a écrit :


 
Sur cette gen, que ce soit nvidia ou amd, il n'y a pas d'amélioration en pourcentage de perf entre le raster et le rt par rapport à la gen précédente.
Elles se débrouillent mieux car il y a plus de puissance, mais le malus entrainé par le rt reste du même ordre qu'avant.
Pour moi, au niveau hardware, il n'y a pas eu d'avancée sur ce point.


 
En rastérisation c'est pas à toute les générations non plus qu'il y a des gains à nombres d'unités équivalentes aussi :o.  C'est également bien souvent une augmentation de la fréquence / nombres d'unités qui faisait les gains en performance et parfois une réorganisation de l'architecture / amélioration de celle ci.
 

max022 a écrit :

Ah ok, je ne pensais pas que les rtx 4070ti étaient si mauvaise en RT.


 
La puce ADA 104, une puce monolithique, ne fait "que" 295 mm², soit un poil moins que la partie GCD de N31.
 

aliss a écrit :

Si j'ai un reproche à faire à cette carte, c'est qu'ils ont (comme à leur habitude) été radins sur la vram embarquée pour une carte à ce tarif.


 
Cohérence générale de la gamme, contraintes du bus mémoire, et de la densité actuelle des puces de GDDR6 / 6X en circulation. Tu veux le double de VRAM, faut mettre de double de puce GDDR6X etc donc en double face, sur une RTX 3090 à l'époque la contrainte vu le tarif était moins problématique niveau marge, sur la 4070 Ti Nvidia tenant à ses marges, non c'est mort :o.  
 

aliss a écrit :

Et plus globalement ils auraient pu faire un effort avec ADA sur la connectique en proposant le displayport 2.1 comme le fait AMD.


 
Le truc qui servira à 0.1 % des utilisateurs ? :o.

Message cité 1 fois
Message édité par havoc_28 le 27-01-2023 à 23:37:38
n°11216003
aliss
Rhyme the Rhyme Well
Posté le 27-01-2023 à 23:39:41  profilanswer
 

havoc_28 a écrit :


 
Le truc qui servira à 0.1 % des utilisateurs ? :o.


 
Concrètement, ça leur aurait couté quoi ?
 
Sur de l'entrée de gamme ou il faut rogner au max je veux bien mais sur des cartes à 900€ et plus, ce n'était pas du luxe...

n°11216005
havoc_28
Posté le 27-01-2023 à 23:45:33  profilanswer
 

aliss a écrit :


 
Concrètement, ça leur aurait couté quoi ?
 
Sur de l'entrée de gamme ou il faut rogner au max je veux bien mais sur des cartes à 900€ et plus, ce n'était pas du luxe...


 
Le design d'ADA était surement terminé savant la finalisation des specs du DP 2.1 et ont pas envie de rajouter une puce externe juste pour ça ? Franchement à nouveau je connais pas beaucoup de joueur qui ont un réel  besoin du DP 2.1 .


Message édité par havoc_28 le 27-01-2023 à 23:46:57
mood
Publicité
Posté le 27-01-2023 à 23:45:33  profilanswer
 

n°11216006
aliss
Rhyme the Rhyme Well
Posté le 27-01-2023 à 23:48:27  profilanswer
 

Le standard 2.0 date tout de même de juin 2019 (même si il a été repoussé à maintes reprises).

n°11216007
havoc_28
Posté le 27-01-2023 à 23:50:53  profilanswer
 

aliss a écrit :

Le standard 2.0 date tout de même de juin 2019 (même si il a été repoussé à maintes reprises).


 
ADA supporte bien le DP 2.0, le DP 2.1 est nettement plus récent (octobre 2022), tout comme il y a eut des rumeurs comme quoi ADA niveau architecture était déjà prête depuis un bout de temps :o.


Message édité par havoc_28 le 27-01-2023 à 23:51:11
n°11216008
aliss
Rhyme the Rhyme Well
Posté le 27-01-2023 à 23:52:20  profilanswer
 

ADA c'est du 1.4a il me semble donc limité à 60Hz en 8k là ou N31 propose 165Hz...

n°11216009
havoc_28
Posté le 27-01-2023 à 23:54:49  profilanswer
 

aliss a écrit :

ADA c'est du 1.4a il me semble donc limité à 60Hz en 8k là ou N31 propose 165Hz...


 
Non tu as raison, c'est 1.4A, j'étais convaincu qu'ADA supportait au moins le DP 2.0 ... mais même pas :D, ils ont eut un différent avec le VESA ou quoi ? :o.
 
N31 supporte bien le DP 2.1 sortie bien plus tard comme dit plus haut (quoi que le 2.1 n'augmente pas les débits ni rien c'est plus du correctif et des normes un peu plus strictes), et même si ADA niveau architecture était prête depuis un certain temps ça n'explique pas la non présence d'au moins le DP 2.0.

Message cité 1 fois
Message édité par havoc_28 le 28-01-2023 à 00:05:28
n°11216010
Gregooz
Posté le 27-01-2023 à 23:55:57  profilanswer
 

aliss a écrit :

Sur Cyberpunk ce n'est pas vraiment le cas, à voir comment elle se comportera avec les prochains AAA.  :D

 

Si j'ai un reproche à faire à cette carte, c'est qu'ils ont (comme à leur habitude) été radins sur la vram embarquée pour une carte à ce tarif.

 

Et plus globalement ils auraient pu faire un effort avec ADA sur la connectique en proposant le displayport 2.1 comme le fait AMD.


Oui forcément si tu prends le seul titre qui est en dessous de 60 fps :pt1cable:
Mais d'ici à dire qu'elle est pas suffisante pour du RT@1440p, je ne pense pas mais chacun son avis.

 

Par contre, je suis perdu si c'est une carte pour du 1080p comme l'affirment certains, on est bon pour la quantité de vram :o


Message édité par Gregooz le 27-01-2023 à 23:56:54
n°11216011
aliss
Rhyme the Rhyme Well
Posté le 28-01-2023 à 00:05:05  profilanswer
 

havoc_28 a écrit :


 
Non tu as raison, c'est 1.4A, j'étais convaincu qu'ADA supportait au moins le DP 2.0 ... mais même pas :D, ils ont eut un différent avec le VESA ou quoi ? :o.
 
N31 supporte bien le DP 2.1 sortie bien plus tard comme dit plus haut (même c'est si celui ci n'apporte rien ou presque vs le 2.0 en tant que tel), et même si ADA niveau architecture était prête depuis un certain temps ça n'explique pas la non présence d'au moins le DP 2.0.


 
Je ne sais pas mais ça m'avait étonné à la release.
 
Les heureux futurs propriétaires de l'Odyssey Neo G9 57'' prendront une XTX et puis voilà... :D  

n°11216012
Profil sup​primé
Posté le 28-01-2023 à 00:19:13  answer
 

Je préfère avoir 2 ports HDMI quelle que soit leur norme ..
 
https://media.cdn.sapphiretech.com.cn/-/media/sites/sapphire/components/productinteractivebanner/nitro-7900-series/rx7900_output_491x457_02.ashx?v=454e3194fb784f3299942593eabb4509


Message édité par Profil supprimé le 28-01-2023 à 00:45:00
n°11216024
max022
Posté le 28-01-2023 à 05:14:54  profilanswer
 

aliss a écrit :


 
Concrètement, ça leur aurait couté quoi ?
 
Sur de l'entrée de gamme ou il faut rogner au max je veux bien mais sur des cartes à 900€ et plus, ce n'était pas du luxe...


 
Oui, on a le droit de dire que les 4070TI sont trop cher mais c'est la même pour les 7900.  
J'essayais de faire un comparatif prix de GEN 6000/7000.  
Si la 6950XT équivaut à la 3090TI, la 7900 XTX n'équivaut pas du tout à la 4090.  
On serait entre la 6800 et 6800 XT pour la 7900 XTX pour 1.200 balles... (je parle des cartes dispo bien évidemment...)  
Mais même si on prends la 6800XT qui était dans le haut du panier, on la trouve à 700 balles.  
Je pense donc que la 7900 XTX devrait être à max 700 balles et la 4070 TI à max 600 balles vu qu'elle est moins perf.  
 
 
 

n°11216030
lecas
Posté le 28-01-2023 à 06:19:48  profilanswer
 

max022 a écrit :


Je pense donc que la 7900 XTX devrait être à max 700 balles et la 4070 TI à max 600 balles vu qu'elle est moins perf.  


 
 
700 balles c'était le meilleur prix de la RTX 3080 ou de la 6800 XT il y a deux ans; à quel moment un GPU gravé sur un meilleur node, avec plus de RAM, plus de transistors, un bus 384 bits, fabriqué au moment où les matières premières coûtent le plus cher et où le taux de change €/$ est le plus défavorable devrait coûter le même prix?


Message édité par lecas le 28-01-2023 à 06:24:17
n°11216034
aliss
Rhyme the Rhyme Well
Posté le 28-01-2023 à 07:34:48  profilanswer
 

max022 a écrit :


 
Oui, on a le droit de dire que les 4070TI sont trop cher mais c'est la même pour les 7900.  
J'essayais de faire un comparatif prix de GEN 6000/7000.  
Si la 6950XT équivaut à la 3090TI, la 7900 XTX n'équivaut pas du tout à la 4090.  
On serait entre la 6800 et 6800 XT pour la 7900 XTX pour 1.200 balles... (je parle des cartes dispo bien évidemment...)  
Mais même si on prends la 6800XT qui était dans le haut du panier, on la trouve à 700 balles.  
Je pense donc que la 7900 XTX devrait être à max 700 balles et la 4070 TI à max 600 balles vu qu'elle est moins perf.  
 


 
Je parlais uniquement de la connectique embarquée qui est un des rares cas clairement à l'avantage d'AMD... :D  :o  
 
https://i.postimg.cc/pLx359bg/7900-dp.jpg
 
C'est sans doute pour cette raison que Samsung les a choisi pour présenter son écran 57'' au CES.
 
https://www.youtube.com/watch?v=qHJQVWSprJ4


Message édité par aliss le 28-01-2023 à 07:41:42
n°11216060
max022
Posté le 28-01-2023 à 09:48:37  profilanswer
 

Ben perso c'est comme le RT, je m'en contre-fiche.  
J'ai une TV 4K hdmi 2.1 limité à 120 fps de toute façon.  
Après lorsque les TV ne seront plus limité à 8K/60 fps et qu'elles auront la connectique pour avoir plus de fps,  
la oui, je pense que ce sera très utile.

n°11216065
Col Hanzap​last
Jurassic geek. Vive le cobol !
Posté le 28-01-2023 à 09:59:12  profilanswer
 

C'est pour un sondage: Levez la main ceux qui possèdent un écran 8K ?


---------------
" Il n'y a aucune chance pour que l'iPhone s'attribue une part de marché significative. Aucune chance. " (Steve Ballmer 2007)
n°11216069
hisvin
Posté le 28-01-2023 à 10:11:40  profilanswer
 

Déjà que les écrans 4K doivent être largement minoritaires, les 8K comment dire?? :D

n°11216135
shaka-31
Posté le 28-01-2023 à 13:20:50  profilanswer
 

A voter mais c'est pas une MBA


---------------
PSN Udead31 / GT Yegg4r /Battle.net Yeggar
n°11216157
Tahitiflo
éponge carré(e)
Posté le 28-01-2023 à 13:46:49  profilanswer
 

max022 a écrit :


 
Oui, on a le droit de dire que les 4070TI sont trop cher mais c'est la même pour les 7900.  
J'essayais de faire un comparatif prix de GEN 6000/7000.  
Si la 6950XT équivaut à la 3090TI, la 7900 XTX n'équivaut pas du tout à la 4090.  
On serait entre la 6800 et 6800 XT pour la 7900 XTX pour 1.200 balles... (je parle des cartes dispo bien évidemment...)  
Mais même si on prends la 6800XT qui était dans le haut du panier, on la trouve à 700 balles.  
Je pense donc que la 7900 XTX devrait être à max 700 balles et la 4070 TI à max 600 balles vu qu'elle est moins perf.  
 
 
 


Les cartes sont au bon prix,vu qu'elles se vendent.  [:cosmoschtroumpf]  
dans le cas contraire,les constructeurs annonceront des baisses de prix comme AMD pour les Ryzen 7000.


---------------
Je ne sais pas si HFR rend fou, ou si c'est un asile de fou.©havoc_28    We are doomed
n°11216162
Profil sup​primé
Posté le 28-01-2023 à 14:10:51  answer
 

100€ de différence entre une XTX et la 4070Ti* alors même que ce même écart (de prix) était décrié entre XT et XTX
Quant à l'écart de performances, si ça vaut 100€, alors nVidia a raison de vendre ses cartes si cher :d ..

Message cité 1 fois
Message édité par Profil supprimé le 28-01-2023 à 19:47:20
n°11216186
Tahitiflo
éponge carré(e)
Posté le 28-01-2023 à 14:54:20  profilanswer
 


C'est 100€ entre une XTX MBA et une 4070Ti custom?
Nvidia est leader sur le marché, ça se paie, certains ne connaissent même pas AMD,une CG c'est geforce. [:cloud_]


---------------
Je ne sais pas si HFR rend fou, ou si c'est un asile de fou.©havoc_28    We are doomed
n°11216203
Profil sup​primé
Posté le 28-01-2023 à 15:29:15  answer
 

Je reprenais ce que disait max022

max022 a écrit :

Je pense donc que la 7900 XTX devrait être à max 700 balles et la 4070 TI à max 600 balles vu qu'elle est moins perf.

Ce qui n'a guère de sens tant les performances n'ont rien à voir !
L'écart entre XT (MBA ou pas c'est pas la question :o) et 4070Ti reste conséquent mais l'une ira plus loin que l'autre, dans le temps ..


Message édité par Profil supprimé le 28-01-2023 à 15:32:35
n°11216296
genom
urinam non decolor unda
Posté le 28-01-2023 à 20:12:51  profilanswer
 

il n'y a que les imbéciles qui ne changent pas d'avis :o oled PG48UQ je reviens sur ce que j'ai dis, ça passe bien sur un bureau :D
http://image.noelshack.com/fichiers/2023/04/6/1674933107-20230128-194110-resized.jpg

Message cité 2 fois
Message édité par genom le 28-01-2023 à 21:50:21
n°11216300
Niarfman
Posté le 28-01-2023 à 20:31:09  profilanswer
 

genom a écrit :

il y a que les imbéciles qui ne changent pas d'avis :o oled PG48UQ je reviens sur ce que j'ai dis, c'est passe bien sur un bureau :D
http://image.noelshack.com/fichier [...] esized.jpg


J'avoue que ça me paraît énorme, les 1,07m de largeur, pourtant, sur ta photo ça semble "raisonnable" ...
 
Mais un écran OLED ... l'image doit être magnifique !!! Tu joues en HDR du coup ?
 
Ps : la dalle est brillante ou mate ?

n°11216307
Xixou2
Posté le 28-01-2023 à 21:03:40  profilanswer
 
n°11216314
genom
urinam non decolor unda
Posté le 28-01-2023 à 21:20:25  profilanswer
 

Je pensais comme toi, mais je dois dire qui il est plus confortable que le G7 32" curve avec son pied profond merdique qui te place la dalle au milieux du bureau...
 
Avec un peu plus d'1m de recul, franchement ça passe assez bien... Oui un oled dalle mate, en HDR ca claque pas mal effectivement. l'audio Harman Kardon est bof bof par contre vs mon LG GX, faut bien lui trouver un petit default, ah oui et à ce prix pas de loupiottes, une honte du ROG sans loupiottes :o
 


tu connais les classiques   :D

Message cité 1 fois
Message édité par genom le 28-01-2023 à 21:30:07
n°11216316
[Toine]
A la demande générale...
Posté le 28-01-2023 à 21:27:30  profilanswer
 

genom a écrit :

il y a que les imbéciles qui ne changent pas d'avis :o oled PG48UQ je reviens sur ce que j'ai dis, c'est passe bien sur un bureau :D
http://image.noelshack.com/fichiers/2023/04/6/1674933107-20230128-194110-resized.jpg


Y a une grosse différence avec une TV OLED genre LG ?


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11216319
Profil sup​primé
Posté le 28-01-2023 à 21:31:28  answer
 

shaka-31 a écrit :

A voter mais c'est pas une MBA

Et même un petit bench ou quoi [:aaaaze:1]

n°11216320
Niarfman
Posté le 28-01-2023 à 21:32:17  profilanswer
 

D'ailleurs ça existe un écran gamer OLED 34" 21/9 WQHD NON-INCURVE ...?
 
Je comprends pas cette mode de l'incurvé, ça déforme tellement l'image, c'est pas naturel du tout :/

n°11216321
Xixou2
Posté le 28-01-2023 à 21:39:40  profilanswer
 

Niarfman a écrit :

D'ailleurs ça existe un écran gamer OLED 34" 21/9 WQHD NON-INCURVE ...?
 
Je comprends pas cette mode de l'incurvé, ça déforme tellement l'image, c'est pas naturel du tout :/


 
C'est très bien l'incurvé.
ça suit la courbe de l'oeil.


Message édité par Xixou2 le 28-01-2023 à 21:40:01
n°11216322
genom
urinam non decolor unda
Posté le 28-01-2023 à 21:44:14  profilanswer
 

[Toine] a écrit :


Y a une grosse différence avec une TV OLED genre LG ?


 
c'est une dalle LG Display, juste il monte à 138hz, il n'a pas de tuner, pas de dolby Vision, pas de BFI mais c'est un écran PC et se comporte comme tel niveau mise en veille, etc...

Message cité 1 fois
Message édité par genom le 28-01-2023 à 21:45:30
n°11216324
[Toine]
A la demande générale...
Posté le 28-01-2023 à 21:54:19  profilanswer
 

genom a écrit :


 
c'est une dalle LG Display, juste il monte à 138hz, il n'a pas de tuner, pas de dolby Vision, pas de BFI mais c'est un écran PC et se comporte comme tel niveau mise en veille, etc...


J'ai vu que chez panasonic, ça montait à 120Hz, ça marche bien en JV ?


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11216325
genom
urinam non decolor unda
Posté le 28-01-2023 à 21:59:38  profilanswer
 

[Toine] a écrit :


J'ai vu que chez panasonic, ça montait à 120Hz, ça marche bien en JV ?


plus de retour possible :D  

n°11216334
max022
Posté le 28-01-2023 à 22:46:05  profilanswer
 

[Toine] a écrit :


Y a une grosse différence avec une TV OLED genre LG ?


 
Ben en terme de fps max, c'est kif-kif (120 fps pour la TV Oled gaming).  
https://www.clubic.com/pro/entrepri [...] g42uq.html
https://www.lesnumeriques.com/tv-te [...] /test.html
Sinon il y a des choses comme le VRR, ALLM, eARC que l'on a que sur la TV.  
"à 1 599 euros, le PG42UQ va clairement souffrir de la concurrence et notamment de celle du LG C2 vendu à un tarif « presque » accessible."
Tout est dit et même avis. (pareil pour le PG48UQ, je préfère ma TV LG65C2)  
 

n°11216338
aliss
Rhyme the Rhyme Well
Posté le 28-01-2023 à 23:10:07  profilanswer
 

genom a écrit :

Je pensais comme toi, mais je dois dire qui il est plus confortable que le G7 32" curve avec son pied profond merdique qui te place la dalle au milieux du bureau...
 
Avec un peu plus d'1m de recul, franchement ça passe assez bien... Oui un oled dalle mate, en HDR ca claque pas mal effectivement. l'audio Harman Kardon est bof bof par contre vs mon LG GX, faut bien lui trouver un petit default, ah oui et à ce prix pas de loupiottes, une honte du ROG sans loupiottes :o
 


 
Il fait quelle profondeur ton bureau ?  
 
Car à moins de ne jouer qu'à la manette... :D  

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  129  130  131  ..  285  286  287  288  289  290

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic unique] AMD Zen 4Ma "Station Gamer" 100% "AMD"
MSI Tomahawk B550 + AMD 5950 = led cpu alluméeUpgrade 1700x vers un 5600X
upgrade AMDLe bug scandaleux de la série 6000 d'AMD avec les jeux cpu heavy
Mise à niveau config AMD vieillissanteupgrade depuis un AMD Athlon 64 X2 6000+ 3 GHz
Plus de sujets relatifs à : [Topic Unique] RDNA3 - AMD RX7x00 - 5nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)