Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4161 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1849  1850  1851  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°11243406
El Paladin​ Malefik
Posté le 27-04-2023 à 10:54:24  profilanswer
 

Reprise du message précédent :

uNReaLx77 a écrit :


Le jeu a des problèmes sur toutes les plateformes, une 4090 ne fait pas tourner le jeux correctement....
 
Nous avons que des exemples de jeux a la con pour la vram...
Le principal soucis viens dès développeur, sans correctif vous croyez que le jeux va faire un carton ?
 
Regardez combien de cartes avec 20go et plus sont utilisés par les joueurs, c'est ce tirer une balle dans le pied en fait.
 
Donc soit ils sont con de faire des jeux comme ça sachant que 1% de la population pourra y jouer, soit ils sont con :o


 
Je suis d'accord sur le fait que les devs se tirent une balle dans le pied à faire des jeux avec des exigeances irréalistes.  
Maintenant ce qui m'inquiète c'est que la liste de jeux à la con niveau Vram commence à s'allonger rapidement en peu de temps, signe d'une tendance de fond qui n'est pas vraiment saine.  
 
J'en viens à comprendre mes amis qui abandonnent le PC trop coûteux pour simplement prendre une PS5 où ils seront à peu près sur que les devs devront faire que le jeu tourne correctement.  
J'ai surtout l'impression que le plus grave dans tout ça c'est que le marché PC devenant hors de prix, les devs se font aussi moins chier à développer sur cette plate-forme qui a quand même tendance à diminuer en popularité depuis quelques années déjà, et forcément le ticket d'entrée devenant de moins en moins accessible ça aide pas.  
 
Je me souviens en 2011-2012 où tu pouvais te faire une config complète pour 700-800 balles et profiter quasiment de tous tes jeux en high-ultra. C'est bien loin ce temps là... Et ça m'étonnes pas que le PC devienne de plus en plus un marché de niche élitiste vu la tournure que ça prend...


---------------
Config: Ryzen 7 5800X3D/AMD RX 6900XT/32 Go DDR4 Gskill Trident Z B-DIE @3733 MHz CAS 14/ASUS TUF Gaming Plus B550/AIO Corsair H115i Pro RGB Platinum/Boitier Corsair 4000D Airflow/ Samsung Odyssey G7 4k 144 Hz
mood
Publicité
Posté le 27-04-2023 à 10:54:24  profilanswer
 

n°11243407
Valaint671​30
Cinquième soleil
Posté le 27-04-2023 à 10:55:18  profilanswer
 

raph0ux a écrit :

On a les stats ici : https://store.steampowered.com/hwsurvey/
 
Donc à vue de nez on a à la grosse louche 4% des joueurs qui ont plus de 8Go de VRAM sur leur CG.
 
Dont 75% de ces 4% qui n'ont que 10Go :lol:
 
Nan sérieusement, ils sont peut être juste nuls chez les développeurs, ou alors il y a une entente entre les studios et les fondeurs pour volontairement mettre des jeux qui couchent toutes les CG et forcer la main aux clients.
 
Ou alors les clients sont des gros pigeons et ne conçoivent pas qu'il soit possible de jouer autrement que TAF @ 200 FPS
 
Ou alors on est sur HFR et on voit ça par le prisme d'une population non représentative :o


 
Et oui :o
 
C'est la désinformation des guignols type jigfion qui font qu'on en est là...
 
En tout cas pour les jeux incriminés, j’ai presque envie de dire que les dévs consoles n'ont pas perdu de temps à opti pour les verts.
 
A une époque c'était Nvidia qui séduisait et qui avait des jeux plus opti pour leurs archi, maintenant c'est inversé, un juste retour des choses peut-être  [:chris prolls]


Message édité par Valaint67130 le 27-04-2023 à 10:56:21

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11243415
KaneZe
Posté le 27-04-2023 à 11:14:49  profilanswer
 

j'ai testé Witcher 3 avec l'update next gen, en mettant tout à fond, c'est vraiment sympa comme rendu et c'est fluide. Je pense vraiment que la 3090FE va me durer un paquet de temps, surtout que je ne compte plus changer d'écran, le 3440x1440 me convient vraiment bien. Watercoolé depuis le début, pas de gros soucis de température.

n°11243419
uNReaLx77
üNReaL
Posté le 27-04-2023 à 11:24:55  profilanswer
 

Ces jeux ne tournent pas sur consoles non plus, il paraît que les perf du Jedi sur console est un désastre, donc il va bien falloir que les dev se sortent les doigts d'une manière ou d une autres....  
 
Comme dis au dessus on est sur hfr, donc très loin d'une représentation général, le jeu ne passe pas les gens n'achètent pas, ça n'ira pas plus loin, et ils s'en rendront vite compte.
 
Je vois mal 96% des joueurs faire des crédits dans une carte pour un jeu où 2 :D
 
C'est la sortie du jeux, on fait ça histoire de faire un coup de com, on attend un peu que les plus cons achètent les cg....et on te balance une maj qui fait que ça tourne de partout après que la vague est passé :D
 
Ou c'est AMD qui sponsorise le jeu et qui fait sa com avec leurs cartes blindées de vram.


Message édité par uNReaLx77 le 27-04-2023 à 11:33:51
n°11243434
Valaint671​30
Cinquième soleil
Posté le 27-04-2023 à 12:08:28  profilanswer
 

En plus du UE4 qui passe pas bien de base, 10 ans après, c'est que ça coupe dans le budget de prod...


Message édité par Valaint67130 le 27-04-2023 à 12:14:03

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11243440
Scrabble
Posté le 27-04-2023 à 12:31:06  profilanswer
 

raph0ux a écrit :

On a les stats ici : https://store.steampowered.com/hwsurvey/
 
Donc à vue de nez on a à la grosse louche 4% des joueurs qui ont plus de 8Go de VRAM sur leur CG.


Non, la proportion de CG ayant 10Go de VRAM ou plus, c'est 22% chez Steam (D'après ton lien)

n°11243441
raph0ux
Amateur de PC
Posté le 27-04-2023 à 12:33:56  profilanswer
 

Je pense que c'est faux parce qu'il y a un paquet de mémoire partagée dans le lot  :whistle:

 

Donc je regarde juste les CG


---------------
[VDS] ↑ Asus Prime Z790-A WiFi ↑ Écran Asus VG32VQ1B ↑ Clavier Corsair K65 ↑ /// LEGO UCS / Poussette Trio Peg Perego
n°11243446
Gunman24
Posté le 27-04-2023 à 13:01:59  profilanswer
 

Jedi utilise 'l'ue 5 je crois bien.

 

Concernant la 3070, on est devant un cas d'école d'obsolescence programmée.
Volontairement peu de vram.
Volontairement pas compatible Dlss3.

 

Le GPU est encore bon. Le mec qui a soudé 16gb le montre. La théorie du "le GPU sera obsolète avant que le manque de vram ne se fasse sentir" ne tient pas.

 

Enfin, ce ne serait pas aussi scandaleux si elle était vendu à un prix normal. Elle est encore à 500€ cette carte....

Message cité 1 fois
Message édité par Gunman24 le 27-04-2023 à 13:07:13
n°11243447
Gregooz
Posté le 27-04-2023 à 13:19:20  profilanswer
 

Gunman24 a écrit :

Jedi utilise 'l'ue 5 je crois bien.
 
Concernant la 3070, on est devant un cas d'école d'obsolescence programmée.
Volontairement peu de vram.
Volontairement pas compatible Dlss3.
 
Le GPU est encore bon. Le mec qui a soudé 16gb le montre. La théorie du "le GPU sera obsolète avant que le manque de vram ne se fasse sentir" ne tient pas.
 
Enfin, ce ne serait pas aussi scandaleux si elle était vendu à un prix normal. Elle est encore à 500€ cette carte....


Non toujours UE4 ;)

n°11243461
petit-tigr​e
miaou
Posté le 27-04-2023 à 14:14:59  profilanswer
 

El Paladin Malefik a écrit :

 

En même temps si t'achète une RTX pour pas jouer avec le RT c'est dommage compte tenue que c'est un des arguments principaux de ce type de GPU.
Donc si une 3060Ti/3070 ou 3070Ti vendu justement pour faire du RT ne peut plus le faire en fait par simple manque de Vram, c'est quand même que Nvidia a pris les gens pour des cons.


En l'occurrence, le problème vient du jeu (RE4), pas de Nvidia. Je ne sais pas si c'est corrigé, j'ai déjà fini le jeu.
Sorti de ça, je joue avec le RT en général, pas forcément poussé au max (intérêt très discutable selon l'option) mais je joue avec et ça passe très bien. De control à Cyberpunk en passant par Deathloop, Quake 2, Doom Eternal ou Metro Exodus, tous fonctionnent parfaitement avec les 8 petits Gigots et un très haut niveau de détail.

 

Je précise au demeurant que je ne supporte pas DU TOUT le stuttering. Un jeu doit être ultra smooth pour moi AVANT d'être au max. Et comme je disais, le RT peut vite être un piège à pigeon avec des options de très haute qualité qui te foutent le PC à terre mais dont tu ne vois aucune différence ou quasi avec le cran inférieur qui lui fonctionne bien.

Message cité 2 fois
Message édité par petit-tigre le 27-04-2023 à 14:19:32

---------------
mIaOuUuUuUuUuUu
mood
Publicité
Posté le 27-04-2023 à 14:14:59  profilanswer
 

n°11243475
uNReaLx77
üNReaL
Posté le 27-04-2023 à 14:43:16  profilanswer
 

petit-tigre a écrit :


En l'occurrence, le problème vient du jeu (RE4), pas de Nvidia. Je ne sais pas si c'est corrigé, j'ai déjà fini le jeu.
Sorti de ça, je joue avec le RT en général, pas forcément poussé au max (intérêt très discutable selon l'option) mais je joue avec et ça passe très bien. De control à Cyberpunk en passant par Deathloop, Quake 2, Doom Eternal ou Metro Exodus, tous fonctionnent parfaitement avec les 8 petits Gigots et un très haut niveau de détail.
 
Je précise au demeurant que je ne supporte pas DU TOUT le stuttering. Un jeu doit être ultra smooth pour moi AVANT d'être au max. Et comme je disais, le RT peut vite être un piège à pigeon avec des options de très haute qualité qui te foutent le PC à terre mais dont tu ne vois aucune différence ou quasi avec le cran inférieur qui lui fonctionne bien.


Enfin la voie du sage a parlé...  
 

n°11243496
El Paladin​ Malefik
Posté le 27-04-2023 à 15:25:15  profilanswer
 

petit-tigre a écrit :


En l'occurrence, le problème vient du jeu (RE4), pas de Nvidia. Je ne sais pas si c'est corrigé, j'ai déjà fini le jeu.
Sorti de ça, je joue avec le RT en général, pas forcément poussé au max (intérêt très discutable selon l'option) mais je joue avec et ça passe très bien. De control à Cyberpunk en passant par Deathloop, Quake 2, Doom Eternal ou Metro Exodus, tous fonctionnent parfaitement avec les 8 petits Gigots et un très haut niveau de détail.
 
Je précise au demeurant que je ne supporte pas DU TOUT le stuttering. Un jeu doit être ultra smooth pour moi AVANT d'être au max. Et comme je disais, le RT peut vite être un piège à pigeon avec des options de très haute qualité qui te foutent le PC à terre mais dont tu ne vois aucune différence ou quasi avec le cran inférieur qui lui fonctionne bien.


 
Après tu te focus sur RE4 où effectivement l'intérêt du RT est discutable. Le jeu par contre n'a pas vraiment de problème vu qu'il est bien optimisé comparé aux autres posant problèmes.  
 
Et tu rejoins de toute façon le fait que tu fais des concessions pour que ça tourne.  
 
Pour moi le soucis est partagé, ça vient bien de Nvidia qui a foutu 8 Go de Vram sur des GPUs destinés à du 1440p. Ne pas oublier que 8Go existe depuis 2016 sur le milieu de gamme, soit 7 ans!  
Ça veut dire qu'on a triplé la puissance des GPUs depuis sans augmenter la Vram. Pour moi c'est clairement incohérent, on peut critiquer AMD mais au moins leur milieu de gamme face à la RTX 3060ti/3070 proposait déjà une approche logique avec 12 Go.  
12 Go qui ferait qu'aujourd'hui tu n'aurais même pas à faire de concession sur encore aucun jeu avec une 3070 du moment que tu joues en 1080 ou 1440p.
Alors bien sûr les développeurs peuvent bien mieux faire mais on aura beau râler, ça changera pas plus de ce côté. Par contre en tant que consommateur est en droit de dire que mettre au delà de 500 balles dans un GPU pour qu'au bout de 2 ans tu commences à avoir des soucis c'est pas normal.  
Le débat n'aurait pas lieu si une 3070 avait été vendu 300-350 balles à sa sortie dans les faits ça été le double de ce prix là voir plus en pénurie.  
Je parle pas de la 3070Ti qui est vraiment une carte honteuse à tout les niveaux pour le coup.  
 
Après RT piège à pigeon ou pas, le RTX ON est la plus grosse propagande marketing de Nvidia pour mettre en avant sa supériorité. Supériorité aujourd'hui fortement remise en question quand dans certains jeux ses GPUs ne sont plus capables d'exécuter le RT comme il le devrait.  
Résultats les cartes AMD assez moyennes en RT se retrouvent à faire mieux dans les derniers titres qu'une 3070/3070Ti.
On ne peut même plus vraiment dire qu'une RTX 3070 est meilleur en RT qu'une RX 6800. Les derniers jeux sont clairement à l'avantage d'une RX 6800 aujourd'hui.  
 
C'est d'autant plus dommage pour ceux qui hésitaient sur ces 2 cartes par rapport à l'argument RT. Au final la stratégie de Nvidia a trompé le consommateur tout simplement. Et ça Nvidia en est bien responsable malgré tout.  
Ce ne serait jamais arrivé s'ils avaient mieux anticipé la chose.  


---------------
Config: Ryzen 7 5800X3D/AMD RX 6900XT/32 Go DDR4 Gskill Trident Z B-DIE @3733 MHz CAS 14/ASUS TUF Gaming Plus B550/AIO Corsair H115i Pro RGB Platinum/Boitier Corsair 4000D Airflow/ Samsung Odyssey G7 4k 144 Hz
n°11243501
petit-tigr​e
miaou
Posté le 27-04-2023 à 15:45:00  profilanswer
 

El Paladin Malefik a écrit :

 

Après tu te focus sur RE4 où effectivement l'intérêt du RT est discutable. Le jeu par contre n'a pas vraiment de problème vu qu'il est bien optimisé comparé aux autres posant problèmes.


Sorti du crash quand le RT est actif, oui le jeu n'a pas de souci mais c'est ce jeu là qui est utilisé pour mettre en avant les 16 Go de la 3070 dans la vidéo du gars, raison pour laquelle j'en parle. :)

 

Comme je disais, on pourra trouver des situations limitantes pour les 8 Go, comme la 970 en son temps mais est-ce vraiment pertinent de pousser un RT au taquet de chez taquet quand tu as visuellement "la même chose" à 95% avec un cran inférieur mais des perfs x2 ou 4 ? Pour moi ce n'est pas une concession ça mais exactement le contraire, c'est une optimisation. Le reste n'est qu'un pur effet psychologique.

 

Je ne dis pas que le haut de gamme ne sert à rien. Mon écran est une LG C1 55 pouces donc si je jouais en 4K native, ma 3060 couinerait sur de nombreux jeux, dont RE4, mais faire croire qu'on est automatiquement limités aujourd'hui par 8 Go pour jouer à haut niveau de rendu, y compris avec ray tracing est factuellement faux, c'est tout ce que je dis.

 

Pour ce qui est de la politique de Nvidia de manière générale, c'est un autre sujet à mon sens. Pour moi le vrai game changer n'est pas le RT mais le DLSS. Actuellement je joue à Assetto Corsa Competizione en 4K DLSS qualité tout à fond ou presque et même avec 20 voitures à l'écran, j'ai plus de 60 fps. Sans le DLSS c'est même pas envisageable ou je dois charcuter entre options et résolution pour un rendu bien moins joli. Pour une carte payée 419 roros sur un jeu pas extraordinairement optimisé, c'est Royal.


Message édité par petit-tigre le 27-04-2023 à 15:52:27

---------------
mIaOuUuUuUuUuUu
n°11243504
uNReaLx77
üNReaL
Posté le 27-04-2023 à 15:50:53  profilanswer
 

On est sur des cartes milieu de gamme, 1440p ou pas ben a un moment ça n'est plus fait pour mettre toutes les options a fond.
 
Si c'était le cas j'aurai gardé ma gtx 780, ou 680, et je jouerai encore tout a fond avec :o
 
A un moment soit tu revois tes options a la baisse, sois tu changes ta cg.

Message cité 2 fois
Message édité par uNReaLx77 le 27-04-2023 à 15:52:14
n°11243505
campi
V8 FTW
Posté le 27-04-2023 à 15:53:01  profilanswer
 

El Paladin Malefik a écrit :


 
Après tu te focus sur RE4 où effectivement l'intérêt du RT est discutable. Le jeu par contre n'a pas vraiment de problème vu qu'il est bien optimisé comparé aux autres posant problèmes.  
 
Et tu rejoins de toute façon le fait que tu fais des concessions pour que ça tourne.  
 
Pour moi le soucis est partagé, ça vient bien de Nvidia qui a foutu 8 Go de Vram sur des GPUs destinés à du 1440p. Ne pas oublier que 8Go existe depuis 2016 sur le milieu de gamme, soit 7 ans!  
Ça veut dire qu'on a triplé la puissance des GPUs depuis sans augmenter la Vram. Pour moi c'est clairement incohérent, on peut critiquer AMD mais au moins leur milieu de gamme face à la RTX 3060ti/3070 proposait déjà une approche logique avec 12 Go.  
12 Go qui ferait qu'aujourd'hui tu n'aurais même pas à faire de concession sur encore aucun jeu avec une 3070 du moment que tu joues en 1080 ou 1440p.
Alors bien sûr les développeurs peuvent bien mieux faire mais on aura beau râler, ça changera pas plus de ce côté. Par contre en tant que consommateur est en droit de dire que mettre au delà de 500 balles dans un GPU pour qu'au bout de 2 ans tu commences à avoir des soucis c'est pas normal.  
Le débat n'aurait pas lieu si une 3070 avait été vendu 300-350 balles à sa sortie dans les faits ça été le double de ce prix là voir plus en pénurie.  
Je parle pas de la 3070Ti qui est vraiment une carte honteuse à tout les niveaux pour le coup.  
 
Après RT piège à pigeon ou pas, le RTX ON est la plus grosse propagande marketing de Nvidia pour mettre en avant sa supériorité. Supériorité aujourd'hui fortement remise en question quand dans certains jeux ses GPUs ne sont plus capables d'exécuter le RT comme il le devrait.  
Résultats les cartes AMD assez moyennes en RT se retrouvent à faire mieux dans les derniers titres qu'une 3070/3070Ti.
On ne peut même plus vraiment dire qu'une RTX 3070 est meilleur en RT qu'une RX 6800. Les derniers jeux sont clairement à l'avantage d'une RX 6800 aujourd'hui.  
 
C'est d'autant plus dommage pour ceux qui hésitaient sur ces 2 cartes par rapport à l'argument RT. Au final la stratégie de Nvidia a trompé le consommateur tout simplement. Et ça Nvidia en est bien responsable malgré tout.  
Ce ne serait jamais arrivé s'ils avaient mieux anticipé la chose.  


 
Fallait produire un max de cartes pour les mineurs, donc les version 16 et 20go pour les 3070 et 3080 sont passées à la trappe c'est pas compliqué. Maintenant que c'est vendu pas grave les gens n'auront qu'a acheter une nouvelle cg :o


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11243507
petit-tigr​e
miaou
Posté le 27-04-2023 à 15:59:54  profilanswer
 

uNReaLx77 a écrit :

On est sur des cartes milieu de gamme, 1440p ou pas ben a un moment ça n'est plus fait pour mettre toutes les options a fond.

 

Si c'était le cas j'aurai gardé ma gtx 780, ou 680, et je jouerai encore tout a fond avec :o

 

A un moment soit tu revois tes options a la baisse, sois tu changes ta cg.

 

Tout simplement.
Je sortais d'une 1070, l'upgrade était tout à fait pertinent. La 60 n'est pas faite pour supporter tous les jeux 4K max. Le GPU pleure avant que la mémoire sature.

 

Et 1440p ça rend très bien sur une TV 4K. On voit une légère différence avec la 4K native mais ça ne saute pas aux yeux si tu ne le sais pas.

Message cité 1 fois
Message édité par petit-tigre le 27-04-2023 à 16:00:18

---------------
mIaOuUuUuUuUuUu
n°11243508
El Paladin​ Malefik
Posté le 27-04-2023 à 16:04:14  profilanswer
 

uNReaLx77 a écrit :

On est sur des cartes milieu de gamme, 1440p ou pas ben a un moment ça n'est plus fait pour mettre toutes les options a fond.
 
Si c'était le cas j'aurai gardé ma gtx 780, ou 680, et je jouerai encore tout a fond avec :o
 
A un moment soit tu revois tes options a la baisse, sois tu changes ta cg.


 
À un moment oui mais pas quand le milieu de gamme de la gen suivante est à peine en place et surtout à des prix délirants.  
Une 1070 je suis desolé mais ça à mis du temps avant de devoir vraiment baisser les curseurs et faire des concessions.  
Même la 1060 a tenu très longtemps pour de l'entrée de gamme sans devoir trop sacrifier grand chose.  
 
Changer de CG tous les 2 ans quand tu as dépensé 300 balles dans ton GPU pourquoi pas.  
Maintenant tous les 2 ans quand c'est 600 balles c'est pas la même et tu en attends un peu plus pour le prix payé et c'est légitime.  
 
On peut dire ce qu'on veut il n'y a rien de justifiable à mon sens au vu des prix pratiqués de nos jours.  
 
 


---------------
Config: Ryzen 7 5800X3D/AMD RX 6900XT/32 Go DDR4 Gskill Trident Z B-DIE @3733 MHz CAS 14/ASUS TUF Gaming Plus B550/AIO Corsair H115i Pro RGB Platinum/Boitier Corsair 4000D Airflow/ Samsung Odyssey G7 4k 144 Hz
n°11243516
raph0ux
Amateur de PC
Posté le 27-04-2023 à 16:19:41  profilanswer
 

Si par "à un moment" tu sous entend "tous les ans" alors on est d'accord  [:- shardik -]


---------------
[VDS] ↑ Asus Prime Z790-A WiFi ↑ Écran Asus VG32VQ1B ↑ Clavier Corsair K65 ↑ /// LEGO UCS / Poussette Trio Peg Perego
n°11243517
uNReaLx77
üNReaL
Posté le 27-04-2023 à 16:21:01  profilanswer
 

petit-tigre a écrit :


 
Tout simplement.
Je sortais d'une 1070, l'upgrade était tout à fait pertinent. La 60 n'est pas faite pour supporter tous les jeux 4K max. Le GPU pleure avant que la mémoire sature.  
 
Et 1440p ça rend très bien sur une TV 4K. On voit une légère différence avec la 4K native mais ça ne saute pas aux yeux si tu ne le sais pas.


Sur ma TV je joue en 1440p, parce que j'ai le 120hz, que je n'ai pas en 4k, et ça rend très bien

n°11243519
uNReaLx77
üNReaL
Posté le 27-04-2023 à 16:29:25  profilanswer
 

raph0ux a écrit :

Si par "à un moment" tu sous entend "tous les ans" alors on est d'accord  [:- shardik -]


Je change de carte a chaque gen, et a chaque gen je vois bien qu'on a toujours des jeux qui vont poser soucie si tu veux du full détails, c'est un fait c'est pas moi qui code les jeux.
 

El Paladin Malefik a écrit :


 
À un moment oui mais pas quand le milieu de gamme de la gen suivante est à peine en place et surtout à des prix délirants.  
Une 1070 je suis desolé mais ça à mis du temps avant de devoir vraiment baisser les curseurs et faire des concessions.  
Même la 1060 a tenu très longtemps pour de l'entrée de gamme sans devoir trop sacrifier grand chose.  
 
Changer de CG tous les 2 ans quand tu as dépensé 300 balles dans ton GPU pourquoi pas.  
Maintenant tous les 2 ans quand c'est 600 balles c'est pas la même et tu en attends un peu plus pour le prix payé et c'est légitime.  
 
On peut dire ce qu'on veut il n'y a rien de justifiable à mon sens au vu des prix pratiqués de nos jours.  
 
 


On ne parle pas des prix la... c'est autre chose ça...
Chose que tu peux dire au dev des jeux aussi :D
 
Y a des jeux super beau qui ne tue pas la ram de la cg, donc ils peuvent le faire aussi.
 
Et le prix du jeux ? On en parle ... ?
Donc je pense que c'est à eux a s'aligner sur la majorité des cg... Et ce ne sont pas des 4090.


Message édité par uNReaLx77 le 27-04-2023 à 16:31:21
n°11243520
Mellodya
Posté le 27-04-2023 à 16:30:38  profilanswer
 

Au final même la 3090 tire la langue depuis quelques mois sur les jeux. La VRAM ne sature pas mais les jeux sont tellement mal optimisés que en 4K c'est hard (ce qui n'était pas forcément le cas avant).
 
A priori maintenant le 4K est limite destiné aux possesseurs des 4080 et 4090 chez les verts via notamment le DLSS3 qui soulagent je pense énormément par rapport au DLSS2.
 
Mais là pour le coup ce n'est pas un problème de VRAM mais de manque d'optimisations ou alors de jeux très gourmands mais avec une qualité graphique qui n'est pas à la hauteur de la gourmandise.

n°11243522
uNReaLx77
üNReaL
Posté le 27-04-2023 à 16:32:11  profilanswer
 

Mellodya a écrit :

Au final même la 3090 tire la langue depuis quelques mois sur les jeux. La VRAM ne sature pas mais les jeux sont tellement mal optimisés que en 4K c'est hard (ce qui n'était pas forcément le cas avant).
 
A priori maintenant le 4K est limite destiné aux possesseurs des 4080 et 4090 chez les verts via notamment le DLSS3 qui soulagent je pense énormément par rapport au DLSS2.
 
Mais là pour le coup ce n'est pas un problème de VRAM mais de manque d'optimisations ou alors de jeux très gourmands mais avec une qualité graphique qui n'est pas à la hauteur de la gourmandise.


Oui mais non, la 3070 elle est assez puissante, c'est juste qu'elle manque de vram :o

n°11243523
Mellodya
Posté le 27-04-2023 à 16:35:35  profilanswer
 

Je pense surement sauter le pas sur une 4090 en revendant la 3090 cet été mais je me dis que dans 1 an y aura la 5090 ... c'est un coup à user mon compte banque ces troubles compulsifs d'achat :O

n°11243524
El Paladin​ Malefik
Posté le 27-04-2023 à 16:39:21  profilanswer
 

uNReaLx77 a écrit :


Oui mais non, la 3070 elle est assez puissante, c'est juste qu'elle manque de vram :o


 
Dans ce cas explique moi pourquoi une 3070 Ti se fait littéralement exploser par une RX 6800 sur certains jeux qui elle arrive tout à fait à tenir la cadence sans sacrifier les détails ? À la base c'est des GPUs de puissance similaire.  
Je parle pas de 4K là où oui même une 3090 souffre aujourd'hui.  
Mais de résolution où le plus grand nombre joue. Ces cartes auraient dû avoir 16 Go quoiqu'on dise. Et dans quelques temps on reparlera du cas 4070 et 4070Ti tout pareil.  
 
En soit le problème n'est pas la puissance, mais la puissance complètement gâchée par ce simple problème qui rend une carte plus rapidement obsolète qu'elle aurait dû.

Message cité 3 fois
Message édité par El Paladin Malefik le 27-04-2023 à 16:40:00

---------------
Config: Ryzen 7 5800X3D/AMD RX 6900XT/32 Go DDR4 Gskill Trident Z B-DIE @3733 MHz CAS 14/ASUS TUF Gaming Plus B550/AIO Corsair H115i Pro RGB Platinum/Boitier Corsair 4000D Airflow/ Samsung Odyssey G7 4k 144 Hz
n°11243527
It_Connexi​on
Posté le 27-04-2023 à 16:53:15  profilanswer
 

El Paladin Malefik a écrit :


 
Dans ce cas explique moi pourquoi une 3070 Ti se fait littéralement exploser par une RX 6800 sur certains jeux qui elle arrive tout à fait à tenir la cadence sans sacrifier les détails ? À la base c'est des GPUs de puissance similaire.  
Je parle pas de 4K là où oui même une 3090 souffre aujourd'hui.  
Mais de résolution où le plus grand nombre joue. Ces cartes auraient dû avoir 16 Go quoiqu'on dise. Et dans quelques temps on reparlera du cas 4070 et 4070Ti tout pareil.  
 
En soit le problème n'est pas la puissance, mais la puissance complètement gâchée par ce simple problème qui rend une carte plus rapidement obsolète qu'elle aurait dû.


 
J'avoue qu'on a de plus en plus d'exemple ou le manque de VRAM se fait sentir
 
 
 
Cross post topic RX6000 et Matos gamer :  
 
 
L'autre jour j'ai fais quelques tests sur ma config Full HD (5700x + RX6800), franchement je pense que clairement 8 Go de VRAM ça va vite devenir limitant :  
 
 
Uncharted = 8.3 Go de VRAM consommés
 
https://media.joomeo.com/medium/6440e25b4b066.jpg
 
 
CP2077 = 8 Go de VRAM consommés
 
https://media.joomeo.com/medium/6440e2907564d.jpg
 
 
FS2020 = on dépasse joyeusement les 10 Go de VRAM consommés (voir 13 Go)
 
https://media.joomeo.com/medium/6440e2da19283.jpg
 
https://media.joomeo.com/medium/6440e2e9f2190.jpg

Message cité 2 fois
Message édité par It_Connexion le 27-04-2023 à 16:54:56

---------------
Galerie Photo Personnelle
n°11243531
uNReaLx77
üNReaL
Posté le 27-04-2023 à 17:00:05  profilanswer
 

El Paladin Malefik a écrit :


 
Dans ce cas explique moi pourquoi une 3070 Ti se fait littéralement exploser par une RX 6800 sur certains jeux qui elle arrive tout à fait à tenir la cadence sans sacrifier les détails ? À la base c'est des GPUs de puissance similaire.  
Je parle pas de 4K là où oui même une 3090 souffre aujourd'hui.  
Mais de résolution où le plus grand nombre joue. Ces cartes auraient dû avoir 16 Go quoiqu'on dise. Et dans quelques temps on reparlera du cas 4070 et 4070Ti tout pareil.  
 
En soit le problème n'est pas la puissance, mais la puissance complètement gâchée par ce simple problème qui rend une carte plus rapidement obsolète qu'elle aurait dû.


Je sais pas tu as un lien ?

n°11243533
mukumi
RATATATA
Posté le 27-04-2023 à 17:01:36  profilanswer
 
n°11243535
Valaint671​30
Cinquième soleil
Posté le 27-04-2023 à 17:02:50  profilanswer
 

It_Connexion a écrit :


 
J'avoue qu'on a de plus en plus d'exemple ou le manque de VRAM se fait sentir
 
 
 
Cross post topic RX6000 et Matos gamer :  
 
 
L'autre jour j'ai fais quelques tests sur ma config Full HD (5700x + RX6800), franchement je pense que clairement 8 Go de VRAM ça va vite devenir limitant :  
 
 
Uncharted = 8.3 Go de VRAM consommés
 
https://media.joomeo.com/medium/6440e25b4b066.jpg
 
 
CP2077 = 8 Go de VRAM consommés
 
https://media.joomeo.com/medium/6440e2907564d.jpg
 
 
FS2020 = on dépasse joyeusement les 10 Go de VRAM consommés (voir 13 Go)
 
https://media.joomeo.com/medium/6440e2da19283.jpg
 
https://media.joomeo.com/medium/6440e2e9f2190.jpg


 
Tu sais que le jeu fait en fonction de la vram embarquée si il est pas codé avec des moufles ?  :o  
 
Nan parce que ta comparaison de tiens pas vu que tu as plus de vram sur ta RX, donc plus de ram allouée...


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11243536
It_Connexi​on
Posté le 27-04-2023 à 17:04:24  profilanswer
 

Valaint67130 a écrit :


 
Tu sais que le jeu fait en fonction de la vram embarquée si il est pas codé avec des moufles ?  :o  
 
Nan parce que ta comparaison de tiens pas vu que tu as plus de vram sur ta RX, donc plus de ram allouée...


 
Pas mal de jeux restent sous les 8 Go, du coup je ne comprends pas le but d'allouer plus de VRAM ? (vraie question hein  :D )


---------------
Galerie Photo Personnelle
n°11243537
uNReaLx77
üNReaL
Posté le 27-04-2023 à 17:04:32  profilanswer
 

It_Connexion a écrit :


 
J'avoue qu'on a de plus en plus d'exemple ou le manque de VRAM se fait sentir
 
 
 
Cross post topic RX6000 et Matos gamer :  
 
 
L'autre jour j'ai fais quelques tests sur ma config Full HD (5700x + RX6800), franchement je pense que clairement 8 Go de VRAM ça va vite devenir limitant :  
 
 
Uncharted = 8.3 Go de VRAM consommés
 
https://media.joomeo.com/medium/6440e25b4b066.jpg
 
 
CP2077 = 8 Go de VRAM consommés
 
https://media.joomeo.com/medium/6440e2907564d.jpg
 
 
FS2020 = on dépasse joyeusement les 10 Go de VRAM consommés (voir 13 Go)
 
https://media.joomeo.com/medium/6440e2da19283.jpg
 
https://media.joomeo.com/medium/6440e2e9f2190.jpg


J'arrive pas a zoomer tes image du coup je vois rien sur mon téléphone :D
 
De loin je lis une quarantaine de FPS ...


Ben ça marche bien 10gb :D

Message cité 1 fois
Message édité par uNReaLx77 le 27-04-2023 à 17:08:14
n°11243538
It_Connexi​on
Posté le 27-04-2023 à 17:07:53  profilanswer
 

uNReaLx77 a écrit :


J'arrive pas a zoomer tes image du coup je vois rien sur mon téléphone :D
 
De loin je lis une quarantaine de FPS ...


 
Yes sur CP2077 ça tourne à 40-50 fps en ultra et RT ultra, ça pique !! (avec le FSR en mode qualité je précise)

Message cité 1 fois
Message édité par It_Connexion le 27-04-2023 à 17:08:04

---------------
Galerie Photo Personnelle
n°11243539
Valaint671​30
Cinquième soleil
Posté le 27-04-2023 à 17:07:59  profilanswer
 

El Paladin Malefik a écrit :


 
Dans ce cas explique moi pourquoi une 3070 Ti se fait littéralement exploser par une RX 6800 sur certains jeux qui elle arrive tout à fait à tenir la cadence sans sacrifier les détails ? À la base c'est des GPUs de puissance similaire.  
Je parle pas de 4K là où oui même une 3090 souffre aujourd'hui.  
Mais de résolution où le plus grand nombre joue. Ces cartes auraient dû avoir 16 Go quoiqu'on dise. Et dans quelques temps on reparlera du cas 4070 et 4070Ti tout pareil.  
 
En soit le problème n'est pas la puissance, mais la puissance complètement gâchée par ce simple problème qui rend une carte plus rapidement obsolète qu'elle aurait dû.


 
Il n'y a rien a expliquer, ces jeux sont mal finis et ils ne sont que 2 ou 3, dont RE4  :o  
 
Et les généralité sans fondements "Même la 3090 souffre depuis 6 mois alors que avant non"... Bah non en fait.
 
Ces cartes auraient put avoir plus de vram et faire mieux tourner les jeux dont il est question et qui sont faits pour les RX de base et qui en ont plus certes, mais le problème est contournable pour un simple delestement dans le mémoire vive...
 
Donc par A+B non, plus de ram n'était pas nécessaire à l'époque, et ne l'est pas encore maintenant, ce sont des faits, pas des estimations.
 
Et puis c'est comme Hogwards, ils voulaient vendre pleins d'exemplaires, c'est fait, et on dirait qu'ils ne vont pas se fouler plus que ça maintenant pour opti vu que les objectifs de rentabilité sont rempli.
 
Ptet pour un DLC, mais encore une fois, faut pas taper sur NV, mais sur les devs et les boites de prod...!
 
Genre y'a 3 jeux sur 1000 qui font galérer 80% du parc gaming pc, alors c'est la faute des cgs qui ont 8go de vram...  [:daphne:4]

Message cité 1 fois
Message édité par Valaint67130 le 27-04-2023 à 17:10:31

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11243540
uNReaLx77
üNReaL
Posté le 27-04-2023 à 17:08:57  profilanswer
 

It_Connexion a écrit :


 
Yes sur CP2077 ça tourne à 40-50 fps en ultra et RT ultra, ça pique !! (avec le FSR en mode qualité je précise)


Revoi a la baisse, c'est pas un souci de ram la mais de gpu....comme quoi.... :D

Message cité 1 fois
Message édité par uNReaLx77 le 27-04-2023 à 17:09:37
n°11243543
It_Connexi​on
Posté le 27-04-2023 à 17:11:08  profilanswer
 

uNReaLx77 a écrit :


Revoi a la baisse, c'est pas un souci de ram la mais de gpu....comme quoi.... :D


 
Après sincèrement c'est très bien pour moi, je gagne pas mal en baissant le RT (que je trouve abusé dans ce jeux perso  :D ). Je suis en FreeSync donc nickel  :jap:


---------------
Galerie Photo Personnelle
n°11243544
Valaint671​30
Cinquième soleil
Posté le 27-04-2023 à 17:12:14  profilanswer
 

It_Connexion a écrit :


 
Pas mal de jeux restent sous les 8 Go, du coup je ne comprends pas le but d'allouer plus de VRAM ? (vraie question hein  :D )


 
Sans doute car c'est possible.
 
Un moteur ne décide pas à la carte ce qu'il fait de la vram, il prend le max car il est sensé être la seule instance à en avoir besoin pendant le jeu.
 
Et c'est pareil entre une RX 580 8go et une 3070 8go


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11243545
ddlabrague​tte
Posté le 27-04-2023 à 17:12:22  profilanswer
 

Les ruscofs de gamagpu ne semblent pas mettre en évidence un problème de VRAM sur le dernier SW  
A moins qu'il a déjà été patché  :??:  
https://gamegpu.com/action-/-fps-/- [...] st-gpu-cpu
 
Par contre le jeu est cpu limited même en 1440p apparemment  [:ex-floodeur:5]

Message cité 2 fois
Message édité par ddlabraguette le 27-04-2023 à 17:13:18
n°11243546
It_Connexi​on
Posté le 27-04-2023 à 17:14:36  profilanswer
 

ddlabraguette a écrit :

Les ruscofs de gamagpu ne semblent pas mettre en évidence un problème de VRAM sur le dernier SW  
A moins qu'il a déjà été patché  :??:  
https://gamegpu.com/action-/-fps-/- [...] st-gpu-cpu
 
Par contre le jeu est cpu limited même en 1440p apparemment  [:ex-floodeur:5]


 
La c'est Fallen Order, celui de 2019 non ? Mon russe est... comment dire...  :whistle:


---------------
Galerie Photo Personnelle
n°11243547
kenshirooo
Posté le 27-04-2023 à 17:14:46  profilanswer
 

ddlabraguette a écrit :

Les ruscofs de gamagpu ne semblent pas mettre en évidence un problème de VRAM sur le dernier SW  
A moins qu'il a déjà été patché  :??:  
https://gamegpu.com/action-/-fps-/- [...] st-gpu-cpu
 
Par contre le jeu est cpu limited même en 1440p apparemment  [:ex-floodeur:5]


 
C'est pas tout à fait le bon SW ça :o

n°11243548
ddlabrague​tte
Posté le 27-04-2023 à 17:15:24  profilanswer
 

Valaint67130 a écrit :


 
Sans doute car c'est possible.
 
Un moteur ne décide pas à la carte ce qu'il fait de la vram, il prend le max car il est sensé être la seule instance à en avoir besoin pendant le jeu.
 
Et c'est pareil entre une RX 580 8go et une 3070 8go


Sous DX11, c'est les drivers qui gèrent l'allocation mémoire  
Sur les API bas niveau ( DX12, Vulkan ), c'est à la charge des développeurs du jeu

n°11243549
ddlabrague​tte
Posté le 27-04-2023 à 17:17:33  profilanswer
 

It_Connexion a écrit :


 
La c'est Fallen Order, celui de 2019 non ? Mon russe est... comment dire...  :whistle:


 

kenshirooo a écrit :


 
C'est pas tout à fait le bon SW ça :o


En effet, mon russe est assez limité  [:skaine:1]  
C'est pas " survivor "  
Il était en first page du site, du coup je me suis fait eu  
 
Du coup, ça explique pourquoi je trouvais ça moche  [:ex-floodeur:5]


Message édité par ddlabraguette le 27-04-2023 à 17:18:35
n°11243550
El Paladin​ Malefik
Posté le 27-04-2023 à 17:25:38  profilanswer
 

Valaint67130 a écrit :


 
Il n'y a rien a expliquer, ces jeux sont mal finis et ils ne sont que 2 ou 3, dont RE4  :o  
 
Et les généralité sans fondements "Même la 3090 souffre depuis 6 mois alors que avant non"... Bah non en fait.
 
Ces cartes auraient put avoir plus de vram et faire mieux tourner les jeux dont il est question et qui sont faits pour les RX de base et qui en ont plus certes, mais le problème est contournable pour un simple delestement dans le mémoire vive...
 
Donc par A+B non, plus de ram n'était pas nécessaire à l'époque, et ne l'est pas encore maintenant, ce sont des faits, pas des estimations.
 
Et puis c'est comme Hogwards, ils voulaient vendre pleins d'exemplaires, c'est fait, et on dirait qu'ils ne vont pas se fouler plus que ça maintenant pour opti vu que les objectifs de rentabilité sont rempli.
 
Ptet pour un DLC, mais encore une fois, faut pas taper sur NV, mais sur les devs et les boites de prod...!
 
Genre y'a 3 jeux sur 1000 qui font galérer 80% du parc gaming pc, alors c'est la faute des cgs qui ont 8go de vram...  [:daphne:4]


 
https://youtu.be/Rh7kFgHe21k
 
Je pense que ça vaut mieux que tout les longs discours.  
8 go est une erreur grave chez Nvidia tout comme les développeurs des jeux sont aussi responsables


---------------
Config: Ryzen 7 5800X3D/AMD RX 6900XT/32 Go DDR4 Gskill Trident Z B-DIE @3733 MHz CAS 14/ASUS TUF Gaming Plus B550/AIO Corsair H115i Pro RGB Platinum/Boitier Corsair 4000D Airflow/ Samsung Odyssey G7 4k 144 Hz
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1849  1850  1851  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)