Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1807 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  636  637  638  ..  804  805  806  807  808  809
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11292407
booba92i
Posté le 28-10-2023 à 23:59:16  profilanswer
 

Reprise du message précédent :

oliviermdvy a écrit :

Question: les 4090 ressemblent à des briques à cause de leur dimension, pensez vous que les futures 5090 seront encore plus volumineuses ?


 
Pour ma part c'est une petite briquette ma 4090  :D  
 
https://zupimages.net/up/23/42/togk.jpg


---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
mood
Publicité
Posté le 28-10-2023 à 23:59:16  profilanswer
 

n°11292408
MSchumache​r
Posté le 29-10-2023 à 00:07:52  profilanswer
 

Tahitiflo a écrit :

Alors qu'il suffirait de passer en hight les settings. :o


Ou en résolution "perso" 1800p... (Perte de qualité quasi inexistante et gain de FPS !)

n°11292413
ddlabrague​tte
Posté le 29-10-2023 à 00:41:04  profilanswer
 

TheCLeaN a écrit :


une carte du niveau de puissance d'une 3090 avec 12Go de mémoire, ça te choque pas?
 


 
Non car c'est une carte milieu de gamme taillée pour du full hd sans concession ou du 1440 qui demandera surement des concessions dans 2 ans ( concessions qui libéreront un peu de place sur la VRAM )  
 
Ce qui me choque c'est qu'une carte mdg puisse sortir à 900 €  
Si elle était sortie au même prix que la 3070, il n'y aurait pas ce débat

Message cité 1 fois
Message édité par ddlabraguette le 29-10-2023 à 00:41:57
n°11292416
TheCLeaN
Posté le 29-10-2023 à 01:55:25  profilanswer
 

ddlabraguette a écrit :


 
Non car c'est une carte milieu de gamme taillée pour du full hd sans concession ou du 1440 qui demandera surement des concessions dans 2 ans ( concessions qui libéreront un peu de place sur la VRAM )  
 
Ce qui me choque c'est qu'une carte mdg puisse sortir à 900 €  
Si elle était sortie au même prix que la 3070, il n'y aurait pas ce débat


une 4070ti pour de la 1080P?  :??:  
donc on est d'accord, ça demandera des concessions. moi ça sa me dérange, je peut pas acheter une carte en sachant que la Vram me limitera
 
 

havoc_28 a écrit :


 
Le problème c'est plutôt la dénomination et le tarif de la gamme Nvidia au fond, qu'une puce moyen de gamme à des performances équivalentes au Haut de gamme précédent, mais avec un peu moins de VRAM c'est assez commun au final (1080 Ti  @ 11 Go qui s'intercalait entre les  RTX 2070 / 2080 les eux avec 8 go, mais prenons un exemple plus récent :
 
RTX 2080 TI @ TU102 = bus mémoire 384 bits (352 bits sur la 2080 Ti) 11 Go de VRAM.
RTX 3070 @ GA104 = bus mémoire 256 bits et 8 go de VRAM.  
 
A l'époque de la 3070 les puces de GDDR6X @ 2 Go de densité ça existait pas et les non X étaient très peu courante encore en 2Go, de plus passer de 8 à 16 puces, et les mettre en Clamshell donc recto verso sur le PCB, à l'époque le prix de la GDDR6 (X c'était pas donné, alors pour les besoin de l'époque 8 Go ça allait, Nvidia sont but premier c'est que les gens renouvellent leurs cartes à chaque génération, et que la quantité de VRAM soit suffisante pour la résolution visée et tout au long de la durée de vie de la carte (donc une génération pour Nvidia, soit 2 ans).  
Une 3070 (Ti) avec 16 Go aurait été plus pérenne (surtout pour la variante Ti sortie plus tard, là y avait vraiment le choix de passer soit sur 16 go restant sur de la GDDR6 classique mais ils ont préféré opté pour de la GDDR6X pour avoir un gain un peu plus net niveau benchmark (déjà qu'il était pas énorme :o). Bref actuellement oui la 3070 avec ses 8 go à des limitations et faut faires des concessions, mais elle n'est pas non plus à jeter si on est Ok pour réduire certaines options spécifiques, ça aurait été bien une variante 16 go pour allonger un peu la durée de la vie même si sa puissance brute commence aussi à rentrer en jeu.  
 
Pour la 4070 (Ti) c'est pareil, sauf que là Nvidia a encore plus augmenté les tarifs, et que l'AD104 c'est "juste" un bus 192 bits avec de la GDDR6X. Donc c'est max 6 puces de 2 Go @ 12 Go.  Ou sinon faut passer en Clamshell / Asymétrique si on veut 16 go et pas directement 24 go (par exemple). La carte elle est marketé comme du 1440p que ce soit la TI ou non TI, après vu le tarif des deux, se cantonner juste à du 1440p ça commence à faire beaucoup (mais c'est pareil pour la 4060 Ti qui considéré comme du 1080p etc). Donc oui dans 2/3 ans les 4070 vont surement avoir du mal niveau VRAM, mais pour Nvidia c'est bon, 2/3 ans après tu changes ta carte graphique.  
 
Quand tu achètes une 4070 (TI) normalement tu sais pertinemment que soit tu vas la revendre dans 2/3 ans voir moins, soit être ok pour faire des concessions supplémentaire à cause de la VRAM quand c'est pas la puissance brute qui limite, mais qu'est ce qui sera le plus souvent limitant, la VRAM, la puissance brute, un peu des deux ?  A chacun de faire son petit pari sur l'avenir et faire en fonction de ses finances, le choix le plus éclairé.


 
merci pour toutes ces explications claires  :jap:  
ducoup se n'est pas qu'une question de prix des puces mémoires  [:prab]  
 
AMD a pourtant proposé des cartes milieu de gamme avec 16go de vram dés RDNa2  :??:  
ducoup c'est la strategie Nvidia qui pose problème. mais bon, si y'en a qui sont satisfait c'est sur que ça changera pas  :o  
 
sinon, quand tu garde ta carte que 2ans, que tu passe à la nouvelle gen, l'ancienne carte elle va pas à la poubelle. elle sera utilisé par quelqu'un d'autre
donc le problème est le même que si on la gardait

n°11292417
ddlabrague​tte
Posté le 29-10-2023 à 02:00:56  profilanswer
 

TheCLeaN a écrit :


une 4070ti pour de la 1080P?  :??:  
donc on est d'accord, ça demandera des concessions. moi ça sa me dérange, je peut pas acheter une carte en sachant que la Vram me limitera
 
 


 
t'as rien compris  [:michel_cymerde:7]
 
 
C'est la puissance brute qui montrera ses limites et qui t'obligera à baisser quelques options.  Et en faisant ça libérera de la mémoire
 
 
Sinon, oui, je joue en full hd avec une 4070ti  
Aussi étonnant que ça puisse paraitre, c'est pas si overkill que ça  [:skaine:1]  

Message cité 1 fois
Message édité par ddlabraguette le 29-10-2023 à 02:07:26
n°11292421
TheCLeaN
Posté le 29-10-2023 à 02:17:31  profilanswer
 

ddlabraguette a écrit :


 
t'as rien compris  [:michel_cymerde:7]
 
 
C'est la puissance brute qui montrera ses limites et qui t'obligera à baisser quelques options.  Et en faisant ça libérera de la mémoire
 
 
Sinon, oui, je joue en full hd avec une 4070ti
Aussi étonnant que ça puisse paraitre, c'est pas si overkill que ça  [:skaine:1]  


je comprend mieux ton point de vue  :o  
 
ok j'ai compris. riens ne garantis ce que tu dit
perso je préfère ne pas faire ce paris et assurer au moins niveau Vram

n°11292423
ddlabrague​tte
Posté le 29-10-2023 à 02:40:30  profilanswer
 

Y'a pas plus aveugle que celui que ne veut pas voir  
 
Si je me fie à ton onglet config, t'as une 1660ti  
Equivalent à une 1070  voir légèrement supérieure même  
 
Pourtant, les 2go supplémentaires de VRAM n'ont rien apporté de plus à cette dernière sur le long terme  
 
Pourquoi à ton avis ?  
 
Tout simplement parce qu'après quelques années, t'es obligé de jouer en medium sur les derniers AAA  
 
Du coup el famoso argument " c'est mieux pour l'avenir ", ça me fait doucement rigoler  [:so-saugrenu19:4]

Message cité 2 fois
Message édité par ddlabraguette le 29-10-2023 à 10:38:53
n°11292441
petit-tigr​e
miaou
Posté le 29-10-2023 à 08:23:31  profilanswer
 

Un jour ça finira par rentrer peut être :D


---------------
mIaOuUuUuUuUuUu
n°11292442
coil whine
Renvoie-là au SAV
Posté le 29-10-2023 à 08:32:11  profilanswer
 

En tout cas le marketing a du bon. On nous rabâche que le dlss est un truc marketing alors que c’est pas du vent, contrairement à de la vram en excès pour compenser l’absence effective de fsr 3, ou autre innovation :p

n°11292447
petit-tigr​e
miaou
Posté le 29-10-2023 à 08:44:08  profilanswer
 

Ben oui, je comprends même pas comment on peut être contre le DLSS. On y gagne sur tous les tableaux : moins de conso mémoire, "fonction anti-aliasing", gain de framerate...
 
Seule contrepartie, l'image peut être légèrement plus floue. Ce qui d'une part peut se régler dans le jeu lui-même et d'autre part, se règle plus ou moins avec les versions ultérieures vu que la technologie est encore en évolution.
Cerise sur le gâteau, t'y fais même plus gaffe au "flou" tant t'y gagne en détail à côté notamment sur les éléments lointains qui sont mieux définis.


---------------
mIaOuUuUuUuUuUu
mood
Publicité
Posté le 29-10-2023 à 08:44:08  profilanswer
 

n°11292448
coil whine
Renvoie-là au SAV
Posté le 29-10-2023 à 08:46:31  profilanswer
 

Et encore pour le flou ça dépend vraiment. Essaie le dernier AC mirage tu seras surpris. Pas en mode nominal qui pour moi n’est pas un upscale mais le mode qualité. On voit pas la différence avec le TAA, qui est déjà bon sur ce titre.


Message édité par coil whine le 29-10-2023 à 08:46:42
n°11292454
Kutiva
Posté le 29-10-2023 à 09:08:31  profilanswer
 

C'est surtout que la plupart des TAA sont implémentés à la truelle et/ou avec un maximum d'effets à faible résolution camouflés derrière. Et qu'il est quasiment impossible de jouer sans TAA, l'option n'étant souvent pas disponible dans les options du jeu.

n°11292456
coil whine
Renvoie-là au SAV
Posté le 29-10-2023 à 09:10:19  profilanswer
 

Pas sur AC mirage, où c’est propre. J’avais précisé.

n°11292460
Thrax_le_B​uffle
C'est à cause de l'odeur
Posté le 29-10-2023 à 09:34:39  profilanswer
 

Cites Skylines 2 benchmark par Gamer Nexus :
 
"Cites Skylines 2 is one of the worst optimised games we've ever tested"
 :lol:  
https://www.youtube.com/watch?v=l4DX6mUY78s
 
Même la 4090 a du mal en high...
 
Au passage, CS2 est le premier jeu plus beau en Low qu'en High  :D  
Si vous voulez pas vous taper le bench en entier, allez voir à partir de 19:20, c'est limpide (surtout à 23:56 notamment). C'est juste dingue !
 
Moi qui voulais m'y mettre, j'sens que j'vais attendre 1 ou 2 ans, avant que ça ne soit vraiment optimisé, parce que là, c'est la misère...


---------------
Vid MONTAGE de ma CONFIG 2023
n°11292495
ddlabrague​tte
Posté le 29-10-2023 à 10:51:35  profilanswer
 

petit-tigre a écrit :

Un jour ça finira par rentrer peut être :D


C'est le prix de la carte qui conditionne ce genre de point de vue  
Mais je trouve ça compréhensible  
A ce tarif, on on s'attend à pouvoir jouer en 4k sans avoir à faire de concessions pendant des années. Sauf que non :/
 
J'ai même tendance à penser que ces même personnes auraient un avis différents si la carte était sortie au même tarif que les 3070/ti et salueraient tout simplement l'ajout des 4go supplémentaires  [:michel_cymerde:7]  
 
 

n°11292496
coil whine
Renvoie-là au SAV
Posté le 29-10-2023 à 10:55:34  profilanswer
 

moi je pense qu’ils comparent à AMD, plutôt…alors qu’ils ne devraient peut être pas.


Message édité par coil whine le 29-10-2023 à 10:55:50
n°11292509
Scrabble
Posté le 29-10-2023 à 11:52:00  profilanswer
 

12 Go de VRAM ca sera bon jusqu'à la sortie de la Sony PS6, c'est à dire 2027 ou 2028

n°11292511
Equipments
Posté le 29-10-2023 à 11:54:22  profilanswer
 

Perso j'hésite entre plusieurs gpu, l'année dernière j'ai renoncé à me faire plaisir en fin d'année j'ai continué une année de plus avec ma RTX 3070Ti SuprimX.
Je joue en 1080p 144hz mais je souhaite passer en 1440p 120/144hz G-sync tout en gardant mon 1080p et j'ai aussi une TV 4K sur laquelle je peux jouer certains jeux.
 
Soit je pars sur une RTX 4080 pour mon écran 1440p G-sync 144hz ou un RX 7900XTX toujours en 1440p 144hz mais en freesync (généralement on peut trouver des écrans qui font les deux G-sync et freesync).
Ou alors je ne prends pas d'écran 1440p mais je pars sur RTX 4070Ti.
 
That is the question [:demoderateur:5]

n°11292529
havoc_28
Posté le 29-10-2023 à 13:09:43  profilanswer
 

TheCLeaN a écrit :


 
merci pour toutes ces explications claires  :jap:  
ducoup se n'est pas qu'une question de prix des puces mémoires  [:prab]  
 
AMD a pourtant proposé des cartes milieu de gamme avec 16go de vram dés RDNa2  :??:


 
Tout est une question de choix technique, la largeur du bus mémoire détermine le nombre de puces mémoire et la quantité de mémoire. Nvidia il veut faire la puce la moins couteuse possible, la moins gourmande, et la plus perf possible dans un segment donné, si un bus 192 bits suffi pour l'AD104 (les 4070 (Ti), nvidia va se contenter d'un bus 192 bits. Leurs algorimtes de compressions, l'ajout d'un cache L2 renforcé fait qu'ADA a besoin de moins de bande passante mémoire qu'Ampère (même si bon en 4k ça se sent déjà un peu plus cette limitation, mais les 4070 étant marketé 1440p, "c'est bon" ).
 
AD104 = 192 bits = 6 puces de GDDR6, une puce par canal de 32 bits, voir 2 puces par canal de 32 bits en clam-shell ce n'est pas utilisé avec l'AD104, ça l'est avec l'AD106 et son bus 128 bits et on se retrouve donc avec la 4060 Ti 8 et 16 go (4 puces et 8 puces de GDDR6).  
 
Hum peut être parce que les radéons avaient aussi de plus de bande passante mémoire pour avoir le même niveau de performance, ils ont été les premiers avec l'infinity cache pour compenser ce manque à la base :o
 
Après si tu appelles une 6800 sortie à 580$  du milieu de gamme ... c'est bien que Nvidia et AMD ont bien réussi à convaincre que 500 et + € c'est du milieu de gamme, Nvidia n'est pas le seul coupable vu qu'AMD est allégrement rentré dans la danse, les tords sont partagés, tout comme le consommateur moyen qui a accepté cette hause tarifaire.  
 

TheCLeaN a écrit :

ducoup c'est la strategie Nvidia qui pose problème. mais bon, si y'en a qui sont satisfait c'est sur que ça changera pas  :o


 
ça permet une carte plus frugale en énergie aussi, un bus moins larges, moins de puces de mémoire, tout ça contribue à légèrement abaisser la facture énergétique, Nvidia ayant toujours 80 % et plus du marché depuis quelques années, non ça changera pas, à nouveau le client qui achète une 4070 (Ti) il est conscient normalement des limitations des 12 Go, en 4K hum ça se débat là (le soucis c'est que la 4070 Ti vu son tarif devrait être aussi à l'aise en 4K mais ça c'est une autre histoire),  en 1440p, pour 2/3 ans ça ira normalement, et si tu veux garder ta carte plus longtemps tu feras quelques concessions, c'est le deal.

Message cité 1 fois
Message édité par havoc_28 le 29-10-2023 à 13:10:56
n°11292533
noxdormus
Posté le 29-10-2023 à 13:18:00  profilanswer
 

Bonjour a tous,
 
je commence a etre limité au niveau de la vram pour mon taf (8gb) sur UE5 pour des cinématiques avec des modèles 4k et du game development, il arrive que UE5 plante suite au manque de Vram
 
Est ce que quelqu'un utilise des cartes ATI pour ce genre de cas ? car j'ai un budget de 1k Euro et je peux actuellement prendre une 4080 neuve pour ce prix (Je ne paye pas la TVA)  
 
J'hésite entre celle la et une 7900xtx qui possède plus de vram mais je ne sais pas si c'est le top pour UE5
 
Si vous avez des conseils à m'apporter avant mon achat, ca serait cool , merci  :jap:

n°11292534
coil whine
Renvoie-là au SAV
Posté le 29-10-2023 à 13:19:44  profilanswer
 

Salut. Peut être qu’une 3090 à bas prix (d’occasion donc) serait suffisante ? Elle dispose de 24 go de vram. Je dis ça juste au cas où.

n°11292545
noxdormus
Posté le 29-10-2023 à 13:41:29  profilanswer
 

coil whine a écrit :

Salut. Peut être qu’une 3090 à bas prix (d’occasion donc) serait suffisante ? Elle dispose de 24 go de vram. Je dis ça juste au cas où.


 
 
Je peux avoir une PNY GeForce RTX™ 3090 Ti à 1 040,83€ (sans tva) et neuve mais ca reste assez chère et la conso et beaucoup plus importante, par contre c'est clair que 24go c'est top mais c'est pas la derrière génération  

n°11292546
coil whine
Renvoie-là au SAV
Posté le 29-10-2023 à 13:44:03  profilanswer
 

Oui c’est clair. C’est dommage que le prix des nvidia de l’ancienne gen baisse pas plus que ça.

n°11292550
Tahitiflo
éponge carré(e)
Posté le 29-10-2023 à 14:00:43  profilanswer
 

Equipments a écrit :

Perso j'hésite entre plusieurs gpu, l'année dernière j'ai renoncé à me faire plaisir en fin d'année j'ai continué une année de plus avec ma RTX 3070Ti SuprimX.
Je joue en 1080p 144hz mais je souhaite passer en 1440p 120/144hz G-sync tout en gardant mon 1080p et j'ai aussi une TV 4K sur laquelle je peux jouer certains jeux.
 
Soit je pars sur une RTX 4080 pour mon écran 1440p G-sync 144hz ou un RX 7900XTX toujours en 1440p 144hz mais en freesync (généralement on peut trouver des écrans qui font les deux G-sync et freesync).
Ou alors je ne prends pas d'écran 1440p mais je pars sur RTX 4070Ti.
 
That is the question [:demoderateur:5]


Quel calvaire t'as du endurer cette année avec la 3070Ti  [:deejayboulette:1]  
Après, faut pas confondre 144Hz et 144 FPS.  :o  
Sur les jeux récents tout à fond ,une 4080 ne sera pas tout le temps à 144FPS stables en 1440P [:otobox:2]  
Perso,j'attendrais les versions "Super", voir les 5000.
J'ai une 3070 et un écran 1440P G sync,elle fera bien encore quelques temps,surtout que je ne joues pas aux jeux day one. ;)


---------------
Je ne sais pas si HFR rend fou, ou si c'est un asile de fou.©havoc_28    We are doomed
n°11292555
dams86
sed -i 's/windows/linux/g' c:
Posté le 29-10-2023 à 14:07:58  profilanswer
 

Equipments a écrit :

Perso j'hésite entre plusieurs gpu, l'année dernière j'ai renoncé à me faire plaisir en fin d'année j'ai continué une année de plus avec ma RTX 3070Ti SuprimX.
Je joue en 1080p 144hz mais je souhaite passer en 1440p 120/144hz G-sync tout en gardant mon 1080p et j'ai aussi une TV 4K sur laquelle je peux jouer certains jeux.

 

Soit je pars sur une RTX 4080 pour mon écran 1440p G-sync 144hz ou un RX 7900XTX toujours en 1440p 144hz mais en freesync (généralement on peut trouver des écrans qui font les deux G-sync et freesync).
Ou alors je ne prends pas d'écran 1440p mais je pars sur RTX 4070Ti.

 

That is the question [:demoderateur:5]

 

C'est moche, les prix étant les mêmes qu'il y a un an, si tu avais sauté le pas à ce moment-là tu en aurais profité depuis un an...
Il n'y aura sûrement pas de grand chamboulement avant plus d'un an, je serais toi ça serait maintenant ou lors de la prochaine génération, mais attendre ne sert a rien.

Message cité 1 fois
Message édité par dams86 le 29-10-2023 à 14:08:40
n°11292560
Tahitiflo
éponge carré(e)
Posté le 29-10-2023 à 14:22:14  profilanswer
 

noxdormus a écrit :

Bonjour a tous,
 
je commence a etre limité au niveau de la vram pour mon taf (8gb) sur UE5 pour des cinématiques avec des modèles 4k et du game development, il arrive que UE5 plante suite au manque de Vram
 
Est ce que quelqu'un utilise des cartes ATI pour ce genre de cas ? car j'ai un budget de 1k Euro et je peux actuellement prendre une 4080 neuve pour ce prix (Je ne paye pas la TVA)  
 
J'hésite entre celle la et une 7900xtx qui possède plus de vram mais je ne sais pas si c'est le top pour UE5
 
Si vous avez des conseils à m'apporter avant mon achat, ca serait cool , merci  :jap:


Ha, c'est toi qui dév' les jeux UE5 dernièrement?  on en a gros  [:caudacien:5]  
 :o


---------------
Je ne sais pas si HFR rend fou, ou si c'est un asile de fou.©havoc_28    We are doomed
n°11292561
ddlabrague​tte
Posté le 29-10-2023 à 14:25:34  profilanswer
 

[:clooney24]

n°11292570
noxdormus
Posté le 29-10-2023 à 14:56:19  profilanswer
 

Tahitiflo a écrit :


Ha, c'est toi qui dév' les jeux UE5 dernièrement?  on en a gros  [:caudacien:5]  
 :o


 
 
Dev sous ue5 veut pas forcément dire mal opti, on tourne a 30fps constant sur une 1060 :o en medium 1080p

n°11292604
marijuo
Posté le 29-10-2023 à 17:12:33  profilanswer
 

coil whine a écrit :

Mais ça aurait été un non sens de sortir une 2080ti avec 8go donc la question ne se pose pas.

 

Là tu parles de garder un gpu 5 ans. Tout le monde n’est pas concerné. Et encore une fois c’est pas la ram qui limitera mais la puce. De plus tu dis que 5 ans après tu ne sera pas en ultra. Donc ce surcroît de ram ne te servira pas puisqu’en médium/ low, tu baisses significativement la conso ram….

 

Là on en est à 3 ans. J’ai une 3080ti (donc 12 go) et je sais très bien que c’est pas la ram qui me limite ni me limitera dans deux ans. Mais d’ici là j’espère avoir changer de gpu.

 

Evidemment, mais c'est pour l'exemple que je disais cela. ;)

 

Et je suis désolé, mais 5 ans, de nos jours c'est plus si long que ça… Comme je le dis c'est l'âge d'une 2080 Ti…
Pour le commun des mortels c'est encore une bonne carte pour du 1080p/1440p
Perso j'ai craqué mon slip lors de l'achat de ma 3080 mais je ne suis pas prêt a mettre + de 500 balle dans un gpu tous les 3 ans en + de la revente de celui à remplacer.

 

Maintenant c'est sur que celui qui change de gpu tous les 2/3 ans sûr, alors oui, là on est d'accord, osef de la quantité de ram, je parle bien sur le long moyen/terme moi ;)

  
havoc_28 a écrit :

 

Le problème c'est plutôt la dénomination et le tarif de la gamme Nvidia au fond, qu'une puce moyen de gamme à des performances équivalentes au Haut de gamme précédent, mais avec un peu moins de VRAM c'est assez commun au final (1080 Ti  @ 11 Go qui s'intercalait entre les  RTX 2070 / 2080 les eux avec 8 go, mais prenons un exemple plus récent :

 

RTX 2080 TI @ TU102 = bus mémoire 384 bits (352 bits sur la 2080 Ti) 11 Go de VRAM.
RTX 3070 @ GA104 = bus mémoire 256 bits et 8 go de VRAM.

 
Miky 2001 a écrit :


Une 3070 a 8Go et elle s’en sort aussi bien… :jap:

 

Et bien voila, ca je n'y avait pas pensé, mais c'est parfait comme exemple !

 

Faudrait voir si genre dans un jeu récent en 1440p et 4k, je ne sais pas moi.... genre starfield, Hogward, TLOU ou le fameux Alan Wake (quand il sera quand même débuggé), si une 2080ti avec ses 11go mais son plus vieux gpu s'en sortirait mieux ou pas qu'une 3070 au Gpu plus moderne et quasi aussi puissant mais "limité" par 8Go de ram seulement.

 

Ou entre une 1080ti et une 2070s par exemple.

 

Se serai très intéressant !

  
ddlabraguette a écrit :

Y'a pas plus aveugle que celui que ne veut pas voir

 

Si je me fie à ton onglet config, t'as une 1660ti
Equivalent à une 1070  voir légèrement supérieure même

 

Pourtant, les 2go supplémentaires de VRAM n'ont rien apporté de plus à cette dernière sur le long terme

 

Pourquoi à ton avis ?  

 

Tout simplement parce qu'après quelques années, t'es obligé de jouer en medium sur les derniers AAA  

 

Du coup el famoso argument " c'est mieux pour l'avenir ", ça me fait doucement rigoler  [:so-saugrenu19:4]

 

Encore une foi, je suis pas d'accord si l'on parle de quelqu'un qui souhaite garder sa carte assez longtemps et s'il on compare deux Gpu de même puissance.
je l'avais déjà dis mais en 2016 je tournais sur une GTX 770 2Go.
Sous GTA V j'avais des bug de textures qui ne s'affichaient pas ou à retardement, genre la route, certain immeubles, les voitures au loin.... sans compter les chutes de fps quasi permanentes
J'ai revendu ma carte et racheter d'occase exactement la même en 4Go.

 

Miracle, plus aucuns soucis !
Et c'était déjà y a 8 ans, on changeaient plus facilement de carte graphique "régulièrement" et y a avait plus de diff entre chaque génération.

  

Message cité 1 fois
Message édité par marijuo le 29-10-2023 à 17:34:35

---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
n°11292606
TheCLeaN
Posté le 29-10-2023 à 17:14:36  profilanswer
 

ddlabraguette a écrit :

Y'a pas plus aveugle que celui que ne veut pas voir  
 
Si je me fie à ton onglet config, t'as une 1660ti  
Equivalent à une 1070  voir légèrement supérieure même  
 
Pourtant, les 2go supplémentaires de VRAM n'ont rien apporté de plus à cette dernière sur le long terme  
 
Pourquoi à ton avis ?  
 
Tout simplement parce qu'après quelques années, t'es obligé de jouer en medium sur les derniers AAA  
 
Du coup el famoso argument " c'est mieux pour l'avenir ", ça me fait doucement rigoler  [:so-saugrenu19:4]


oui il faudrait être d'accord avec ton point de vue pour être voyant... :o  
bref j'ai donné mon avis, je vais pas me répéter indéfiniment, chacun son choix
ps: mon onglet config est pas a jour

n°11292609
PSX86
ZeroAndOne
Posté le 29-10-2023 à 17:18:19  profilanswer
 

Curieux de savoir sur quel genre de montants ils vont avisés sur les SUPER ... ça pourrais donner envie à certains peut être.

n°11292617
TheCLeaN
Posté le 29-10-2023 à 17:40:59  profilanswer
 

havoc_28 a écrit :


 
Tout est une question de choix technique, la largeur du bus mémoire détermine le nombre de puces mémoire et la quantité de mémoire. Nvidia il veut faire la puce la moins couteuse possible, la moins gourmande, et la plus perf possible dans un segment donné, si un bus 192 bits suffi pour l'AD104 (les 4070 (Ti), nvidia va se contenter d'un bus 192 bits. Leurs algorimtes de compressions, l'ajout d'un cache L2 renforcé fait qu'ADA a besoin de moins de bande passante mémoire qu'Ampère (même si bon en 4k ça se sent déjà un peu plus cette limitation, mais les 4070 étant marketé 1440p, "c'est bon" ).
 
AD104 = 192 bits = 6 puces de GDDR6, une puce par canal de 32 bits, voir 2 puces par canal de 32 bits en clam-shell ce n'est pas utilisé avec l'AD104, ça l'est avec l'AD106 et son bus 128 bits et on se retrouve donc avec la 4060 Ti 8 et 16 go (4 puces et 8 puces de GDDR6).  
 
Hum peut être parce que les radéons avaient aussi de plus de bande passante mémoire pour avoir le même niveau de performance, ils ont été les premiers avec l'infinity cache pour compenser ce manque à la base :o
 
Après si tu appelles une 6800 sortie à 580$  du milieu de gamme ... c'est bien que Nvidia et AMD ont bien réussi à convaincre que 500 et + € c'est du milieu de gamme, Nvidia n'est pas le seul coupable vu qu'AMD est allégrement rentré dans la danse, les tords sont partagés, tout comme le consommateur moyen qui a accepté cette hause tarifaire.  
 


 

havoc_28 a écrit :


 
ça permet une carte plus frugale en énergie aussi, un bus moins larges, moins de puces de mémoire, tout ça contribue à légèrement abaisser la facture énergétique, Nvidia ayant toujours 80 % et plus du marché depuis quelques années, non ça changera pas, à nouveau le client qui achète une 4070 (Ti) il est conscient normalement des limitations des 12 Go, en 4K hum ça se débat là (le soucis c'est que la 4070 Ti vu son tarif devrait être aussi à l'aise en 4K mais ça c'est une autre histoire),  en 1440p, pour 2/3 ans ça ira normalement, et si tu veux garder ta carte plus longtemps tu feras quelques concessions, c'est le deal.


purée tu m'a convaincu, sans blague  [:prab]  
même si ça reste un truck qui me derange de manquer de Vram, je comprend pourquoi Nvidia fait ce qu'il fait  :jap:  
 
sinon une 6800 non xt c'est le top du milieu de gamme. même si je le déplore tout autant que toi, c'est juste un fait
dit toi que je suis resté sans CG près de deux ans pour ne pas participer à la hausse des prix. j'ai finis par craquer car j'ai l'impression que tout le monde s'en fout, en plus d'avoir u une occaz impossible à refuser sur une 4090  [:vags]  
 
merci pour ton effort d'explication  :jap:

n°11292642
Equipments
Posté le 29-10-2023 à 19:04:56  profilanswer
 

Tahitiflo a écrit :


Quel calvaire t'as du endurer cette année avec la 3070Ti  [:deejayboulette:1]  
Après, faut pas confondre 144Hz et 144 FPS.  :o  
Sur les jeux récents tout à fond ,une 4080 ne sera pas tout le temps à 144FPS stables en 1440P [:otobox:2]  
Perso,j'attendrais les versions "Super", voir les 5000.
J'ai une 3070 et un écran 1440P G sync,elle fera bien encore quelques temps,surtout que je ne joues pas aux jeux day one. ;)


 
 
Non mais je sais très bien qu'il faut pas confondre la fréquence de rafraichissement et le framerate tu me prends pour un joueur console  :o  
 
En fait je joue à 144/120hz (je précise car y a des écrans 165 à240hz)et avez G-sync je vise les 100fps. Mais je voudrait me prendre enfin Cyberpunk et si je le prends ben je veux jouer dans de bonnes conditions en 1440p et d'autres jeux aussi gourmands.
 
 
 
 
 
 
 
 

dams86 a écrit :


 
C'est moche, les prix étant les mêmes qu'il y a un an, si tu avais sauté le pas à ce moment-là tu en aurais profité depuis un an...
Il n'y aura sûrement pas de grand chamboulement avant plus d'un an, je serais toi ça serait maintenant ou lors de la prochaine génération, mais attendre ne sert a rien.


 
 
C'est exactement ça  :lol:  
L'année dernière je me suis dit bon le sprix von descendre et en fait non  :D  
Après attendre les Super en effet c'est ça qui me fait tiquer. Je suis resté 2 ans avec ma RTX 3070Ti, un exploit je suis surpris moi même.
 
Pour l'instant je penche vers une RTX 4080 SuprimX, je vais me laisser quelques semaines de réflexion.

n°11292644
coil whine
Renvoie-là au SAV
Posté le 29-10-2023 à 19:12:02  profilanswer
 

Sauf bonne occasion au Black Friday, j’attendrais les super, perso, pour prendre une non super bradée, sauf si la 4080 super vaut vraiment le coup.
Faudrait avoir aussi l’info suivante : la prochaine gen sort en 2024 ou 2025…ça joue dans la décision.


Message édité par coil whine le 29-10-2023 à 19:12:20
n°11292655
petit-tigr​e
miaou
Posté le 29-10-2023 à 19:26:32  profilanswer
 

Avoir un +144hz sans gestion de fréquence variable n'a vraiment aucun intérêt.


---------------
mIaOuUuUuUuUuUu
n°11292660
sepiroth
Posté le 29-10-2023 à 19:50:24  profilanswer
 

Salut,
 
Je suis curieux d'avoir votre ressenti sur le Ray Reconstruction.
 
Il y a clairement du mieux au niveau des ombres sur les petits objets et sur le rafraichissement des effets de lumieres. Cependant l'image perd en nettete, tout est plus flou, les couleur sont un peu delavee, l'image est moins precise. Les visages des NPC sont bizarres, presque brouilles.
 
Teste sur Cyberpunk 2077 et Alan Wake 2, meme ressenti dans les 2 cas, ce qui fait que je le desactive... Je pensais au debut que c'etait lie a CBP2077, mais exactement les memes problemes sur AW2...
 
4K avec Sharpen 0.7 dans les 2 cas
 
Dans mon cas je ne trouve pas que ce soit une reussite, trop de degradation de l'image.


---------------
Fast stuff.. cars and PC
n°11292664
Tahitiflo
éponge carré(e)
Posté le 29-10-2023 à 20:07:26  profilanswer
 

petit-tigre a écrit :

Avoir un +144hz sans gestion de fréquence variable n'a vraiment aucun intérêt.


Est ce que ça existe encore?
Surtout en montant la résolution.


---------------
Je ne sais pas si HFR rend fou, ou si c'est un asile de fou.©havoc_28    We are doomed
n°11292702
Equipments
Posté le 29-10-2023 à 22:06:34  profilanswer
 

J'ai vraiment envie de le faire cyberpunk avec son dlc et comme je suis très maniaque sur le framerate  :D

n°11292708
ddlabrague​tte
Posté le 29-10-2023 à 22:47:34  profilanswer
 


 

marijuo a écrit :


 
Encore une foi, je suis pas d'accord si l'on parle de quelqu'un qui souhaite garder sa carte assez longtemps et s'il on compare deux Gpu de même puissance.
je l'avais déjà dis mais en 2016 je tournais sur une GTX 770 2Go.
 


En effet il y a des contre exemples et celui là en est un  
Surtout en SLI  
 
Mais c'est loin d'être une généralité

n°11292736
sepiroth
Posté le 30-10-2023 à 06:20:09  profilanswer
 

sepiroth a écrit :

Salut,
 
Je suis curieux d'avoir votre ressenti sur le Ray Reconstruction.
 
Il y a clairement du mieux au niveau des ombres sur les petits objets et sur le rafraichissement des effets de lumieres. Cependant l'image perd en nettete, tout est plus flou, les couleur sont un peu delavee, l'image est moins precise. Les visages des NPC sont bizarres, presque brouilles.
 
Teste sur Cyberpunk 2077 et Alan Wake 2, meme ressenti dans les 2 cas, ce qui fait que je le desactive... Je pensais au debut que c'etait lie a CBP2077, mais exactement les memes problemes sur AW2...
 
4K avec Sharpen 0.7 dans les 2 cas
 
Dans mon cas je ne trouve pas que ce soit une reussite, trop de degradation de l'image.


 
Bug hyper chiant chez moi : quand le DLSS Ray Reconstruction est desactive, mais Full Path Tracing, au bout de quelques minutes de jeu j'ai un voile noir qui vient se mettre progressivement sur tout l'ecran...Si j'active le RR ca disparait, puis je le desactive a nouveau bon pour quelques minutes... Je ne trouve pas de trace du probleme en ligne...


---------------
Fast stuff.. cars and PC
n°11292739
Scrabble
Posté le 30-10-2023 à 07:22:02  profilanswer
 

sepiroth a écrit :


 
Bug hyper chiant chez moi : quand le DLSS Ray Reconstruction est desactive, mais Full Path Tracing, au bout de quelques minutes de jeu j'ai un voile noir qui vient se mettre progressivement sur tout l'ecran...Si j'active le RR ca disparait, puis je le desactive a nouveau bon pour quelques minutes... Je ne trouve pas de trace du probleme en ligne...


J'ai vu ce problème sur une vidéo YouTube. Faut attendre une correction soit dans le jeu, soit dans le driver

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  636  637  638  ..  804  805  806  807  808  809

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)