Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2959 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  Upgrade RTX2070 -> RTX4070

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Page Précédente
Auteur Sujet :

Upgrade RTX2070 -> RTX4070

n°11246317
tomemilie
Posté le 08-05-2023 à 15:52:08  profilanswer
 

Bonjour,
 
Premièrement ma config actuelle:
- MSI X470 gaming pro
- AMD R5-2600
- 32Go DDR4 Corsair Vengeance LPX 3000 MHz, CAS 15
- MSI GeForce RTX 2070 GAMING Z, 8 Go
- WD BLACK SN750 NVME HT 1TO
- Seasonic FOCUS Plus 650 Gold
- Fractal Design Define R6
 
J'ai acheté il y a quelques temps un écran 34" ultrawide MSI MAG341CQ, et depuis la RTX2070 est au taquet dans les jeux, en médium.
 
J'ai donc dans l'idée de faire un upgrade:
Remplacer la 2070 par une 4070, et en regardant un peu, j'ai vu que dans ce cas le r5-2600 serait un peu juste pour que la CG marche aux maximum de ses performances.
Dans ce cas, je prendrais un 5800X3D.
 
L'idée serait de pouvoir jouer en ultra dans les jeux (destiny 2 / diablo 4 / ...).
 
Pensez-vous que ça vaille le coup? est-ce que je ne serait pas limité par d'autres choses (pcie 3.0, DDR4, ...) ?
 
 

mood
Publicité
Posté le 08-05-2023 à 15:52:08  profilanswer
 

n°11246329
zonka
x58 forever!
Posté le 08-05-2023 à 16:45:39  profilanswer
 

Plop.

 

Plus la résolution augmente, plus c'est le GPU qui souffre, pas le CPU.

 

Change la CG en 1ere intention, le PCI-E 3.0 ne sera aucunement limitant, et tu verras dans un second temps si besoin pour le CPU.


---------------
Guide OC x58 - Guide d'achat de config - ALIMS:qui fait quoi? - RKO - Radiooooo
n°11246339
max022
Posté le 08-05-2023 à 17:28:14  profilanswer
 

Oui en tout cas pas besoin du 5800X3D, le 5600X (ou 5800X si tu veux plus de cœurs)
devrait déjà être suffisant vu que ce n'est ni du full HD ni une carte ultra puissante.  
Le 5800X3D coute quand même 100 euros de plus que le 5800X et coute limite le prix de 2 5600X.  
(perso je ne l'ai pas pris à cause de cela, j'ai le 5800X qui est un compromis entre 5600X et 5800X3D sur mes 2 PC)

n°11246340
tomemilie
Posté le 08-05-2023 à 17:30:37  profilanswer
 

et le gain 2070/4070?

n°11246341
mrdoug
Posté le 08-05-2023 à 17:34:16  profilanswer
 

tomemilie a écrit :

et le gain 2070/4070?

 

Presque le double dans certains cas.
https://youtu.be/GVTcIJ05i-U


Message édité par mrdoug le 08-05-2023 à 17:34:56
n°11246344
ben shinob​i
Posté le 08-05-2023 à 17:49:53  profilanswer
 

Je ne connais pas le comportement de la 4070 mais si j'en juge par comparaison à la 4070 ti que je possède, j'ai été très déçu de voir que mon 9900k était quand même aux fraises en 1440p sur les tous derniers AAA (ou presque).  
J'ai du le remplacer par un 13600k avec de la ddr5 @6000 pour avoir le plein potentiel de ma carte (et je ne l'avais pas prévu...)  :cry: . [le pcie 5.0 et 4.0 pour la carte et le nmve ont du aussi apporté leur pierre ainsi que le resizable bar)
Si tu veux rester en AM4 avec de la ddr4, effectivement le 5800x3d est un bon choix car en dessous tu risques d'etre bien bottlenecked par un 5600...
Bon et finalement je ne suis pas trop mécontent de mon upgrade car le wifi 6 ça déchire (si on a un bon FAI avec un gros débit, évidemment).
Tout ça pour dire, et je renvois les incrédules à pas mal d'articles récents à ce sujet, que l'upgrade...c'est plus ce que c'était.
Avec des cartes graphiques ultra , faut au moins du mainstream/high contemporain à la carte avec toutes les dernières normes embarquées.
Après, une 4070 sur le papier c'est pas trop différent d'une 3080 (d'occaz avec 10 ou 12 go de vram). Tant qu'à faire, t'aurais probablement moins de stuttering et des meilleurs 1% low avec (tout en ayant grosso modo les mêmes fps average, min et max). A vérifier ceci dit, ce n'est qu'une hypothèse.

Message cité 1 fois
Message édité par ben shinobi le 08-05-2023 à 18:04:41
n°11246347
rewnb
Posté le 08-05-2023 à 18:04:13  profilanswer
 

Pour être passé d'une 2070 Super à un RTX 4070 tout en gardant mon 8600K, je peux dire que le gain est important même en 1080p. Certes, le processeur bride les performances de la carte mais cela vaut le coup.


---------------
"Look up here, I'm in heaven" (Lazarus) - David Bowie
n°11246348
max022
Posté le 08-05-2023 à 18:05:36  profilanswer
 

Alors oui, il perdra en prenant le 5600X/5800X vs le 58003DX mais c'est pas non plus énorme.
Le problème des 5000 est que c'est une gen en fin de vie et cela vaut pas trop la peine de dépenser trop dessus.  
Je dis pareil pour la gen des 13000 Intel, autant se faire plaisir sur du 14000 qui sera compatible 15000.  
Enfin voila, perso je me suis arrêté au 5800X car je ne voulais pas mettre trop sur un cpu qui est sur une plateforme en fin de vie.  

n°11246349
ben shinob​i
Posté le 08-05-2023 à 18:06:20  profilanswer
 

rewnb a écrit :

Pour être passé d'une 2070 Super à un RTX 4070 tout en gardant mon 8600K, je peux dire que le gain est important même en 1080p. Certes, le processeur bride les performances de la carte mais cela vaut le coup.


 
 
oui je n'en doutre pas, mais t'as surement des framedrop de ouf sur des jeux comme dead space remake ou re4 remake, hogwart legacy, spiderman remake etc...Après chacun voit midi à sa porte. Moi ça me pète le fion de ne pas avoir de la stabilité dans les fps.

Message cité 1 fois
Message édité par ben shinobi le 08-05-2023 à 18:06:45
n°11246350
ben shinob​i
Posté le 08-05-2023 à 18:09:09  profilanswer
 

max022 a écrit :

Alors oui, il perdra en prenant le 5600X/5800X vs le 58003DX mais c'est pas non plus énorme.
Le problème des 5000 est que c'est une gen en fin de vie et cela vaut pas trop la peine de dépenser trop dessus.  
Je dis pareil pour la gen des 13000 Intel, autant se faire plaisir sur du 14000 qui sera compatible 15000.  
Enfin voila, perso je me suis arrêté au 5800X car je ne voulais pas mettre trop sur un cpu qui est sur une plateforme en fin de vie.  


 Oui ou alors il part sur de l'AM5 avec un 7800x3d, ça en a derrière la carafe, il est tranquille pour 3-4 ans. Et AM5 comme plateforme a une durée de vie sensiblement plus longue que chez Intel avec son socket 1700, c'est certain :jap: . Dans ce cas l'upgrade futur est envisageable niveau cpu.
 
MAis faut les sous quoi :/

Message cité 1 fois
Message édité par ben shinobi le 08-05-2023 à 18:11:52
mood
Publicité
Posté le 08-05-2023 à 18:09:09  profilanswer
 

n°11246353
rewnb
Posté le 08-05-2023 à 18:17:18  profilanswer
 

ben shinobi a écrit :


 
 
oui je n'en doutre pas, mais t'as surement des framedrop de ouf sur des jeux comme dead space remake ou re4 remake, hogwart legacy, spiderman remake etc...Après chacun voit midi à sa porte. Moi ça me pète le fion de ne pas avoir de la stabilité dans les fps.


 
Sur Hogwart Legacy, en dlss qualité avec génération de trames, je suis à 120 ips constants sur mon téléviseur oled avec quelques drops à 90ips quand je choppe une page ou un objet mais c'est imperceptible. Pour RE et Dead Space, je n'ai pas encore testé mais pour Jurassic World Evolution 2, j'ai bien vu le gain, tout comme pour Metro Exodus qui tourne à 120ips avec Ray Tracing Ultra et dlss qualité.

Message cité 1 fois
Message édité par rewnb le 08-05-2023 à 18:20:33

---------------
"Look up here, I'm in heaven" (Lazarus) - David Bowie
n°11246355
ben shinob​i
Posté le 08-05-2023 à 18:26:19  profilanswer
 

rewnb a écrit :


 
Sur Hogwart Legacy, en dlss qualité avec génération de trames, je suis à 120 ips constants sur mon téléviseur oled avec quelques drops à 90ips quand je choppe une page ou un objet mais c'est imperceptible. Pour RE et Dead Space, je n'ai pas encore testé mais pour Jurassic World Evolution 2, j'ai bien vu le gain, tout comme pour Metro Exodus qui tourne à 120ips avec Ray Tracing Ultra et dlss qualité.


 
Ouai mais non, un 8600k c'est déjà fort limitant avec une 2070, alors une 4070.... ça me laisse perplexe. t'es en quelle résolution?


Message édité par ben shinobi le 08-05-2023 à 18:27:40
n°11246356
rewnb
Posté le 08-05-2023 à 18:30:01  profilanswer
 

Dis que je suis un mytho  :lol: 1080p pour la résolution. Un 8600K n'est pas limitant pour une 2070, il ne faut pas exagérer... Pour une 4070, oui, mais en augmentant la résolution, le bridage est moindre. Après, je suis d'accord que de changer son cpu est utile pour un gain vraiment plus important. Pour info, j'envisage un changement pour un 7600x mais ce n'est clairement pas une priorité.
 
Edit: je précise que j'utilise le DLSS mode Qualité, pas la résolution native.

Message cité 1 fois
Message édité par rewnb le 08-05-2023 à 18:32:51

---------------
"Look up here, I'm in heaven" (Lazarus) - David Bowie
n°11246358
philo01
Posté le 08-05-2023 à 18:35:45  profilanswer
 

ben shinobi a écrit :

Je ne connais pas le comportement de la 4070 mais si j'en juge par comparaison à la 4070 ti que je possède, j'ai été très déçu de voir que mon 9900k était quand même aux fraises en 1440p sur les tous derniers AAA (ou presque).
J'ai du le remplacer par un 13600k avec de la ddr5 @6000 pour avoir le plein potentiel de ma carte (et je ne l'avais pas prévu...)  :cry: . [le pcie 5.0 et 4.0 pour la carte et le nmve ont du aussi apporté leur pierre ainsi que le resizable bar)
Si tu veux rester en AM4 avec de la ddr4, effectivement le 5800x3d est un bon choix car en dessous tu risques d'etre bien bottlenecked par un 5600...
Bon et finalement je ne suis pas trop mécontent de mon upgrade car le wifi 6 ça déchire (si on a un bon FAI avec un gros débit, évidemment).
Tout ça pour dire, et je renvois les incrédules à pas mal d'articles récents à ce sujet, que l'upgrade...c'est plus ce que c'était.
Avec des cartes graphiques ultra , faut au moins du mainstream/high contemporain à la carte avec toutes les dernières normes embarquées.
Après, une 4070 sur le papier c'est pas trop différent d'une 3080 (d'occaz avec 10 ou 12 go de vram). Tant qu'à faire, t'aurais probablement moins de stuttering et des meilleurs 1% low avec (tout en ayant grosso modo les mêmes fps average, min et max). A vérifier ceci dit, ce n'est qu'une hypothèse.

 


Un 9900k limitant  :heink:

 

mais quelle resolution exactement parce que en 1080p ok , en  2560 x1440 ok, mais en 3440x1440 comme en 4k  je doute que ce soit vraiment exessivement limitant.
bien entendu on perd quelques FPS voir plus qu'avec un proc dernière gen mais rien d'absolument transcendant.

Message cité 1 fois
Message édité par philo01 le 08-05-2023 à 19:04:52
n°11246359
ben shinob​i
Posté le 08-05-2023 à 18:37:27  profilanswer
 

philo01 a écrit :


 
 
Un 9900k limitant  :heink:  
 
mais quelle resolution exactement parce que en 1080p ok , en  2560 x1440 ok, mais en 3440x1440 comme en 4k  je doute que ce soit vraiment exessivement limitant.
bien entendu on perd quelques FPS voir plus avec un proc dernière gen mais rien d'absolument transcendant.


bah je l'ai écrit. 1440p

n°11246360
ben shinob​i
Posté le 08-05-2023 à 18:37:54  profilanswer
 

rewnb a écrit :

Dis que je suis un mytho  :lol: 1080p pour la résolution. Un 8600K n'est pas limitant pour une 2070, il ne faut pas exagérer... Pour une 4070, oui, mais en augmentant la résolution, le bridage est moindre. Après, je suis d'accord que de changer son cpu est utile pour un gain vraiment plus important. Pour info, j'envisage un changement pour un 7600x mais ce n'est clairement pas une priorité.
 
Edit: je précise que j'utilise le DLSS mode Qualité, pas la résolution native.


 
On ne doit pas avoir la meme sensibilité aux framedrops alors...

n°11246361
rewnb
Posté le 08-05-2023 à 18:39:20  profilanswer
 

Clairement pas, c'est une certitude  :lol: Ou alors mon écran g-sync fait bien son taf  :whistle:


Message édité par rewnb le 08-05-2023 à 18:40:04

---------------
"Look up here, I'm in heaven" (Lazarus) - David Bowie
n°11246364
zonka
x58 forever!
Posté le 08-05-2023 à 18:51:18  profilanswer
 

J'ai un 9900K+3080 en 3440x1440, c'est pas ce que j'appelle 'limitant' .  CPU undervolt@4.4 ghz.

 

Après faut voir si le CPU est auto OC a 5 GHz et chauffe à 105 degrés en mode throttle etc, j'dis pas hein...

 

Dans le cas de l'OP je ne vois pas de raison logique a changer le CPU d'emblée sans tester . Si on est en mode 'je me fais plaisir ' c'est pas la même problématique


---------------
Guide OC x58 - Guide d'achat de config - ALIMS:qui fait quoi? - RKO - Radiooooo
n°11246366
mrdoug
Posté le 08-05-2023 à 18:53:12  profilanswer
 

Comme d'hab ça dépend des jeux. Sur Wow par exemple, il y a une sacrée différence de perf entre un 9900K et un 7800X3D mais aucune sur Cyberpunk par exemple.
Après le problème de wow c'est qu'il ne sait pas utiliser plus de 4 cores donc forcément ça limite.

 

Message cité 1 fois
Message édité par mrdoug le 08-05-2023 à 18:55:20
n°11246368
philo01
Posté le 08-05-2023 à 19:01:39  profilanswer
 

ben shinobi a écrit :


bah je l'ai écrit. 1440p

 


oui d'accord,mais c'est important de preçiser parce que 2560x1440 c'est environ 3,6 millions de pixels et le 3440x1440 c'est environ 5 millions, c'est pas rien pour la carte graphique. :)


Message édité par philo01 le 08-05-2023 à 19:03:16
n°11246369
tomemilie
Posté le 08-05-2023 à 19:21:12  profilanswer
 

ben shinobi a écrit :


 Oui ou alors il part sur de l'AM5 avec un 7800x3d, ça en a derrière la carafe, il est tranquille pour 3-4 ans. Et AM5 comme plateforme a une durée de vie sensiblement plus longue que chez Intel avec son socket 1700, c'est certain :jap: . Dans ce cas l'upgrade futur est envisageable niveau cpu.
 
MAis faut les sous quoi :/


 
C'est une question que je me pose:
est-ce que je change ma cg + cpu am4 pour 1000 balles en gros? mais dans ce cas je suis sur ancienne génération de cpu/ram
soit je passe en am5, mais là je change ma carte mère et ram en plus, donc ça commence à douiller, et ça me fait clairement chier...
 
Surtout que ma config actuelle n'est pas non plus à la ramasse, juste je joue en qualité moyenne car je suis en 3440x1440, je pense que c'est pour ça que ma 2070 souffre.
Je sais même pas si ça vaudra réellement le coup car actuellement sur les jeux je suis en gros à 100 fps stable en médium.

n°11246371
ben shinob​i
Posté le 08-05-2023 à 19:24:53  profilanswer
 

zonka a écrit :

J'ai un 9900K+3080 en 3440x1440, c'est pas ce que j'appelle 'limitant' .  CPU undervolt@4.4 ghz.
 
Après faut voir si le CPU est auto OC a 5 GHz et chauffe à 105 degrés en mode throttle etc, j'dis pas hein...
 
Dans le cas de l'OP je ne vois pas de raison logique a changer le CPU d'emblée sans tester . Si on est en mode 'je me fais plaisir ' c'est pas la même problématique


 
La 4k ça reste un peu à part. Oui un 9900k ça doit suffir. MAis je t'invite à checker pour les résolutions inférieures sur des sites de bottleneck gpu.
(meme si c'est un peu nawak avec des algorithmes abscons, ça donne une tendance).
 
 
D'un autre coté, c'est un débat sur un autre topic en ce moment même, tu as pas mal de jeux AAA qui sortent mal opti à l'arrache suite à des crunches ou la moitié des devs finissent la corde au cou à cause d'éditeurs et de directeurs  qui ne respectent plus leurs équipes, leurs studios...
Seul l'actionnaire est maitre...Du coup, il faut parfois attendre plusieurs mois après sa sortie pour qu'un jeu soit jouable (avec un certain confort)  pour une config mainstream ou un peu datée.
 
La patience récompense parfois, c'est vrai. Je ne dis pas qu'il faut tout jeter et acheter du flambant neuf à tout crin. Mon 9900k je l'ai gardé pour tout te dire. Pour l'instant il poireaute dans un placard mais il devrait encore faire des heureux.


Message édité par ben shinobi le 08-05-2023 à 19:34:27
n°11246372
zonka
x58 forever!
Posté le 08-05-2023 à 19:35:47  profilanswer
 

[:julian33:4]

 

Après quand je vois que les 2 PC que j'ai montés récemment avec de pauvres 5600G font jeu égal avec mon 9900K @200W, je comprends le souci.

 

Les jeux opti avec les pieds qui tournent sur 2 core etc :(


---------------
Guide OC x58 - Guide d'achat de config - ALIMS:qui fait quoi? - RKO - Radiooooo
n°11246373
ben shinob​i
Posté le 08-05-2023 à 19:35:59  profilanswer
 

mrdoug a écrit :

Comme d'hab ça dépend des jeux. Sur Wow par exemple, il y a une sacrée différence de perf entre un 9900K et un 7800X3D mais aucune sur Cyberpunk par exemple.
Après le problème de wow c'est qu'il ne sait pas utiliser plus de 4 cores donc forcément ça limite.
 


+1

n°11246375
ben shinob​i
Posté le 08-05-2023 à 19:39:25  profilanswer
 

zonka a écrit :

[:julian33:4]  
 
Après quand je vois que les 2 PC que j'ai montés récemment avec de pauvres 5600G font jeu égal avec mon 9900K @200W, je comprends le souci.
 
Les jeux opti avec les pieds qui tournent sur 2 core etc :(


t'as essayé de mettre à la main des pl1 et 2 genre 125 ou 150 w si je ne m'abuse pour le 9900k ça doit etre dans ces eaux là. Du coup tu peux repasser @stock niveau fréquence, ça devrait booster tes perfs. Intel c'est bien mais c'est comme les pneux pireli. Sans maitrise, la puissance n'est rien  ;)


Message édité par ben shinobi le 08-05-2023 à 19:42:42
n°11246385
zonka
x58 forever!
Posté le 08-05-2023 à 20:38:28  profilanswer
 

T'inquiète...j'y ai passé des dizaines d'heures sur ce 9900K. La génération de cpu la plus décevante que j'ai pu expérimenter.... Ça chauffe à MORT même avec un macho 120 , un boîtier grand tour bien ventilé . Le dernier bios nécessaire pour stabiliser vaguement mes 2x16 Go en 3600 en remplacement des 2x8 3000 initiaux m'a déstabilisé mon undervolt précédent qui tenait 4.8 ghz @1.25v ( tout ça pour de la RAM qui tient en 3400 au final....). J'ai laissé tombé , stabilisé a 4.4 avec tension et chauffe maîtrisées , et je pense que mon prochain CPU dans X années sera un AMD ( socket plus pérenne , bug des NIC intégrées Intel pas résolu depuis le Z370 voire avant etc ).

 

Bref, te bile pas mais merci  [:bakk15:1]


---------------
Guide OC x58 - Guide d'achat de config - ALIMS:qui fait quoi? - RKO - Radiooooo
n°11246391
jln2
Posté le 08-05-2023 à 21:29:20  profilanswer
 

Sur le S1151, le meilleur CPU, c'est l'i5 8400.
Ne chauffe pas, ne conso pas et à des perf suffisante.
Je regrette ce CPU.
J'ai tenté de le remplacer par un i9 9900k, et il est repartie en rétractation chez Amazon ...

 

Remplacé en janvier 2022 par un i7 12700f/Z690


Message édité par jln2 le 08-05-2023 à 21:30:02
n°11246399
mrdoug
Posté le 08-05-2023 à 21:54:54  profilanswer
 

zonka a écrit :

T'inquiète...j'y ai passé des dizaines d'heures sur ce 9900K. La génération de cpu la plus décevante que j'ai pu expérimenter.... Ça chauffe à MORT même avec un macho 120 , un boîtier grand tour bien ventilé . Le dernier bios nécessaire pour stabiliser vaguement mes 2x16 Go en 3600 en remplacement des 2x8 3000 initiaux m'a déstabilisé mon undervolt précédent qui tenait 4.8 ghz @1.25v ( tout ça pour de la RAM qui tient en 3400 au final....). J'ai laissé tombé , stabilisé a 4.4 avec tension et chauffe maîtrisées , et je pense que mon prochain CPU dans X années sera un AMD ( socket plus pérenne , bug des NIC intégrées Intel pas résolu depuis le Z370 voire avant etc ).

 

Bref, te bile pas mais merci  [:bakk15:1]

 

Possédant un 9900KS avec un NH-D15 je ne peux que le confirmer.
Apparemment c'est encore pire avec les 13900K qu'il est impossible de refroidir correctement et cela même avec un AIO 360, c'est un comble. De plus, je vois pas l'utilité de l'architecture P-Core/E-Core sur une machine de bureau...
En tout cas je partirais sur du AMD la prochaine fois. Le 7800X3D me fait de l'oeil d'ailleurs  :)

Message cité 1 fois
Message édité par mrdoug le 08-05-2023 à 21:58:14
n°11246463
drik's
Posté le 09-05-2023 à 10:45:16  profilanswer
 

mrdoug a écrit :


 
Possédant un 9900KS avec un NH-D15 je ne peux que le confirmer.
Apparemment c'est encore pire avec les 13900K qu'il est impossible de refroidir correctement et cela même avec un AIO 360, c'est un comble. De plus, je vois pas l'utilité de l'architecture P-Core/E-Core sur une machine de bureau...
En tout cas je partirais sur du AMD la prochaine fois. Le 7800X3D me fait de l'oeil d'ailleurs  :)  


 
 
J'ai un 13600K et un NHD15S (un seul ventilo) et je suis à 60/62 degrés in game dans un fractal Define 7...  
J'ai effectué un undervolt de -0,1 v pour moins de conso et donc moins de chauffe et j'ai rien perdu en performance (stats faites sur CinéBenchR23)
J'ai également pris le Themalright à 10€ sur Amazon qui te fait gagner quelques degrés.
Je trouve que c'est pas excessif....comparé à mon pote qui a un 5800X et qui tourne à 70 degrés en jeu avec un AIO 360 de Lian Li...  
 
Je pense que la marque et le type d'application de la pâte thermique y fait déjà beaucoup car AMD aussi chauffe beaucoup...
 

n°11246525
zonka
x58 forever!
Posté le 09-05-2023 à 16:06:37  profilanswer
 

J'ai deux configs en 5600G , avec des macho 120, PBO activé , courbe à -15, turbo a 4300 environ pour les deux, vcore à 1.25 pour l'un 1,30 pour l'autre ,ça chauffe quand même à 70 degrés en compression hevc, je trouve ça haut pour un petit cpu a 65W de tdp (en remplacement de 2700x qui étaient bien pire).


Message édité par zonka le 09-05-2023 à 16:07:08

---------------
Guide OC x58 - Guide d'achat de config - ALIMS:qui fait quoi? - RKO - Radiooooo
n°11246635
tomemilie
Posté le 10-05-2023 à 08:46:46  profilanswer
 

tomemilie a écrit :


 
C'est une question que je me pose:
est-ce que je change ma cg + cpu am4 pour 1000 balles en gros? mais dans ce cas je suis sur ancienne génération de cpu/ram/cm
soit je passe en am5, mais là je change ma carte mère et ram en plus, donc ça commence à douiller, et ça me fait clairement chier...
 
Surtout que ma config actuelle n'est pas non plus à la ramasse, juste je joue en qualité moyenne car je suis en 3440x1440, je pense que c'est pour ça que ma 2070 souffre.
Je sais même pas si ça vaudra réellement le coup car actuellement sur les jeux je suis en gros à 100 fps stable en médium.


 
Personne n'a réagi à ce message donc je repost.
 

n°11246642
zonka
x58 forever!
Posté le 10-05-2023 à 09:24:32  profilanswer
 

'Change juste ton GPU et tu verras si tu es vraiment CPU limited' ?


---------------
Guide OC x58 - Guide d'achat de config - ALIMS:qui fait quoi? - RKO - Radiooooo
n°11246661
shinji3rd
Posté le 10-05-2023 à 10:43:41  profilanswer
 

Effectivement commence par changer le GPU et avise.... mais moi je vote qu'il sera bien bottleneck  :o  
 
en tout cas sur destiny 2 s'il veut un bon framerate c'est sur même !
 
Mon 10700K @5.1 est completement aux fraises avec ma 7900XT dès que je veux un peu de fluidité en 3440x1440
ça bottleneck au delà de 150fps et jusqu'a 50% à 200fps
https://freeimage.host/i/HUq47BR

n°11246696
tomemilie
Posté le 10-05-2023 à 12:03:28  profilanswer
 

En fait ma question, ce n'est pas forcément de savoir si je dois ou pas changer ma cpu.  
C'est plutôt, est-ce que le gain serait énorme en passant en RTX4070 + nouvelle CPU AM4?
est-ce que ça vaut quand même le coup de rester en AM4 ou dans un an tout va être obsolète (CPU+RAM+CM)?

n°11246740
rewnb
Posté le 10-05-2023 à 14:31:33  profilanswer
 

Attend de voir avec le gpu et change pour du am5 si vraiment tu ressens un gros bridage. C'est selon mon humble avis la meilleure option. Perso, j'ai un 8600K et j'ai bien vu la différence avec la RTX 2070 Super même s'il est certain que le processeur bride la RTX 4070 surtout en 1080p, un peu moins en 1440p.


---------------
"Look up here, I'm in heaven" (Lazarus) - David Bowie
n°11246744
tomemilie
Posté le 10-05-2023 à 14:47:55  profilanswer
 

C'est vrai que d'après PC build bottleneck calculator, à cette résolution, sur une application intensive sur CG, la RTX4070 sera limitée à 94% de sa capacité lorsque que la CPU est à 100%.
 
Ca fait juste la CG à changer pour un gain qui doit être énorme

n°11246771
rewnb
Posté le 10-05-2023 à 16:08:48  profilanswer
 

C'est ce que je pense aussi mais ce n'est pas le cas de tout le monde. Chacun a ses exigences et son avis personnel sur la question du bottleneck. J'opterai pour le changement de gpu à ta place. J'ai pris une Asus dual oc rtx 4070 et franchement, je ne le regrette pas du tout. Il y a plus puissant chez AMD avec la 6950xt mais si tu veux jouer avec du Ray tracing et la génération de trames avec le dlss, la question ne se pose pas.


Message édité par rewnb le 10-05-2023 à 16:09:26

---------------
"Look up here, I'm in heaven" (Lazarus) - David Bowie
n°11246797
max022
Posté le 10-05-2023 à 17:26:58  profilanswer
 

Ben il faut aussi rendre à César, ce qui est à César.  
La 6950XT valait beaucoup plus le coup avant les 4070 car la 3080 était moins bien pour plus cher.  
Bon le ray tracing n'est pas vraiment encore au point et perso il ne rentre même pas en ligne de compte. (j'utilise les mods mais jamais le RT)  
Reste que, la 4070 est bien mieux que la 3080 et on est plus du tout dans la situation d'avant.  
On a vraiment des avantages et inconvénients des 2 cotés et je pense que les 2 sont bien, ce qui n'était pas le cas avant la 4070.  

n°11246815
rewnb
Posté le 10-05-2023 à 18:21:47  profilanswer
 

Pour ma part, c'est surtout la consommation de la rtx 4070 qui m'a convaincu car il aurait fallu que je remplace mon alimentation trop juste pour une 6950xt. Après, j'aime l'écosystème NVIDIA et le dlss est vraiment bien foutu.


---------------
"Look up here, I'm in heaven" (Lazarus) - David Bowie
n°11246855
shinji3rd
Posté le 10-05-2023 à 21:27:37  profilanswer
 

tomemilie a écrit :

C'est vrai que d'après PC build bottleneck calculator, à cette résolution, sur une application intensive sur CG, la RTX4070 sera limitée à 94% de sa capacité lorsque que la CPU est à 100%.
 
Ca fait juste la CG à changer pour un gain qui doit être énorme


 
Et encore le calculateur prend en compte une charge max sur la CG donc un jeu en ultra, alors que c'est justement le scénario qui pompe le moins sur le CPU. Si sur certains jeux tu préfères ne pas jouer tout à fond pour gagner en réactivité et faire monter les fps, alors le bottlneck n'en sera que pire.  :jap:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Carte graphique

  Upgrade RTX2070 -> RTX4070

 

Sujets relatifs
Conseil upgrade config gaming 1440pAvis upgrade
Upgrade D4 max fpsUpgrade carte graphique (RTX 4070-I5 10600?)
Upgrade PC 2015 pour photo / vidéo / MAO (pas de jeux)Demande d'avis pour Upgrade CG
Upgrade config gaming depuis i7 4700 et RTX 2060 - budget max 1000eurupgrade 9600K vers 13600K ?
Upgrade vs renouvèlement config gamingUpgrade vers 4060ti ou changement config
Plus de sujets relatifs à : Upgrade RTX2070 -> RTX4070


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR