Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2606 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1548  1549  1550  ..  1883  1884  1885  1886  1887  1888
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10965283
wgromit
Fan d'Elite Dangerous
Posté le 13-03-2021 à 19:38:38  profilanswer
 

Reprise du message précédent :
Il n'y a pas que les cartes graphiques, cpu, consoles qui sont touchés.
Ce n'est pas mieux pour d'autres équipements, comme les imprimantes par ex, si on veut rester dans l'informatique.
 
Et de toute manière, on va se prendre une méga inflation dans les prochains mois. Non ?
 
Et il n'y aura surement pas QUE les produits électroniques qui vont augmenter.
 
En plus, on n'est pas encore sorti de la crise mais si en plus il y a un boom de la consommation, une fois sorti, il va falloir que les usines produisent encore plus qu'aujourd'hui ?
 
Si oui, combien de temps cela va prendre pour répondre correctement à la demande ?
Quelques mois, plusieurs années ?
 
Ce sont des questions. Pas des affirmations.
 
Mais cela me parait utopique de retrouver les prix "d'antan", si on les retrouve un jour, d'ici quelques mois.


Message édité par wgromit le 13-03-2021 à 19:47:23
mood
Publicité
Posté le 13-03-2021 à 19:38:38  profilanswer
 

n°10965309
Moutmout44
Posté le 13-03-2021 à 21:21:58  profilanswer
 

Miky 2001 a écrit :


Tu n’as pas les fréquences de ta carte pendant le test ? Voir si elles sont identique. 3dmark garde ce point dan m’a les fichiers de sauvegarde, sous forme de graph.
 
Je sais que sur ma mobal (asrock z370) j’ai le paramètre fclk qui gère une fréquence liée au pcie que je peux fixer à 1ghz au lieu de 800mhz par défaut. Ça fait gagner qq 100enes de points sous 3dmark


Merci du retour, les fréquences sont casi identiques 1878mhz en moyenne pour 17k8 et 17k5 pour 1885
J’ai réussi à avoir de meilleur perf sur un autre disk .
 
Ce que je comprend pas c’est ma courbe ( la ligne rouge d’utilisation gpu ) elle n’est pas linéaire normalement elle doit être fixe ?
Ça se passe comment chez vous ?^^

n°10965315
oliviermdv​y
Posté le 13-03-2021 à 21:39:37  profilanswer
 

c'est bien les EVGA GeForce RTX 3080 XC3 ULTRA GAMING par rapport à la concurrence ?


---------------
i5 13600K|32Go GSkill DDR4 3600Mhz|MSI Shadow OC RTX 5080|Meta Quest 3
n°10965327
Hansaplast
Hello.
Posté le 13-03-2021 à 22:04:53  profilanswer
 

oliviermdvy a écrit :

c'est bien les EVGA GeForce RTX 3080 XC3 ULTRA GAMING par rapport à la concurrence ?


Les XC3 sont les rares dual slot en 3080, avantage décisif selon les boitiers.
En contre partie le refroidissement est pas ouf, mais ca fait le taf (j'en ai une). Fréquences stock.
En XC3 la black à pas de backplate, la ultra gaming en à un avec RGB (de tête). regarde sur leur site les options, sinon c'est les mêmes.
En Idle inaudible, montée en charge pareil et à pleine balle c'est pas le plus silencieux.
Extension de garantie à 5 ans pour 24€ et SAV EVGA, ca monte à 10 ans je crois leur offre.
Rare marque à accepter le démontage du RAD sans perte de garantie.
 
Perso payée 739€ + 24€ la garantie 5 an (et le programme setup) ce qui fait en gros une FE (même fréquences) garantie 5 ans pour 40€ de plus, je suis plutôt content.
 
Aux prix actuels, faut voir par contre.
 
Si ta pas besoin d'une dual à tout prix, et que les avantages de la marque te font ni chaud ni froid (SAV, extension garantie), ya mieux au même prix (si tu trouves).


Message édité par Hansaplast le 13-03-2021 à 22:08:31
n°10965351
Miky 2001
N'y pense même pas !!!
Posté le 13-03-2021 à 23:16:19  profilanswer
 

Moutmout44 a écrit :


Merci du retour, les fréquences sont casi identiques 1878mhz en moyenne pour 17k8 et 17k5 pour 1885
J’ai réussi à avoir de meilleur perf sur un autre disk .
 
Ce que je comprend pas c’est ma courbe ( la ligne rouge d’utilisation gpu ) elle n’est pas linéaire normalement elle doit être fixe ?
Ça se passe comment chez vous ?^^


Elle doit être linéaire à 100% si ton CPU arrive à suivre.
 
Pendant le test 1 et 2 j’ai bien la charge linéaire à 100%.
Par contre c’est pas fixé pendant le test CPU (normal) et pas non plus pendant la démo 2-3 minutes avant le début des vrais tests.

n°10965425
Dark Schne​iderr
⭐⭐
Posté le 14-03-2021 à 10:22:28  profilanswer
 
n°10965433
Moutmout44
Posté le 14-03-2021 à 10:46:18  profilanswer
 

Miky 2001 a écrit :


Elle doit être linéaire à 100% si ton CPU arrive à suivre.
 
Pendant le test 1 et 2 j’ai bien la charge linéaire à 100%.
Par contre c’est pas fixé pendant le test CPU (normal) et pas non plus pendant la démo 2-3 minutes avant le début des vrais tests.


Normalement le cpu n’a pas d’influence sur les tests graphiques :(
Je vais faire un coup de ddu on verra bien

n°10965440
Miky 2001
N'y pense même pas !!!
Posté le 14-03-2021 à 11:10:04  profilanswer
 

En effet  :jap:  
Et ton score CPU est bon.
 
Vérifie dans les drivers que tu n’as pas forcé certains paramètres (ex : vsync...).
 
Après DDU tout les paramètres seront remis à défaut de toutes façons.

Message cité 1 fois
Message édité par Miky 2001 le 14-03-2021 à 11:10:24
n°10965502
Col Hanzap​last
Jurassic geek. Vive le cobol !
Posté le 14-03-2021 à 13:10:07  profilanswer
 

Nouveau ! GPU-Z 2.38.0 comporte une case "Resizable BAR" et une case "ATI Cross Fire".


---------------
" Il n'y a aucune chance pour que l'iPhone s'attribue une part de marché significative. Aucune chance. " (Steve Ballmer 2007)
n°10965534
Face_Off
Posté le 14-03-2021 à 15:32:49  profilanswer
 

Petite question bottleneck. :hello:  
 
Avec mon vieillissant Core i5-6600 je m’attends à un sérieux bottleneck sur ma RTX 3080 FE.
Précision : Je joue en UWQHD (3440x1440) ce qui devrait quand même limiter un peu les dégâts.
 
D’après un outil comme Bottleneck Calculator, mon bottleneck est censé être bien costaud.
https://i.postimg.cc/TPpHp74q/bottleneck.png
Maintenant en pratique, j’aimerai voir comment mettre en évidence ce bottleneck.
 
J’ai lancé pas mal de jeux, et il est vrai que mon GPU n’atteint quasiment jamais 100% de charge.
En revanche, mon CPU non plus !
Je m’attendais à avoir une charge CPU autour de 100% et une charge GPU relativement basse, mais il n’en est rien.
 
Comment mettre en évidence un bottleneck et mesurer son ampleur ? :??:

Message cité 4 fois
Message édité par Face_Off le 14-03-2021 à 15:35:43
mood
Publicité
Posté le 14-03-2021 à 15:32:49  profilanswer
 

n°10965535
Miky 2001
N'y pense même pas !!!
Posté le 14-03-2021 à 15:38:42  profilanswer
 

En pratique : joue en 720p.  
 
Là tu es sur que c’est ton CPU qui bride et tu auras les perfs max quil peut atteindre. Tu verras alors si être bottleneck c’est gênant ou pas.
 
PS : ces sites ou calculs qui te disent si ou ça sur ta config c’est un peu bullshit.
Plein de jeux se contentent très bien d’un 4core comme le tient sans brider quoi que se soit. Donc à voir en fonction des jeux auxquels tu joues si c’est limitant ou pas. La méthode que je te donnes au dessus est top car la charge CPU entre du 720p ou 4K ou full HS reste toujours à peu de choses près la même...

Message cité 1 fois
Message édité par Miky 2001 le 14-03-2021 à 15:52:20
n°10965541
mxpx
----
Posté le 14-03-2021 à 15:50:51  profilanswer
 

En vous lisant, je me rend compte que ma cg tartine pas comme elle devrait. Je joue a tarkov.
 
J'ai une 3700x et une 2060 ultra. Et la cg tourne a 75% et le proco ce traine a 30%.
 
Une idée d'ou passe les 25% qu'il reste ?  Ca peut etre lié a l'utilisation de plusieurs écrans ?

n°10965546
Aqua-Niki
Posté le 14-03-2021 à 16:00:48  profilanswer
 

Un CPU n'est affiché à 100% d'utilisation que si chaque coeur est utilisé à 100%. Hors il suffit d'un seul qui plafonne à 100% pour que le CPU limite. Donc regardez la valeur d'occupation maximale sur un thread plutôt que la valeur d'occupation du CPU (moyenne de l'occupation de chaque thread, peu d'intérêt à surveiller dans un usage JV).

 

Edit : j'ajouterai qu'un coeur n'a pas besoin d'être à 100% lui même pour être limitant, si le jeu n'utilise pas toutes les ressources du coeur. un coeur à 80% et une CG qui n'atteint pas souvent les 100%, c'est déjà un bon signe de limitation CPU.


Message édité par Aqua-Niki le 14-03-2021 à 16:02:53
n°10965552
Moutmout44
Posté le 14-03-2021 à 16:20:57  profilanswer
 

Miky 2001 a écrit :

En effet  :jap:  
Et ton score CPU est bon.
 
Vérifie dans les drivers que tu n’as pas forcé certains paramètres (ex : vsync...).
 
Après DDU tout les paramètres seront remis à défaut de toutes façons.


 
Rien à faire après le ddu j’ai tjr dès variation de la courbe de entre 95 et 100 au final ça impactera pas en jeux mais je cherche tjr la cause :/  

n°10965555
Aqua-Niki
Posté le 14-03-2021 à 16:30:05  profilanswer
 

A moins que tu n'aies UV ta carte, c'est normal les variations de fréquence pendant le test : par défaut les cartes (surout les Amperes) sont la plupart du temps à la limite de conso et doivent adapter leur fréquence selon la charge pour s'y tenir. La limite de température peut jouer aussi suivant le refroidissement de la carte.
Cela dit ça ne devrait pas entraîner de variations importantes du score, sauf la limite de température si tu commences certains tests à froid et d'autres à chaud.

Message cité 1 fois
Message édité par Aqua-Niki le 14-03-2021 à 16:30:24
n°10965556
Face_Off
Posté le 14-03-2021 à 16:31:18  profilanswer
 

Miky 2001 a écrit :

En pratique : joue en 720p.  
 
Là tu es sur que c’est ton CPU qui bride et tu auras les perfs max quil peut atteindre. Tu verras alors si être bottleneck c’est gênant ou pas.
 
PS : ces sites ou calculs qui te disent si ou ça sur ta config c’est un peu bullshit.
Plein de jeux se contentent très bien d’un 4core comme le tient sans brider quoi que se soit. Donc à voir en fonction des jeux auxquels tu joues si c’est limitant ou pas. La méthode que je te donnes au dessus est top car la charge CPU entre du 720p ou 4K ou full HS reste toujours à peu de choses près la même...

:jap:
OK je viens de tester un petit L4D2 en 720p.
https://i.postimg.cc/66Ddx9Rh/fps.png
Toujours rien de bien foufou. GPU et CPU s'ennuient.
Mais je devrais peut-être tester sur un jeu un peu plus costaud.

n°10965557
Aqua-Niki
Posté le 14-03-2021 à 16:32:01  profilanswer
 

Ton coeur 1 à 82% il s'ennuie pas vraiment en fait ^^


Message édité par Aqua-Niki le 14-03-2021 à 16:32:07
n°10965561
Miky 2001
N'y pense même pas !!!
Posté le 14-03-2021 à 16:49:53  profilanswer
 

Exactement... parfois il suffit d’1core qui sature pour être CPU limited.  
De plus parfois même sans être à 100% sur 1 core tu es max.
La typiquement plus de 80% sur le core 1 grande chance que le CPU bride.

Message cité 1 fois
Message édité par Miky 2001 le 14-03-2021 à 16:50:21
n°10965566
Miky 2001
N'y pense même pas !!!
Posté le 14-03-2021 à 16:51:43  profilanswer
 

Aqua-Niki a écrit :

A moins que tu n'aies UV ta carte, c'est normal les variations de fréquence pendant le test : par défaut les cartes (surout les Amperes) sont la plupart du temps à la limite de conso et doivent adapter leur fréquence selon la charge pour s'y tenir. La limite de température peut jouer aussi suivant le refroidissement de la carte.
Cela dit ça ne devrait pas entraîner de variations importantes du score, sauf la limite de température si tu commences certains tests à froid et d'autres à chaud.


Dans son cas c’est des variation de la charge GPU.
Il devrait être à 100% sur les tests graphiques
 
Édit : vérifie la connexion pci-e de ta carte avec GPU-à pendant une charge.

Message cité 1 fois
Message édité par Miky 2001 le 14-03-2021 à 16:53:00
n°10965569
Aqua-Niki
Posté le 14-03-2021 à 16:54:17  profilanswer
 

Miky 2001 a écrit :

Exactement... parfois il suffit d’1core qui sature pour être CPU limited.  
De plus parfois même sans être à 100% sur 1 core tu es max.
La typiquement plus de 80% sur le core 1 grande chance que le CPU bride.


Je plussoie ^^

Miky 2001 a écrit :


Dans son cas c’est des variation de la charge GPU.
Il devrait être à 100% sur les tests graphiques


Ah oui en effet :jap: Je pensais que c'était la fréquence GPU qui variait et j'ai eu la flemme de remonter vérifier :D

n°10965573
Face_Off
Posté le 14-03-2021 à 16:58:56  profilanswer
 

Ok ! :jap:
Bon ici sur un vieux jeu comme L4D2, mes 280 fps sont amplement suffisants pour mon écran 144Hz.
Il faudrait que je test des jeux un peu plus costaud pour voir.
 
Idéalement, j’aimerai bien attendre encore 1 an ou 2 avant de changer de CPU si ma config actuelle peut suffire.
 
Ca ne pose pas de problème particulier sur la santé de mon hardware si je tourne avec une config pas très homogène ?
Hormis le fait que je n’exploite pas le plein potentiel de mon GPU pour le moment, je peux tourner comme ça sans que ce soit trop méchant pour mon matos ?

n°10965575
Moutmout44
Posté le 14-03-2021 à 17:05:52  profilanswer
 

Comment ça vérifier la connexion pcie ? Savoir si elle est bien en 16x3.0 ?
Sur gpuz elle apparaît en 16x 4.0
Je sais que la est compatible 4.0 mais pas le 10700k  
J’ai aussi remarqué que en milieu du 2ème test j’avais aucun drop

n°10965577
Aqua-Niki
Posté le 14-03-2021 à 17:07:57  profilanswer
 

Face_Off a écrit :

Ok ! :jap:
Bon ici sur un vieux jeu comme L4D2, mes 280 fps sont amplement suffisants pour mon écran 144Hz.
Il faudrait que je test des jeux un peu plus costaud pour voir.

 

Idéalement, j’aimerai bien attendre encore 1 an ou 2 avant de changer de CPU si ma config actuelle peut suffire.

 

Ca ne pose pas de problème particulier sur la santé de mon hardware si je tourne avec une config pas très homogène ?
Hormis le fait que je n’exploite pas le plein potentiel de mon GPU pour le moment, je peux tourner comme ça sans que ce soit trop méchant pour mon matos ?


Non il n'y a aucun danger, comme tu le dis tu vas juste sous utiliser la 3080 (qui aura quand même du boulot en UWQHD).

 

Je pense que tu vas pouvoir attendre 2 ans, l'i5 6600 est sans doute largué pour du framerate élevé, tu vas probablement avoir des saccades dans les AAA Ubi ou autres jeux très lourds en CPU, mais ça reste un CPU correct qui devrait s'en sortir convenablement dans la plupart des jeux.

 
Moutmout44 a écrit :

Comment ça vérifier la connexion pcie ? Savoir si elle est bien en 16x3.0 ?
Sur gpuz elle apparaît en 16x 4.0
Je sais que la est compatible 4.0 mais pas le 10700k
J’ai aussi remarqué que en milieu du 2ème test j’avais aucun drop


Tiens c'est étrange que ta CG soit en PCIe 4.0 si le 10700k ne le supporte pas. Et il semblerait que tu aies raison sur ce point d'après mes rapides recherches. Peut-être que le souci viendrait de là ? Ça me semble peu probable mais ça vaut le coup de tenter un bench en PCIe 3.0 pour voir si tu observes toujours le même comportement.

Message cité 1 fois
Message édité par Aqua-Niki le 14-03-2021 à 17:13:18
n°10965580
Face_Off
Posté le 14-03-2021 à 17:11:37  profilanswer
 

Impeccable !
Merci :jap:

n°10965599
Moutmout44
Posté le 14-03-2021 à 17:45:30  profilanswer
 


 

Aqua-Niki a écrit :


Tiens c'est étrange que ta CG soit en PCIe 4.0 si le 10700k ne le supporte pas. Et il semblerait que tu aies raison sur ce point d'après mes rapides recherches. Peut-être que le souci viendrait de là ? Ça me semble peu probable mais ça vaut le coup de tenter un bench en PCIe 3.0 pour voir si tu observes toujours le même comportement.


 
Ouep j’ai remarqué ça sur gpuz j’ai également testé de choisir le mode pcie directement dans le bios , la par contre j’avais uniquement le choix entre gen 1 2 3 ( ce qui est normal )  
Sur l’info système de nvidia elle est notifié en 3.0  
Ça peut avoir un rapport avec mes câblages pcie ou un défaut d’alimentation ?

n°10965603
Le Profana​teur
Passéiste désincarné
Posté le 14-03-2021 à 17:48:37  profilanswer
 

Non.


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°10965717
mxpx
----
Posté le 14-03-2021 à 23:16:43  profilanswer
 

J'ai essayé de jouer sur un peu tout les paramètres dans tarkov.
 
Même passé dans une résolution genre 1280. Les fps change en fonction. Mais l'utilisation de la cg reste toujours autour de 74-75%  :pt1cable:

n°10965732
SirGallaha​d
Girouette Pro
Posté le 15-03-2021 à 00:43:47  profilanswer
 

Face_Off a écrit :

Petite question bottleneck. :hello:  
 
Avec mon vieillissant Core i5-6600 je m’attends à un sérieux bottleneck sur ma RTX 3080 FE.
Précision : Je joue en UWQHD (3440x1440) ce qui devrait quand même limiter un peu les dégâts.
 
D’après un outil comme Bottleneck Calculator, mon bottleneck est censé être bien costaud.
https://i.postimg.cc/TPpHp74q/bottleneck.png
Maintenant en pratique, j’aimerai voir comment mettre en évidence ce bottleneck.
 
J’ai lancé pas mal de jeux, et il est vrai que mon GPU n’atteint quasiment jamais 100% de charge.
En revanche, mon CPU non plus !
Je m’attendais à avoir une charge CPU autour de 100% et une charge GPU relativement basse, mais il n’en est rien.
 
Comment mettre en évidence un bottleneck et mesurer son ampleur ? :??:


 
Sur Division 2 en 4K TAF. Sans OC du CPU (6600K), le pauvre oscille entre 99% et 100% (voir moins en intérieur, j'exagère un peu)
Avec un OC @4.1 Ghz all core, le CPU respire mieux et oscille entre 75% et 100%. (mais j'ai dans ce cas des problèmes de T° de VRM (a cause de la 3080) que je n'ai pas pris le temps de résoudre donc no OC.
Comme quoi, cela ne se joue pas a grand chose.


---------------
Oui. Non. Peut être...
n°10965742
petit-tigr​e
miaou
Posté le 15-03-2021 à 07:14:59  profilanswer
 

Et ça ne fonctionne pas suffisamment bien ainsi ? Simple question car perso, jouant en 60hz, si pour y arriver, la CG ne tourne qu'à 60%, bah seul le résultat compte.


---------------
mIaOuUuUuUuUuUu
n°10965745
skyzo-appl​e
Posté le 15-03-2021 à 07:21:58  profilanswer
 

Face_Off a écrit :

Petite question bottleneck. :hello:

 

Comment mettre en évidence un bottleneck et mesurer son ampleur ? :??:


Pour check si t'es bottleneck, essaie un jeu tout en moyen, tu regardes tes FPS, et tu refais la même chose tout a fond. Si tes FPS sont les mêmes, tu est bottleneck.

n°10965753
Miky 2001
N'y pense même pas !!!
Posté le 15-03-2021 à 08:14:29  profilanswer
 


Non certains réglages jouent aussi sur la charge CPU.
Le mieux, comme dit au-dessus, c’est de jouer sur la résolution. Seul la charge GPU est alors touchée.

Message cité 1 fois
Message édité par Miky 2001 le 15-03-2021 à 08:15:10
n°10965757
SirGallaha​d
Girouette Pro
Posté le 15-03-2021 à 08:26:15  profilanswer
 

petit-tigre a écrit :

Et ça ne fonctionne pas suffisamment bien ainsi ? Simple question car perso, jouant en 60hz, si pour y arriver, la CG ne tourne qu'à 60%, bah seul le résultat compte.


Oui et non, j'ai un 60fps sur ce jeu mais cela n'est pas hyper stable cela tourne entre 45 et 60fps avec un Vsync adaptatif. En fait en règle générale sur tous les jeux que j'ai pu essayer j'avais les 60fps +/- stables 4K + TAF ( sauf AA que je trouve inutile à mon goût).
Seul 2 jeux sont pour l'instant plus bas en FPS et qui mériterait un meilleur CPU. Rdr2 et cyberpunk.
J'ai pas tester avec des fps ou des jeux que j'ai déjà fini.
Dans quelques semaines, normalement je change le CPU. Je viendrai poster les différences s'il y en a.

 

Après je viens de faire 2 ans a jouer en 4k avec le 6600K + 980ti. Donc dès que cela dépasse les 30fps je suis plutôt content.  Honnêtement entre 45 et 60, je ne vois pas une différence folle. Après je fait majoritairement des jeux d'aventure ou du mmo donc je ne suis pas a une frame près.

 


Bon après en ce moment je joue surtout a ValHeim. Et vu la qualité graphique du titre je peux miner + jouer en ligne 4k taf avec un power limit a 60%...


---------------
Oui. Non. Peut être...
n°10965763
champion09​1
Posté le 15-03-2021 à 08:51:02  profilanswer
 

SirGallahad a écrit :

 

Sur Division 2 en 4K TAF. Sans OC du CPU (6600K), le pauvre oscille entre 99% et 100% (voir moins en intérieur, j'exagère un peu)
Avec un OC @4.1 Ghz all core, le CPU respire mieux et oscille entre 75% et 100%. (mais j'ai dans ce cas des problèmes de T° de VRM (a cause de la 3080) que je n'ai pas pris le temps de résoudre donc no OC.
Comme quoi, cela ne se joue pas a grand chose.

 

Si jamais tu te trouves limités avec ce CPU (j'avais le même), tu peux upgrade pour environ 100-150€ vers un i7 7700K sans changer ta config..
 j'ai upgrade vers un i7 7700 de mon côté et ça a un fait un peu de bien, notamment sur le jeux qui utilise beaucoup le CPU.

 

Surveille le forum A/V, on en voit passer de temps en temps.. en plus tu pourras revendre le i5 pour 80€, ça rêvent à rien comme upgrade (de mon côté, ça m'a coûté 40€ au totale)

Message cité 1 fois
Message édité par champion091 le 15-03-2021 à 08:52:13
n°10965767
skyzo-appl​e
Posté le 15-03-2021 à 09:01:01  profilanswer
 

Miky 2001 a écrit :


Non certains réglages jouent aussi sur la charge CPU.
Le mieux, comme dit au-dessus, c’est de jouer sur la résolution. Seul la charge GPU est alors touchée.


Oui mais si tu descend de résolution, peut être quand dans celle d'origine plus haute la CG était limitante et du coup tu tapais pas les limites de ton proco.
Après en étant malin tu baisses les options orienté "carte graphique" (maintenant c'est souvent précisé dans les jeux) ;)

n°10965768
ben shinob​i
Posté le 15-03-2021 à 09:10:26  profilanswer
 

skyzo-apple a écrit :


Oui mais si tu descend de résolution, peut être quand dans celle d'origine plus haute la CG était limitante et du coup tu tapais pas les limites de ton proco.
Après en étant malin tu baisses les options orienté "carte graphique" (maintenant c'est souvent précisé dans les jeux) ;)


 
Oui il vaut mieux rester en résolution native de l'écran et jouer sur les parametres graphiques du jeu. Souvent on ne voit pas de différence énormes ni handicapantes entre medium/high et ultra pour des gains de fps assez conséquents. Selon les jeux, il vaut mieux aussi basucler en dx11 et faire fi du dlss, d'autres non. Pour chaque jeu, il y a pléthores de guides d'opti graphique sur youtube, suffit de chercher un peu.


Message édité par ben shinobi le 15-03-2021 à 09:10:48
n°10965770
Miky 2001
N'y pense même pas !!!
Posté le 15-03-2021 à 09:13:08  profilanswer
 

skyzo-apple a écrit :


Oui mais si tu descend de résolution, peut être quand dans celle d'origine plus haute la CG était limitante et du coup tu tapais pas les limites de ton proco.
Après en étant malin tu baisses les options orienté "carte graphique" (maintenant c'est souvent précisé dans les jeux) ;)


Pas compris : :jap:  
 
Un exemple :
 
Si en 4K tu es limité par ton GPU :
   - en 720p, les perfs vont augmenter.
 
Si en 4K tu es limite par ton CPU (c’était justement le but de la question d’origine) :
   - en 720p, les pers seront presque identiques.

n°10965771
brusseleer
Bruxelles une fois
Posté le 15-03-2021 à 09:15:30  profilanswer
 

Bonjour,
Est-ce que quelqu‘un possède une Msi Geforce RTX3070 SUPRIM, ce sera ma carte fin de semaine avec un AMD 3900x, la suprim n’est vendue qu’avec un assemblage pc chez Microcity à Bruxelles.
Merci

n°10965774
SirGallaha​d
Girouette Pro
Posté le 15-03-2021 à 09:22:46  profilanswer
 

champion091 a écrit :


 
Si jamais tu te trouves limités avec ce CPU (j'avais le même), tu peux upgrade pour environ 100-150€ vers un i7 7700K sans changer ta config..
 j'ai upgrade vers un i7 7700 de mon côté et ça a un fait un peu de bien, notamment sur le jeux qui utilise beaucoup le CPU.
 
Surveille le forum A/V, on en voit passer de temps en temps.. en plus tu pourras revendre le i5 pour 80€, ça rêvent à rien comme upgrade (de mon côté, ça m'a coûté 40€ au totale)


J'ai penser a cette option (ou a mettre un QQLS) mais je pense plutôt partir sur un renouvellement du pack CPU/CM et donne l'ancienne config a mon grand.
J'ai une confiance limité dans ma CM (ITX entrée de gamme) a supporté correctement le 7700K / QQLS.


---------------
Oui. Non. Peut être...
n°10965781
mat33000
Posté le 15-03-2021 à 10:02:22  profilanswer
 

SirGallahad a écrit :


 
Sur Division 2 en 4K TAF. Sans OC du CPU (6600K), le pauvre oscille entre 99% et 100% (voir moins en intérieur, j'exagère un peu)
Avec un OC @4.1 Ghz all core, le CPU respire mieux et oscille entre 75% et 100%. (mais j'ai dans ce cas des problèmes de T° de VRM (a cause de la 3080) que je n'ai pas pris le temps de résoudre donc no OC.
Comme quoi, cela ne se joue pas a grand chose.


   
Par contre, si il envisage des gros jeux multi comme call of warzone , bf5 en 64 joueurs etc, changement obligatoire. mon i7 8700 non k est déja trés juste et limite la 3080 dans ces conditions. En multi, 10 joueurs sur modern warfare mes fps décollent: environ 200 ultra fluide.
 
Les battle royale et gros jeux multi sont quand meme trés Cpu dépendant et de plus en plus au fur et à mesure des Maj.


Message édité par mat33000 le 15-03-2021 à 10:04:28
n°10965784
crazytiti
http://crazytiti.free.fr/
Posté le 15-03-2021 à 10:29:50  profilanswer
 

Miky 2001 a écrit :


Un exemple :
Si en 4K tu es limité par ton GPU :
   - en 720p, les perfs vont augmenter.
Si en 4K tu es limite par ton CPU (c’était justement le but de la question d’origine) :
   - en 720p, les pers seront presque identiques.


 
Hey non !
Ce n'est pas (du tout) aussi simple que ça.
En simplifiant (beaucoup) le pipeline de rendu contient des parties séquentiels qui font que le nombre de fps va augmenter en baissant la résolution même si tu est "cpu limited".
Comme dit précédemment un bon indicateur et le niveau d'utilisation des cores du CPU.
Mais franchement la pratique est plus simple :
- Si ton jeu est suffisamment jouable pour toi : cpu ou gpu limited tu t'en fiche et "enjoy the game"
- Si ton jeu rame : si en diminuant la résolution ça deviens bon, alors tu est "GPU limited" dans ce jeux
    si en diminuant (fortement genre 720p) la résolution ça n'est pas jouable alors tu est "CPU limited" à moins que ton gpu soit une pauvre bouse de GT710 bien sur.


---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
n°10965799
Miky 2001
N'y pense même pas !!!
Posté le 15-03-2021 à 11:02:19  profilanswer
 

crazytiti a écrit :


 
Hey non !
Ce n'est pas (du tout) aussi simple que ça.
En simplifiant (beaucoup) le pipeline de rendu contient des parties séquentiels qui font que le nombre de fps va augmenter en baissant la résolution même si tu est "cpu limited".
Comme dit précédemment un bon indicateur et le niveau d'utilisation des cores du CPU.
Mais franchement la pratique est plus simple :
- Si ton jeu est suffisamment jouable pour toi : cpu ou gpu limited tu t'en fiche et "enjoy the game"
- Si ton jeu rame : si en diminuant la résolution ça deviens bon, alors tu est "GPU limited" dans ce jeux
    si en diminuant (fortement genre 720p) la résolution ça n'est pas jouable alors tu est "CPU limited" à moins que ton gpu soit une pauvre bouse de GT710 bien sur.


Tu as vu que j’ai mis « presque identique »  :jap: .
Cette subtilité fait référence à cette « légère » différence que tu détailles.
 
Mais la logique reste valable et la différence n’est que « légère ».
 
Donc ton raisonnement qui en suit est bon et identique au mien.
 
Et je te rejoins sur le fait que parfois on s’en fou d’être bottleneck... mais les forums et presse info te font croire que c’est « grave » ! :gratgrat:  ;)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1548  1549  1550  ..  1883  1884  1885  1886  1887  1888

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)