Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4868 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1858  1859  1860  ..  1883  1884  1885  1886  1887  1888
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°11258290
Aqua-Niki
Posté le 21-06-2023 à 13:46:45  profilanswer
 

Reprise du message précédent :

absolumentpasbultom a écrit :

Ah mais c'est une fonction utile je dis pas le contraire :D
 
C'est juste que (entre autre) j'aime pas que la TV décide de switch sur une entrée parce qu'elle a recu un signal (ma TV est branchée a l'écran et a la Xbox) donc des fois en plein jeu t'as la TV qui se rallume, du coup t'as ton écran de PC qui s'éteint et se rallume (ouais quand Windows détecte les écrans quoi) et ca fout la merde :D
 


J'ai du mal à voir un cas d'usage où ça pose problème ^^ Si le CEC allume ta télé/switch de source, c'est que tu allumes un appareil branché dessus. Donc à priori tu vas l'utiliser sur ta télé, non ?

Message cité 1 fois
Message édité par Aqua-Niki le 21-06-2023 à 13:47:07
mood
Publicité
Posté le 21-06-2023 à 13:46:45  profilanswer
 

n°11258292
crazytiti
http://crazytiti.free.fr/
Posté le 21-06-2023 à 13:50:11  profilanswer
 

Ya des gens qui ne vivent pas TS H24 chez eux ^^


---------------
Le PC est une drogue... Mes modèles 3D qui me rapportent des points :-D https://makerworld.com/fr/@crazytiti https://www.printables.com/fr/@Crazytiti_1456354
n°11258294
Aqua-Niki
Posté le 21-06-2023 à 13:52:21  profilanswer
 

crazytiti a écrit :

Ya des gens qui ne vivent pas TS H24 chez eux ^^


J'ai du mal à voir le rapport ^^

n°11258305
absolument​pasbultom
It's not a loop, it's a spiral
Posté le 21-06-2023 à 14:13:44  profilanswer
 

Bah pas forcement,
 
Imaginons que la console se rallume pour MaJ, bah du coup avec le CEC paf pasteque et la TV s'allume :fou:


---------------
Les HDD c'est dans les NAS :fou:
n°11258313
albatar197​6
Posté le 21-06-2023 à 14:49:34  profilanswer
 

Je crois que la discussion a commencé car quelqu'un avait un soucis lorsque quelqu'un allumait la TV alors qu'il jouait. Voilà un cas d'usage  :jap:


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°11258331
Aqua-Niki
Posté le 21-06-2023 à 15:05:26  profilanswer
 

absolumentpasbultom a écrit :

Bah pas forcement,
 
Imaginons que la console se rallume pour MaJ, bah du coup avec le CEC paf pasteque et la TV s'allume :fou:


Ah ben je pensais que les consoles modernes faisaient leurs mises à jour en veille ^^ La Switch ne s'allume jamais pour une mise à jour, elle la télécharge en veille et l'applique au prochain réveil.
 

albatar1976 a écrit :

Je crois que la discussion a commencé car quelqu'un avait un soucis lorsque quelqu'un allumait la TV alors qu'il jouait. Voilà un cas d'usage  :jap:


Oui je me suis renseigné plus sur le CEC et en fait l'implémentation peut varier. Sur ma télé ce cas d'usage ne peut pas arriver car elle ne réveille pas les appareils quand je l'allume, ce sont les appareils qui allument la télé.
 
Du coup effectivement je comprends mieux l'intérêt de le désactiver dans certains cas.

Message cité 1 fois
Message édité par Aqua-Niki le 21-06-2023 à 15:05:42
n°11258339
absolument​pasbultom
It's not a loop, it's a spiral
Posté le 21-06-2023 à 15:14:34  profilanswer
 

Aqua-Niki a écrit :


Ah ben je pensais que les consoles modernes faisaient leurs mises à jour en veille ^^ La Switch ne s'allume jamais pour une mise à jour, elle la télécharge en veille et l'applique au prochain réveil.
 


 
C'est pas impossible que ma console soit mal configurée hein :o


---------------
Les HDD c'est dans les NAS :fou:
n°11258340
Aqua-Niki
Posté le 21-06-2023 à 15:20:30  profilanswer
 

absolumentpasbultom a écrit :


 
C'est pas impossible que ma console soit mal configurée hein :o


C'est aussi possible que les XSX et PS5 fonctionnent comme ça car les mises à jour sont plus grosses ^^ Sur Switch ça prend quelques dizaines de secondes au plus, mais si les autres consoles ont des mises à jour de plusieurs minutes voire dizaines de minutes je peux comprendre le choix de les appliquer sans attendre la prochaine utilisation de la console.
 
Je n'étais juste pas au courant de ce fonctionnement donc je n'avais pas envisagé ce cas, mais je ne critique pas le choix qui peut tout à fait avoir une justification valable.

n°11258363
uNReaLx77
üNReaL
Posté le 21-06-2023 à 16:52:23  profilanswer
 

Aqua-Niki a écrit :


J'ai du mal à voir un cas d'usage où ça pose problème ^^ Si le CEC allume ta télé/switch de source, c'est que tu allumes un appareil branché dessus. Donc à priori tu vas l'utiliser sur ta télé, non ?


Je t'explique où ça pose problème.
Ma fille joue a la console, elle eteind TV et console.
 
J'arrive derrière, j'allume la TV, juste pour regarder la TV, ben la console s'allume parce que la TV va démarrer sur sa dernière source, l'hdmi ;)

n°11258367
Aqua-Niki
Posté le 21-06-2023 à 17:02:04  profilanswer
 

uNReaLx77 a écrit :


Je t'explique où ça pose problème.
Ma fille joue a la console, elle eteind TV et console.
 
J'arrive derrière, j'allume la TV, juste pour regarder la TV, ben la console s'allume parce que la TV va démarrer sur sa dernière source, l'hdmi ;)


Comme je l'explique plus haut, ma télé ne fait pas ça donc je ne voyais pas le problème. L'implémentation du CEC varie selon les télés, effectivement dans ton cas je comprends que ça pose problème. Moi quand j'allume la télé ça n'allume rien d'autre.


Message édité par Aqua-Niki le 21-06-2023 à 17:02:20
mood
Publicité
Posté le 21-06-2023 à 17:02:04  profilanswer
 

n°11258369
uNReaLx77
üNReaL
Posté le 21-06-2023 à 17:06:41  profilanswer
 

Après ça s'allume uniquement quand ça démarre sur la source de la Xbox, en gros faudrai changer la source TV quand on eteind la TV en même temps que la Xbox.
 
Ça peut être sympa sur des TV non connecté, si ça fonctionne ,genre celui qui utilise Netflix sur la Xbox, il a pas besoin de la manette.
 
Ou pour regarder un film via le lecteur de la Xbox aussi.


Message édité par uNReaLx77 le 21-06-2023 à 17:12:17
n°11258387
absolument​pasbultom
It's not a loop, it's a spiral
Posté le 21-06-2023 à 17:46:35  profilanswer
 

En fait on est tous d'accord pour pas etre d'accord [:ojap]


---------------
Les HDD c'est dans les NAS :fou:
n°11258391
uNReaLx77
üNReaL
Posté le 21-06-2023 à 18:03:09  profilanswer
 

Ce que je dis c'est uniquement à titre d'information, si dans mon cas ça n'est pas très pratique, ça peut l'être pour d'autres.

n°11260942
bounty2k
Posté le 01-07-2023 à 11:07:16  profilanswer
 

coil whine a écrit :


Bon mon oc scanner n’a rien donné.
En tout cas bingo pour toi. J’ai fais un ddu, refais une clean install en choisissant une installe personnalisée. Et la c’est bon j’ai aperçu un 23 watts ! Au lieu de 100.  
 
Merci !


Merci pour ton post car je me suis rendu compte que ma 4070 présentait les même symptômes que ta 3080Ti avec une bonne surconso à la clé  :jap: .
En réinstallant les drivers les fréquences reviennent bien à leurs valeurs IDLE je suis passé de 100W de conso à la prise (avec l'écran) à 70W.
Surement des séquelles de bidouilles (baisse du power limite pour justement baisser la conso  :D ) que j'avais fait sur AB il y a quelques temps.

n°11260947
coil whine
Renvoie-là au SAV
Posté le 01-07-2023 à 11:36:05  profilanswer
 

bounty2k a écrit :


Merci pour ton post car je me suis rendu compte que ma 4070 présentait les même symptômes que ta 3080Ti avec une bonne surconso à la clé  :jap: .
En réinstallant les drivers les fréquences reviennent bien à leurs valeurs IDLE je suis passé de 100W de conso à la prise (avec l'écran) à 70W.
Surement des séquelles de bidouilles (baisse du power limite pour justement baisser la conso  :D ) que j'avais fait sur AB il y a quelques temps.


 :jap:

n°11262789
Mangelan
Posté le 09-07-2023 à 09:36:30  profilanswer
 

Bonjour à tous :)
Je suis en quête d'une remplaçante pour ma 2070....  
Avec la chute des prix je vois un paquet de 3080 sur le bon coin dans mes tarifs ( 500/550). Et je vois aussi parfois des 3080ti dans cette gamme de prix.
Je suis joueur en 1440p. A la base je voulais attendre la 4070 mais finalement je suis plutôt déçu des performances..
 
C'est quoi le prix du marché pour une 3080ti d'occasion ? Pour savoir si les offres sont trop belles pour être vraies ou bien lbc est au dessus du marché ?
 
Niveau alimentation j'ai une 650w actuellement, pour une 3080 c'est 750w qui est conseillé ? 850w pour une ti ?
 
Et dernière question une 2070 de 2018 cela côte à combien ? Je pensais dans les 150/200 à la louche ?
 
Merci à vous

n°11262833
invik
J'ai pas ma manette :o
Posté le 09-07-2023 à 13:51:01  profilanswer
 

Mangelan a écrit :

Bonjour à tous :)
Je suis en quête d'une remplaçante pour ma 2070....  
Avec la chute des prix je vois un paquet de 3080 sur le bon coin dans mes tarifs ( 500/550). Et je vois aussi parfois des 3080ti dans cette gamme de prix.
Je suis joueur en 1440p. A la base je voulais attendre la 4070 mais finalement je suis plutôt déçu des performances..
 
C'est quoi le prix du marché pour une 3080ti d'occasion ? Pour savoir si les offres sont trop belles pour être vraies ou bien lbc est au dessus du marché ?
 
Niveau alimentation j'ai une 650w actuellement, pour une 3080 c'est 750w qui est conseillé ? 850w pour une ti ?
 
Et dernière question une 2070 de 2018 cela côte à combien ? Je pensais dans les 150/200 à la louche ?
 
Merci à vous


J’ai pris une 850w pour ma 3080ti pour être large.

n°11262856
campi
V8 FTW
Posté le 09-07-2023 à 15:57:59  profilanswer
 

Mangelan a écrit :

Bonjour à tous :)
Je suis en quête d'une remplaçante pour ma 2070....  
Avec la chute des prix je vois un paquet de 3080 sur le bon coin dans mes tarifs ( 500/550). Et je vois aussi parfois des 3080ti dans cette gamme de prix.
Je suis joueur en 1440p. A la base je voulais attendre la 4070 mais finalement je suis plutôt déçu des performances..
 
C'est quoi le prix du marché pour une 3080ti d'occasion ? Pour savoir si les offres sont trop belles pour être vraies ou bien lbc est au dessus du marché ?
 
Niveau alimentation j'ai une 650w actuellement, pour une 3080 c'est 750w qui est conseillé ? 850w pour une ti ?
 
Et dernière question une 2070 de 2018 cela côte à combien ? Je pensais dans les 150/200 à la louche ?
 
Merci à vous


 
Si tu cherches bien il y a des 3080 à 400 et des ti à 450/500.
 
650W ça fait juste mais ça dépend aussi du reste de ta config.
 
une 2070 je dirais 150 si tu veux que ça parte assez vite oui.


Message édité par campi le 09-07-2023 à 15:59:40

---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11269284
albatar197​6
Posté le 02-08-2023 à 20:33:55  profilanswer
 

Bon j'ai enfin pris le temps d'UV ma 3070ti.
 
En vrai j'ai peut être eu du bol car ça ne m'a pas pris beaucoup de temps. Il faut dire que je ne me suis pas pris la tête. J'ai googlé et pris une moyenne pour commencer. Et je n'ai pas pris le temps de vraiment affiner car je suis rapidement tombé sur un UV qui me convient:
 
0.875mv à 1920mhz.
 
Je perd à peine 1 à 2 % de perfs suivant les benchs (donc c'est carrément négligeable) et je passe de 304w en conso à 213w  :love:  58°c (vs 66) pour le gpu, 70°c (vs 79) pour la mémoire et 69°c (vs 81) pour le hotspot avec les ventilos à 65% avant et après UV.
 
Par contre la plupart des UV que j'ai vu sur le net tiennent +1000 sur les vrm. Ma carte ne tient "que" +700  :sweat:  De toute façon il n'y a quasi pas de différence avec +400. Donc je laisse comme ça. Mais je suis étonné pour une FTW3  :??:
 
ps: Ca fait près d'une semaine maintenant et je peux dire que c'est stable. Aucun crash pour le moment sur les jeux  :bounce:

Message cité 1 fois
Message édité par albatar1976 le 02-08-2023 à 20:37:09

---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°11269539
oufouf84
Posté le 03-08-2023 à 12:47:04  profilanswer
 

albatar1976 a écrit :

Bon j'ai enfin pris le temps d'UV ma 3070ti.
 
En vrai j'ai peut être eu du bol car ça ne m'a pas pris beaucoup de temps. Il faut dire que je ne me suis pas pris la tête. J'ai googlé et pris une moyenne pour commencer. Et je n'ai pas pris le temps de vraiment affiner car je suis rapidement tombé sur un UV qui me convient:
 
0.875mv à 1920mhz.
 
Je perd à peine 1 à 2 % de perfs suivant les benchs (donc c'est carrément négligeable) et je passe de 304w en conso à 213w  :love:  58°c (vs 66) pour le gpu, 70°c (vs 79) pour la mémoire et 69°c (vs 81) pour le hotspot avec les ventilos à 65% avant et après UV.
 
Par contre la plupart des UV que j'ai vu sur le net tiennent +1000 sur les vrm. Ma carte ne tient "que" +700  :sweat:  De toute façon il n'y a quasi pas de différence avec +400. Donc je laisse comme ça. Mais je suis étonné pour une FTW3  :??:
 
ps: Ca fait près d'une semaine maintenant et je peux dire que c'est stable. Aucun crash pour le moment sur les jeux  :bounce:


 
tu as vérifié la différence entre tes deux fréquences pour être sur que ton UV est efficace ?

n°11269546
albatar197​6
Posté le 03-08-2023 à 13:29:39  profilanswer
 

oufouf84 a écrit :

 

tu as vérifié la différence entre tes deux fréquences pour être sur que ton UV est efficace ?

 

Je suppose que tu parles de la consommation en idle ?

 

Si oui j'ai eu effectivement un soucis car la carte consommait 83w en idle.

 

J'ai vite compris que c'était à cause de la fréquence qui ne redescendait pas en idle puisque je l'avais manuellement bloquée pour avoir une meilleure stabilité pendant les tests comme conseillé dans un tuto (touche L) sur le point de la courbe choisi).

 

En débloquant la fréquence, j'ai retrouvé une consommation en idle comparable à la consommation stock.

 


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°11269674
oufouf84
Posté le 04-08-2023 à 00:56:05  profilanswer
 

albatar1976 a écrit :


 
Je suppose que tu parles de la consommation en idle ?
 
Si oui j'ai eu effectivement un soucis car la carte consommait 83w en idle.  
 
J'ai vite compris que c'était à cause de la fréquence qui ne redescendait pas en idle puisque je l'avais manuellement bloquée pour avoir une meilleure stabilité pendant les tests comme conseillé dans un tuto (touche L) sur le point de la courbe choisi).
 
En débloquant la fréquence, j'ai retrouvé une consommation en idle comparable à la consommation stock.
 


 
non je parle de ces deux là :
 
https://i.ibb.co/FnPZwP0/Capture-d-cran-2023-05-19-155558.png

n°11269684
albatar197​6
Posté le 04-08-2023 à 05:02:17  profilanswer
 

Oui c'est bon:
 
https://rehost.diberie.com/Picture/Get/f/199600
 
Merci  :jap:


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°11269760
oufouf84
Posté le 04-08-2023 à 11:25:02  profilanswer
 


 
voilà et là tu regarde pendant un bench que t'es deux fréquences reste presque identique si c'est le cas c'est bon, sinon il faut revoir la méthode d'UV :)

n°11269845
albatar197​6
Posté le 04-08-2023 à 15:18:25  profilanswer
 

oufouf84 a écrit :

 

voilà et là tu regarde pendant un bench que t'es deux fréquences reste presque identique si c'est le cas c'est bon, sinon il faut revoir la méthode d'UV :)

 

Ok merci.

 

J'ai checké rapidement avant d'aller bosser.

 

Pas plus de 15mhz de différence entre les deux fréquences pendant un test furemark (stress et bench) et occt (shader à fond).

 

Je n'ai pas pu tester sur timespy car ça ne supporte pas le alt tab.

 

Je ferai plus de tests la semaine prochaine car j'ai un weekend de taff chargé.


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°11270212
oufouf84
Posté le 06-08-2023 à 02:21:34  profilanswer
 

albatar1976 a écrit :


 
Ok merci.
 
J'ai checké rapidement avant d'aller bosser.
 
Pas plus de 15mhz de différence entre les deux fréquences pendant un test furemark (stress et bench) et occt (shader à fond).
 
Je n'ai pas pu tester sur timespy car ça ne supporte pas le alt tab.
 
Je ferai plus de tests la semaine prochaine car j'ai un weekend de taff chargé.


 
15Mhz entre les deux c'est good ;) quand tu ulises le core clock avant d'UV tu as entre 5 et 15Mhz d'écart entre t'es deux fréquence (GPU clock et GPU clock effective) mais quand tu UV avec la méthode "classique" tu peux avoir un écart qui monte jusqu'à 100mhz.
 
donc au final entre les deux type d'UV tu peux avoir le même GPU clock mais pas le même GPU clock effective et pourtant c'est bien ce derniers qui est important.
 
pour faire simple tu te dit:
 
GPU clock = fréquence cible
GPU clock effective = fréquence réel

Message cité 1 fois
Message édité par oufouf84 le 06-08-2023 à 02:36:06
n°11270305
albatar197​6
Posté le 06-08-2023 à 14:42:53  profilanswer
 

oufouf84 a écrit :


 
15Mhz entre les deux c'est good ;) quand tu ulises le core clock avant d'UV tu as entre 5 et 15Mhz d'écart entre t'es deux fréquence (GPU clock et GPU clock effective) mais quand tu UV avec la méthode "classique" tu peux avoir un écart qui monte jusqu'à 100mhz.
 
donc au final entre les deux type d'UV tu peux avoir le même GPU clock mais pas le même GPU clock effective et pourtant c'est bien ce derniers qui est important.
 
pour faire simple tu te dit:
 
GPU clock = fréquence cible
GPU clock effective = fréquence réel


 
Merci de ces précisions  :jap:
 
ps: tu me conseilles quoi pour monitorer la fréquence effective en overlay pendant un bench ou en jeu ? Je trouve pas comment l'afficher dans afterburner

Message cité 1 fois
Message édité par albatar1976 le 06-08-2023 à 14:46:16

---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°11270356
rserge
Posté le 06-08-2023 à 18:00:25  profilanswer
 

:hello:  
avec une 3090ti , gpuZ dans "memory size" ne m'affiche que 23552mb  au lieu de 24576mb  
ça pourrait venir de où ce giga manquant..? logiciel ou hardware
merci..
https://image.noelshack.com/minis/2023/31/7/1691336667-3090ti.png
 


---------------
il est bientôt minuit mais je fais beaucoup plus jeune
n°11270395
booba92i
Posté le 07-08-2023 à 01:23:34  profilanswer
 

rserge a écrit :

:hello:  
avec une 3090ti , gpuZ dans "memory size" ne m'affiche que 23552mb  au lieu de 24576mb  
ça pourrait venir de où ce giga manquant..? logiciel ou hardware
merci..
https://image.noelshack.com/minis/2 [...] 3090ti.png
 


 
C'est bizarre ce truc !!!.
 
J'ai bien 24G pour la ram sur une 3090 non Ti.
https://zupimages.net/up/23/32/uchi.png


---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
n°11270628
oufouf84
Posté le 07-08-2023 à 19:34:03  profilanswer
 

albatar1976 a écrit :


 
Merci de ces précisions  :jap:
 
ps: tu me conseilles quoi pour monitorer la fréquence effective en overlay pendant un bench ou en jeu ? Je trouve pas comment l'afficher dans afterburner


 
j'ai pas trouvé non plus, hors mis un écran secondaire avec Hwinfo dessus ^^

n°11270634
albatar197​6
Posté le 07-08-2023 à 20:00:18  profilanswer
 

oufouf84 a écrit :


 
j'ai pas trouvé non plus, hors mis un écran secondaire avec Hwinfo dessus ^^


 
Pas con je vais brancher l'écran du deuxième pc  :jap:


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°11271010
Bagdarion
Posté le 09-08-2023 à 13:10:44  profilanswer
 

Hello

 

Je ne sais pas si ma question à sa place ici ou plutôt sur le topic du jeu en question, je migre là bas si ça pose problème.

 

J'ai monté un PC milieu de gamme pour le fils de ma compagne. A base d'AMD 5 5500 et d'une 3060Ti, écran 1080p 60hz.

 

Il joue à fortnite.

 

J'ai mis le setup du jeu au max. Je m'attendais à ce que la 3060ti tienne le 60 fps constant, mais il y a de gros drop à 10/15fps. C'est injouable.

 

Est-ce que je peux effectivement m'attendre à du 60fps ou alors la 3060ti est trop juste ?

 

J'ai tenté un baissant certains paramètres de epic à high, mais même résultat.

 

Question bonus: je n'ai pas trouvé l'option dlss dans les paramètres [:transparency]

 

edit: je suspecte un problème de configuration ou de mauvais port PCi. Mais je ne peux pas vérifier avant dimanche.

 

edit2: en regardant le manuel de la carte mère (B550m-a wifi 2), il n'y a qu'un seul port pci. Donc mauvaise hypothèse.

Message cité 3 fois
Message édité par Bagdarion le 09-08-2023 à 13:52:23
n°11271022
marijuo
Posté le 09-08-2023 à 13:46:15  profilanswer
 

En effet avec cette carte il devrait pouvoir tourner a fond en 1080p c'est bizare...
 
Tu as essayé sur d'autres jeux pour voir s'il y avait aussi de mauvaises perf ?
Essaie de faire un 3Dmark pour voir le nombre de point obtenus et le comparer aux résultats d'autres 3060ti.
 
Les températures cpu/gpu sont bonnes ?


---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
n°11271023
davids
Posté le 09-08-2023 à 13:55:55  profilanswer
 

Bagdarion a écrit :

Hello
 
Je ne sais pas si ma question à sa place ici ou plutôt sur le topic du jeu en question, je migre là bas si ça pose problème.
 
J'ai monté un PC milieu de gamme pour le fils de ma compagne. A base d'AMD 5 5500 et d'une 3060Ti, écran 1080p 60hz.  
 
Il joue à fortnite.  
 
J'ai mis le setup du jeu au max. Je m'attendais à ce que la 3060ti tienne le 60 fps constant, mais il y a de gros drop à 10/15fps. C'est injouable.  
 
Est-ce que je peux effectivement m'attendre à du 60fps ou alors la 3060ti est trop juste ?  
 
J'ai tenté un baissant certains paramètres de epic à high, mais même résultat.  
 
Question bonus: je n'ai pas trouvé l'option dlss dans les paramètres [:transparency]
 
edit: je suspecte un problème de configuration ou de mauvais port PCi. Mais je ne peux pas vérifier avant dimanche.
 
edit2: en regardant le manuel de la carte mère (B550m-a wifi 2), il n'y a qu'un seul port pci. Donc mauvaise hypothèse.


 
Tu as combien de ram ?
Tu utilises quel genre de ssd  
Sata ou nvme ?

n°11271027
Bagdarion
Posté le 09-08-2023 à 14:01:13  profilanswer
 

marijuo a écrit :

En effet avec cette carte il devrait pouvoir tourner a fond en 1080p c'est bizare...

 

Tu as essayé sur d'autres jeux pour voir s'il y avait aussi de mauvaises perf ?
Essaie de faire un 3Dmark pour voir le nombre de point obtenus et le comparer aux résultats d'autres 3060ti.

 

Les températures cpu/gpu sont bonnes ?


Je n'ai eu le pc entre les mains que 20min donc pas eu le temps de faire de benchmark ou de regarder les températures. Je prévois ça ce week-end :jap:
Pas d'autres jeux dessus, il est à fond sur fortnite.

 
davids a écrit :

 

Tu as combien de ram ?
Tu utilises quel genre de ssd
Sata ou nvme ?

 

Ram: Kingston FURY Beast 16GB (2x8GB) 3200MHz DDR4 CL16

 

Nvme : Crucial P3 1To M.2 PCIe Gen3 NVMe SSD

 


Je m'etais dit que 16Go seraient suffisants, mais je peux toujours remettre un kit par précaution (50eur, on est loin de prix excessif)

n°11271056
dazouille
ex dazi
Posté le 09-08-2023 à 14:45:58  profilanswer
 

suffit de regarder en jeux l'utilisation de la carte graphique et du processeur,
 
à mon avis la carte n'est pas à 100% d'utilisation si tu as des drop à 10 fps :O


---------------
Ici : http://forum.hardware.fr/hfr/Achat [...] 1291_1.htm
n°11271062
davids
Posté le 09-08-2023 à 15:00:53  profilanswer
 

Bagdarion a écrit :

Hello
 
 
J'ai mis le setup du jeu au max. Je m'attendais à ce que la 3060ti tienne le 60 fps constant, mais il y a de gros drop à 10/15fps. C'est injouable.  
 
Est-ce que je peux effectivement m'attendre à du 60fps ou alors la 3060ti est trop juste ?  
 


 
aprés fortnite c'est de l'Unreal Engine 5 maintenant ... donc c'est assez gourmand ... :/  
 
 
tu entends quoi par setup au max ??   raytracing ?  qualité graphique sur high ou epic ?  
 
je pense qu'il va falloir réduire les détails graphiques afin que les 8 go de la 3060Ti n soient pas saturés

Message cité 1 fois
Message édité par davids le 09-08-2023 à 15:01:17
n°11271074
Bagdarion
Posté le 09-08-2023 à 15:52:00  profilanswer
 

dazouille a écrit :

suffit de regarder en jeux l'utilisation de la carte graphique et du processeur,

 

à mon avis la carte n'est pas à 100% d'utilisation si tu as des drop à 10 fps :O

 

Yep, prévu de faire ça ce week-end :jap:

 
davids a écrit :

 

aprés fortnite c'est de l'Unreal Engine 5 maintenant ... donc c'est assez gourmand ... :/

 


tu entends quoi par setup au max ?? raytracing ? qualité graphique sur high ou epic ?

 

je pense qu'il va falloir réduire les détails graphiques afin que les 8 go de la 3060Ti n soient pas saturés

 

Tous les curseurs à droite  :D
Un peu violent je l'accorde mais je pensais que ça passerait. Et je voulais appliquer le dlss mais je n'ai pas trouvé le menu pour ça (mais peut être qu'il n'est pas accessible)

 

J'aurais plus de temps ce week-end pour y regarder.

n°11271096
albatar197​6
Posté le 09-08-2023 à 17:04:21  profilanswer
 

Les drop de framerate c'est surement à cause de la vram saturée. 8GB ça va vite si tu ne fais pas attention.


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°11271104
Scrabble
Posté le 09-08-2023 à 17:16:21  profilanswer
 

albatar1976 a écrit :

Les drop de framerate c'est surement à cause de la vram saturée. 8GB ça va vite si tu ne fais pas attention.


Disons aussi que sur beaucoup de JV modernes, si la CG n'as pas beaucoup de VRAM, le jeu va utiliser plus de RAM CPU
Donc si la machine est à la fois limite en VRAM (8Go) et limite en RAM (16Go), ça risque de faire du stuttering

n°11271111
oufouf84
Posté le 09-08-2023 à 17:31:16  profilanswer
 

Bagdarion a écrit :

Hello
 
Je ne sais pas si ma question à sa place ici ou plutôt sur le topic du jeu en question, je migre là bas si ça pose problème.
 
J'ai monté un PC milieu de gamme pour le fils de ma compagne. A base d'AMD 5 5500 et d'une 3060Ti, écran 1080p 60hz.  
 
Il joue à fortnite.  
 
J'ai mis le setup du jeu au max. Je m'attendais à ce que la 3060ti tienne le 60 fps constant, mais il y a de gros drop à 10/15fps. C'est injouable.  
 
Est-ce que je peux effectivement m'attendre à du 60fps ou alors la 3060ti est trop juste ?  
 
J'ai tenté un baissant certains paramètres de epic à high, mais même résultat.  
 
Question bonus: je n'ai pas trouvé l'option dlss dans les paramètres [:transparency]
 
edit: je suspecte un problème de configuration ou de mauvais port PCi. Mais je ne peux pas vérifier avant dimanche.
 
edit2: en regardant le manuel de la carte mère (B550m-a wifi 2), il n'y a qu'un seul port pci. Donc mauvaise hypothèse.


 
désactive lumen et nanite ça devrais aller mieux.

Message cité 1 fois
Message édité par oufouf84 le 09-08-2023 à 17:34:08
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1858  1859  1860  ..  1883  1884  1885  1886  1887  1888

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)