Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1786 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1655  1656  1657  ..  1878  1879  1880  1881  1882  1883
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°11025881
ze_snake
Posté le 21-07-2021 à 21:28:40  profilanswer
 

Reprise du message précédent :

Umi a écrit :

J'ai décidément  la poisse avec AB, j'ai lancé OC Scanner (je suppose que c'est comme ça que vous déterminez les possibilités d'UV et d'OC ?) et ça m'a à moitié planté l'affichage, obligé de fermer la session...
 
Je n'ose pas trop le relancer du coup.
 
Vous avez un tuto ou autre pour l'UV d’une 3070 ?


 
 
nop:
 
Tu peux utiliser msi after burner pour te faire une courbe mhz/mv, page 1647 j'avais demandé des conseils tu peux regarder, un des posts :  
 

Pierroleloup a écrit :


 
Tu peux lancer un test style unigine, ou bright memory avec un overlay (CapFrameX marche bien) qui affiche la fréquence, et voir après quelques minutes à qu'elle fréquence ton gpu se stabilise (admettons pour l'exemple que ça fait 1900Mhz)
 
Ensuite tu affiche la courbe de voltage dans AB, tu trouve le point qui correspond à cette fréquence et tu regarde à combien de mV ça correspond
mettons que tu as 1900Mhz à 1000mV, tu va alors essayer d'enlever 100mV pour avoir 1900Mhz à 900mV.  
Tu baisse toute la courbe de façon a ce qu'aucun points ne dépasse 1900Mhz (shift+clic sur un point et tu baisse)
Puis tu trouves le point qui correspond à un voltage de 900mV et tu le monte à 1900 Mhz
Tu valides et tu testes, et après tu vois si tu peux encore baisser
 
 

mood
Publicité
Posté le 21-07-2021 à 21:28:40  profilanswer
 

n°11025882
Winpoks
Posté le 21-07-2021 à 21:30:40  profilanswer
 

Umi a écrit :

J'ai décidément  la poisse avec AB, j'ai lancé OC Scanner (je suppose que c'est comme ça que vous déterminez les possibilités d'UV et d'OC ?) et ça m'a à moitié planté l'affichage, obligé de fermer la session...
 
Je n'ose pas trop le relancer du coup.
 
Vous avez un tuto ou autre pour l'UV d’une 3070 ?


 
T’as un sujet UV pour la génération Ampère avec quelques messages explicatifs.  
https://forum.hardware.fr/hfr/Overc [...] m#t2558583

n°11025885
Umi
Posté le 21-07-2021 à 21:32:46  profilanswer
 
n°11025893
wgromit
BG3 GOTY 2023! Bravo Larian
Posté le 21-07-2021 à 21:45:51  profilanswer
 

Bonsoir,
 
Juste une mise en garde pour les possesseurs d'une RTX 3090 et si vous jouez au jeu Amazon New World en beta, il y a un risque élevé de griller la carte visiblement, surtout si vous avez une EVGA RTX 3090 FTW3 Ultra.
 
Voir le forum officiel du jeu New World:
https://forums.newworld.com/t/issue [...] tra/112757
 
Une vidéo Youtube (JayzTwoCents) :
https://www.youtube.com/watch?v=KLyNFrKyG74
 
Et depuis quelques heures, cela semble faire un gros buzz sur la toile (faites une recherche sous Google par ex).
 
Mea culpa si ce problème a déjà été remonté.


Message édité par wgromit le 21-07-2021 à 21:54:47
n°11025894
Umi
Posté le 21-07-2021 à 21:50:20  profilanswer
 
n°11025895
wgromit
BG3 GOTY 2023! Bravo Larian
Posté le 21-07-2021 à 21:57:19  profilanswer
 

Umi a écrit :

Il l'a déjà été en effet.


En effet, j'en ai retrouvé un dans le Topic "Drop"
 
https://forum.hardware.fr/hfr/Hardw [...] #t11025863
 
Une autre video dans le vif du sujet :  
https://www.youtube.com/watch?v=n6sYOqPPTN0

Message cité 1 fois
Message édité par wgromit le 21-07-2021 à 22:03:24
n°11025896
Kroma X am​orK
Angel's demon
Posté le 21-07-2021 à 22:05:49  profilanswer
 

2500$ qui couic pour un jeu même pas super beau en en plus. :o :lol:

Message cité 1 fois
Message édité par Kroma X amorK le 21-07-2021 à 22:06:05

---------------
Il y a la loi et il y a...le bien.
n°11025900
Umi
Posté le 21-07-2021 à 22:15:56  profilanswer
 
n°11025910
AllenMadis​on
Posté le 21-07-2021 à 22:58:55  profilanswer
 

Kroma X amorK a écrit :

2500$ qui couic pour un jeu même pas super beau en en plus. :o :lol:

 

Je sais pas ce qu'ils ont branlé evga sur leurs cartes mais ça fait la 2e fois qu'un jeu fait cramer les evga

 

D'abord gta online, maintenant new world... Va falloir faire un post d'utilité publique en FP disant d'éviter les EVGA :o Heureusement que leur sav est béton mais ils doivent perdre énormément de $$

Message cité 1 fois
Message édité par AllenMadison le 21-07-2021 à 22:59:17
n°11025920
n0name
Etat nounou, Etat soeur.
Posté le 22-07-2021 à 00:16:41  profilanswer
 

AllenMadison a écrit :

 

Je sais pas ce qu'ils ont branlé evga sur leurs cartes mais ça fait la 2e fois qu'un jeu fait cramer les evga

 

D'abord gta online, maintenant new world... Va falloir faire un post d'utilité publique en FP disant d'éviter les EVGA :o Heureusement que leur sav est béton mais ils doivent perdre énormément de $$

 


Les 3090 seulement


---------------
Mes ventes: https://forum.hardware.fr/forum2.ph [...] 851&page=1
mood
Publicité
Posté le 22-07-2021 à 00:16:41  profilanswer
 

n°11025921
glun
En route pour la Super Glun!
Posté le 22-07-2021 à 00:19:02  profilanswer
 

Alors qu'on me dit ailleurs que evga est sûrement parmi les best (encore) sur les 3080. Ti et 3090...  :sweat:


---------------
[Mon topic Achats-ventes Général]
n°11025922
AllenMadis​on
Posté le 22-07-2021 à 00:40:55  profilanswer
 

n0name a écrit :


 
 
Les 3090 seulement


 
J'ai cru lire que des 3080 avaient aussi cramey :o

n°11025923
Profil sup​primé
Posté le 22-07-2021 à 00:51:33  answer
 

Si c'est pas encore un fake, c'est moche ...

n°11025925
zouaf
Posté le 22-07-2021 à 01:20:42  profilanswer
 

AllenMadison a écrit :


 
J'ai cru lire que des 3080 avaient aussi cramey :o


 
Oui, oui, il y en a eu sur ce topic :sweat:  
 
Quand tu vois qu'il délaisse le marché européen pour les Etats-Unis...
Il ferme tous les sav en europe.
Bientôt ta carte, elle partira direct à Taiwan pour l'échange sav, j'imagine même pas les délais.
https://overclocking.com/le-site-of [...] cest-fini/
 


Message édité par zouaf le 22-07-2021 à 01:22:08
n°11025927
AllenMadis​on
Posté le 22-07-2021 à 01:37:46  profilanswer
 

Citation :

Tho most affected are EVGA 3090’s i can confirm that this is NOT EVGA or 3090 only issue.
 
Im running the game on Ryzen 2700x, Samsung nvme drive, 16Gig CL15 @3200 and Gigabyte 2080s GAMING OC. Everything is working on default frequencies, chipset and GPU drivers (RTX 471.41) are up to date (both checked yesterday morning prior to release).
 
Tho everything worked fine on Very High when i tested it, the game is set on High-Medium ingame settings as i don’t see the reason to bully my system with game which is in Beta.
 
ONLY non-microsoft background process that was running was Voicemeeter. (this is important to support representatives since they are sending links to Microsoft articles on how to see and disable background processes because memory leaks are not real and its not whats happening).
 
I had several hard freezes following by black screens and BSoD’s.
Luckily every time my PC recovered fine.


 
Même les séries 2000 sont touchées
 
Faut éviter ce jeu donc.

n°11025928
Profil sup​primé
Posté le 22-07-2021 à 01:48:40  answer
 

Non mais qu'un jeu fasse planter une carte, c'est le problème du jeu bien sûr :o ..
Sérieusement, vous y croyez, vous ??!
N'y aurait-il pas autre chose, comme une coïncidence, volonté quelconque de ne pas influencer les joueurs parce que c'est un jeu fait pas google, vendre d'autres cartes (plus pour moins cher que des 3090 qui ne partent pas) etc.
Car on avait vu la même chose a propos de cyperpunk sauf c'était bien les cartes qui avaient un souci et que "bizarrement", le jeu n'était pas au point
En clair : ça pourrait arriver avec n'importe quel jeu simplement new world a besoin de licences aussi (eh oui, une mauvaise publicité sur la mauvaise hypothétique qualité des 3090 fait tout de même parler du jeu) :D
Je ne crois plus en grand chose de fiable dans ce monde, principalement dans celui du jeu vidéo, jamais avare de $$$$$
Ne pas oublier qu'on s'est, nous humains, fait les spécialistes des algorithmes et des IA calculent tout et n'importe quoi
Des prévisions de l'impact de telle ou telle pseudo information sur les $$$$$ possiblement gagnés par telle(s) ou telle(s) compagnie(s) sont largement envisageables

Spoiler :

Ceci n'est pas un complot :na:

Message cité 1 fois
Message édité par Profil supprimé le 22-07-2021 à 01:58:19
n°11025929
olioops
Si jeune et déjà mabuse.
Posté le 22-07-2021 à 02:12:25  profilanswer
 


[:popol]

 

Je crois plus que si tu débarques chez ces gars ...tu te demandes comment la baraque n'a pas encore explosée [:jean risitasse:3]


Message édité par olioops le 22-07-2021 à 02:13:35

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11025930
ganon304
Posté le 22-07-2021 à 05:21:57  profilanswer
 

Le problème est connu, ici meme plusieurs personnes ont eu leurs evga 3090 cramé en lançant différent jeux., Evga a corrigé le problème vu que celle toujours mis en défaut n’est plus en vente et a été remplacé par un modèle « OC  » 


Message édité par ganon304 le 22-07-2021 à 05:22:18

---------------
Mon topique achat/vente: http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°11025933
wgromit
BG3 GOTY 2023! Bravo Larian
Posté le 22-07-2021 à 06:57:16  profilanswer
 

En tout cas, je ne sais pas si vous avez déjà pu le vérifier avec vos cartes RTX 3000, mais en lançant par exemple HWinfo et un jeu en même temps, il y a quand même de très grosses variations sur la puissance (donc surement le courant).
 
Et cela doit sûrement mettre à rude épreuve l'étage d'alimentation de la carte vidéo et aussi l'alimentation elle-même.
 
Et justement ces grosses variations ont souvent lieu quand par exemple le jeu passe d'un écran de chargement (2D) au rendu 3D ensuite. Ce qui sur le principe peut être normal.
 
Toutefois quand j'avais ma précédente carte, une GTX 980 Ti, il y avait certes des variations mais avec des amplitudes plus faibles.
 
Or aujourd'hui les RTX 3000, notamment 3080, 3080 Ti et 3090 demandent une puissance (en W) bien au-dessus des générations précédentes. Ce qui accentuent sûrement aussi ces amplitudes.
 
Donc si le constructeur de la carte vidéo a mis des composants en carton, notamment sur l'étage d'alimentation, ou a voulu gardé une conception proche de la génération précédente, pas trop étonnant d'avoir ces soucis. Non ?
 
Les cartes faites par nVidia (FE) ont des VRM qui peuvent supporter des charges largement au dessus de la puissance annoncée. Peut-être une raison ?

Message cité 1 fois
Message édité par wgromit le 22-07-2021 à 07:03:05
n°11025942
jujuf1
Je suis un chat
Posté le 22-07-2021 à 08:14:06  profilanswer
 

wgromit a écrit :

En tout cas, je ne sais pas si vous avez déjà pu le vérifier avec vos cartes RTX 3000, mais en lançant par exemple HWinfo et un jeu en même temps, il y a quand même de très grosses variations sur la puissance (donc surement le courant).
 
Et cela doit sûrement mettre à rude épreuve l'étage d'alimentation de la carte vidéo et aussi l'alimentation elle-même.
 
Et justement ces grosses variations ont souvent lieu quand par exemple le jeu passe d'un écran de chargement (2D) au rendu 3D ensuite. Ce qui sur le principe peut être normal.
 
Toutefois quand j'avais ma précédente carte, une GTX 980 Ti, il y avait certes des variations mais avec des amplitudes plus faibles.
 
Or aujourd'hui les RTX 3000, notamment 3080, 3080 Ti et 3090 demandent une puissance (en W) bien au-dessus des générations précédentes. Ce qui accentuent sûrement aussi ces amplitudes.
 
Donc si le constructeur de la carte vidéo a mis des composants en carton, notamment sur l'étage d'alimentation, ou a voulu gardé une conception proche de la génération précédente, pas trop étonnant d'avoir ces soucis. Non ?
 
Les cartes faites par nVidia (FE) ont des VRM qui peuvent supporter des charges largement au dessus de la puissance annoncée. Peut-être une raison ?


Y’a qu’à undervolter et plus de problèmes …a priori : il me semble que ça évite les pics …

n°11025944
Miky 2001
N'y pense même pas !!!
Posté le 22-07-2021 à 08:23:38  profilanswer
 

En effet avec un bon UV bcp moins de variations.
 
Par defaut, si la temp n’est pas encore haute la carte va aller chercher un point très haut dans sa courbe fréquence/tension. Puis rapidement baisser sur un point de plus en plus bas jusqu’à se stabiliser plus ou moins suivant les variations de charge.
 
Mais au démarage d’une appli 3D quand la carte est encore « fraîche » ce point sera très haut d’où un pic de conso important qui pdt un bref instant va dépasser le power limite de la carte.
 
Avec un UV tu limite de base cette monté en ayant fixé ton couple fréquence/tension max.

n°11025948
wgromit
BG3 GOTY 2023! Bravo Larian
Posté le 22-07-2021 à 08:33:49  profilanswer
 

L'UV est uniquement logiciel ? (MSI Afterburner)
Ou les données modifiées sont enregistrées dans le Bios de la carte video ?
 
Si uniquement logiciel, pas sur que cela protège à 100% la carte car possible que des micro pics passent tout de même, qu'on ne voit pas nécessairement sous HWInfo car il rafraichit les données selon une période qui peut être trop élevée.
 
Il me semble avoir lu sur le forum du jeu New World (ou redit) que justement un gars avait quand même grillé sa carte alors qu'il l'avait UV.

[EDIT]

J'ai retrouvé 2 posts:
 
https://forums.newworld.com/t/issue [...] /112757/33
https://forums.newworld.com/t/issue [...] /112757/44
 
Apparemment, le jeu "court-circuite" les réglages faits par MSI Afterburner.
C'est pourquoi j'avais posé une problématique si les modifications faites par MSI Afterburner n'étaient QUE logicielles.
 
Et visiblement, l'UV ne règle pas le problème et/ou ne protège pas plus la carte, du moins, d'après leurs dires.
[/EDIT]


Message édité par wgromit le 22-07-2021 à 10:47:10
n°11025950
wgromit
BG3 GOTY 2023! Bravo Larian
Posté le 22-07-2021 à 08:35:22  profilanswer
 

Miky 2001 a écrit :

En effet avec un bon UV bcp moins de variations.
 
Par defaut, si la temp n’est pas encore haute la carte va aller chercher un point très haut dans sa courbe fréquence/tension. Puis rapidement baisser sur un point de plus en plus bas jusqu’à se stabiliser plus ou moins suivant les variations de charge.
 
Mais au démarage d’une appli 3D quand la carte est encore « fraîche » ce point sera très haut d’où un pic de conso important qui pdt un bref instant va dépasser le power limite de la carte.
 
Avec un UV tu limite de base cette monté en ayant fixé ton couple fréquence/tension max.


Moins de variations ou uniquement des amplitudes plus faibles (ce qui serait logique pour ce cas car puissance admise plus faible) ?

n°11025952
wgromit
BG3 GOTY 2023! Bravo Larian
Posté le 22-07-2021 à 08:45:07  profilanswer
 

Miky 2001 a écrit :

En effet avec un bon UV bcp moins de variations.
 
Par defaut, si la temp n’est pas encore haute la carte va aller chercher un point très haut dans sa courbe fréquence/tension. Puis rapidement baisser sur un point de plus en plus bas jusqu’à se stabiliser plus ou moins suivant les variations de charge.
 
Mais au démarage d’une appli 3D quand la carte est encore « fraîche » ce point sera très haut d’où un pic de conso important qui pdt un bref instant va dépasser le power limite de la carte.
 
Avec un UV tu limite de base cette monté en ayant fixé ton couple fréquence/tension max.


Et pour le courant, cela se passe comment ?
Car c'est souvent lui le problème.
 
Si on ne peut régler que la tension sans pouvoir limiter la puissance, alors méfiance sur le courant.
Car si on diminue la tension et qu'on laisse une puissance admise identique, on risque d'augmenter le courant, non ?
 
En résumé, quand on UV la carte on modifie la tension, si je comprends bien, mais est-ce qu'on modifie aussi la puissance admise ? Ou c'est le logiciel qui le fait tout seul ?
 
Je pense avoir compris qu'une fois la tension max diminuée, la carte consomme moins en "moyenne" mais est-ce vrai aussi lors de fortes charges ponctuelles ? Et est-ce que cela diminue le nombre des variations de la puissance (une sorte de lissage) et/ou l'amplitude des variations ?
 
[EDIT]
Une autre chose où on peut aussi s'interroger, c'est sur la rapidité des variations de la puissance du GPU RTX 3000 face aux autres générations. Il n'y a peut-être pas qu'un problème d'amplitude.
 
Justement quel est le rôle des condensateurs qui se trouvent au dos du GPU ?
La "fameuse" affaire des condensateurs MLCC/Popcaps qui finalement semblait être un "faux" problème.
Mais est-ce sur ?
 
Car certains constructeurs (Gigabyte, Zotac, pour ne citer qu'eux) ont fait des nouvelles révisions de leurs cartes en changeant justement certains de ces condensateurs.  
 
Ce n'est pas le rôle de ces condensateurs d'"amortir" les pics de consommations ? (question, pas une affirmation).
 
Juste toutefois une remarque, les constructeurs qui ont changé ces condensateurs utilisent maintenant, dans la majorité, le design fait par NVidia sur ses FE (4 popcaps + 2 mlcc). Donc si certaines RTX crament et aucunes FE, alors ce n'est pas qu'un souci de condensateurs mais potentiellement plus un souci sur le choix des VRM utilisés.
 
Donc il ne suffit peut-être pas de modifier qu'uniquement ces condensateurs, il faut aussi peut-être revoir l'étage d'alimentation (VRM). Est-ce que justement ces constructeurs qui ont changé ces condensateurs ont aussi mis à jour l'étage d'alimentation si sous dimensionné ? Pas si sur.
 
Une petite video sur un comparatif de quelques RTX 3090, et notamment sur le choix des VRM fait par les constructeurs:
https://www.youtube.com/watch?v=IyS5Fa5w34E&t=674s (lire vers 0min50).
On peut voir que nVidia a choisi des VRM pouvant supporter jusqu'à 70A pour une puissance totale de 1120W !!!
Alors que la carte est annoncée consommer "que" 350 W.
 
En revanche, ne pas tenir compte, dans la video, des condensateurs car cela a changé pour certains constructeurs depuis la mise en ligne de la vidéo.
[/EDIT]


Message édité par wgromit le 22-07-2021 à 09:42:32
n°11025953
katset
Marcel Poutre
Posté le 22-07-2021 à 08:53:17  profilanswer
 

Hello  :hello:
Dites, ça vous semble OK une alimentation 530w pour un 7700k et une 3060ti?  [:clooney11]
Merci :)

n°11025954
ben shinob​i
Posté le 22-07-2021 à 09:03:34  profilanswer
 

katset a écrit :

Hello  :hello:  
Dites, ça vous semble OK une alimentation 530w pour un 7700k et une 3060ti?  [:clooney11]  
Merci :)


 
mouef. Certains te diront "ça passe large", d'autres te diront ouai mais les 50%. Alors petit calcul...200 watts pour la ti, 150 watts pour le 7700k...Sans compter le reste...Tbh, 650 watts ça serait mieux, pour absorber les peaks, pour etre dans la zone de rentabilité max, pour que ton PSU ne chauffe pas et donc reste en mode fanless/silent, pour l'évolutivité etc...Mon avis. :jap:.
 
s'il y a bien un point où il est préférable systématiquement d'overkiller un chouilla, c'est l'alim.
 
Et prends pas de la merde. Tape dans le Seasonic, be quiet, corsair...et du gold mini.

Message cité 1 fois
Message édité par ben shinobi le 22-07-2021 à 09:08:31
n°11025966
Miky 2001
N'y pense même pas !!!
Posté le 22-07-2021 à 09:26:11  profilanswer
 

- le courant est induit et dépendant du fonctionnement de la carte. Ce n’est pas un paramètre réglé par la carte ou indirectement par la tension, fréquence et limite de conso.
 
- UV c’est logiciel.
 
- micro-pics : je ne sais pas... peut être... rien dans les mesures ne l’indique... mais pour te donner un retour que j’ai pu avoir : 3060ti jamais de plantage avec ou sans UV avec une alim de 460w. Passage à une 3070 et un plantage lié à l’alim avec UV jamais rien eu...
 
Les test de igorslab sont top sur l’analyse de conso
 
https://www.igorslab.de/en/nvidia-g [...] -small/12/


Message édité par Miky 2001 le 22-07-2021 à 09:29:12
n°11025971
Umi
Posté le 22-07-2021 à 09:40:52  profilanswer
 

katset a écrit :

Hello :hello:
Dites, ça vous semble OK une alimentation 530w pour un 7700k et une 3060ti? [:clooney11]
Merci :)


Si c'est une bonne alimentation oui, largement.
Le CPU c'est 100w max et la CG 200W, on va compter 100w pour tout le reste (c'est large), on arrive à 400w.

 

Je tourne avec une 550w et j'ai un 9900k (180w) et une 3070 (230w).


---------------
Veillez donc et priez en tout temps, afin que vous ayez la force d'échapper à toutes ces choses qui arriveront, et de paraître debout devant le Fils de l'homme.
n°11025972
Umi
Posté le 22-07-2021 à 09:42:25  profilanswer
 

ben shinobi a écrit :

 

mouef. Certains te diront "ça passe large", d'autres te diront ouai mais les 50%. Alors petit calcul...200 watts pour la ti, 150 watts pour le 7700k...Sans compter le reste...Tbh, 650 watts ça serait mieux, pour absorber les peaks, pour etre dans la zone de rentabilité max, pour que ton PSU ne chauffe pas et donc reste en mode fanless/silent, pour l'évolutivité etc...Mon avis. :jap:.

 

s'il y a bien un point où il est préférable systématiquement d'overkiller un chouilla, c'est l'alim.

 

Et prends pas de la merde. Tape dans le Seasonic, be quiet, corsair...et du gold mini.


Je sais pas où tu as vu que le 7700k consommait 150w, son TDP c'est 95w.

 


---------------
Veillez donc et priez en tout temps, afin que vous ayez la force d'échapper à toutes ces choses qui arriveront, et de paraître debout devant le Fils de l'homme.
n°11025973
ben shinob​i
Posté le 22-07-2021 à 09:45:06  profilanswer
 

Umi a écrit :


Je sais pas où tu as vu que le 7700k consommait 150w, son TDP c'est 95w.
 


https://www.cowcotland.com/articles [...] 7700k.html
ah pardon c'est 151  @ 4.4ghz :o.
SAchant que tout le monde le pousse entre 4.5 et 5ghz ...Après @stock visiblement c'est 125 watts.
 
https://www.cowcotland.com/images/test/intel/7700K/ConsommationFULL.jpg


Message édité par ben shinobi le 22-07-2021 à 09:48:11
n°11025974
jujuf1
Je suis un chat
Posté le 22-07-2021 à 09:46:39  profilanswer
 

Le TDP ne veut rien dire.

n°11025979
jujuf1
Je suis un chat
Posté le 22-07-2021 à 09:57:20  profilanswer
 

toupidoup a écrit :


 
 
Je me demande comment ils arrivent à tirer 151w sur un 7700k... sur un 8700k à 5.1GHz sur tous les cores je suis à 120W max... :??:


Tu délires.

n°11025982
ben shinob​i
Posté le 22-07-2021 à 10:00:12  profilanswer
 

toupidoup a écrit :


 
 
Je me demande comment ils arrivent à tirer 151w sur un 7700k... sur un 8700k à 5.1GHz sur tous les cores je suis à 120W max... :??:


j'ai poussé une fois mon 9900k @5.2, je devais être à +200 watts facile...SAchant qu'il accepte 225 watts en "toute sécurité" et que tu peux même faire péter la limite.


Message édité par ben shinobi le 22-07-2021 à 10:00:25
n°11025984
ben shinob​i
Posté le 22-07-2021 à 10:04:27  profilanswer
 

toupidoup a écrit :


 
Euh non... Mais puisque t'as l'air de mieux savoir que mon alim (nzxt e850) ce qu'elle envoit au CPU je t'en prie... Eclaire nous de ta conaissance infinie (comme ta c******** visiblement...)
 
Je prends pas mes mesures sur hwmonitor moi :o


https://img.conseil-config.com/2017/10/Intel_i7_8700K_OC_consommation.png
@5.1ghz tu est à 194 watts.
 :o  
https://www.conseil-config.com/2017 [...] 7-8700k/4/
 
t'es à 141 à stock.
 
Avant d'insulter les autres forumeurs, apprends à te servir de ton matos de monitoring.

Message cité 1 fois
Message édité par ben shinobi le 22-07-2021 à 10:05:36
n°11025988
ben shinob​i
Posté le 22-07-2021 à 10:06:10  profilanswer
 

toupidoup a écrit :


 
Je t'en prie, écris à NZXT et dis leur que leurs alims savent pas prendre de mesures :o


Non, c'est juste toi qui comprend rien, je te rassure. :o

n°11025990
ben shinob​i
Posté le 22-07-2021 à 10:08:54  profilanswer
 

toupidoup a écrit :


 
Ah bah oui, j'ai mal lu la section CPU de leur logiciel :o merci monsieur le professeur. ah non, c'est bien marqué 120... zut, dommage.
 
 
Bref, 530W c'est largement suffisant.


Non mais tous les tests sur le net disent la même chose, et ils utilisent aussi des multimètres. Tu ne comprends juste rien. Alors ne sois pas aussi arrogant, tu te ridiculises là.


Message édité par ben shinobi le 22-07-2021 à 10:36:46
n°11025994
ben shinob​i
Posté le 22-07-2021 à 10:11:37  profilanswer
 

toupidoup a écrit :


 
Relis avec le doigt, je compte pas la mesure à la prise mais la mesure réelle. Garde tes conseils pour toi. Merci


relis les tests, avec deux doigts s'il le faut tu comprendras. Bref. perte de temps :fou:

n°11025997
WiiDS
20 titres en GC, 0 abandon, 0 DQ
Posté le 22-07-2021 à 10:32:32  profilanswer
 

Umi a écrit :


Je sais pas où tu as vu que le 7700k consommait 150w, son TDP c'est 95w.

 



Ca fait bien longtemps que TDP != consommation max


Message édité par WiiDS le 22-07-2021 à 10:32:41

---------------
"I can cry like Roger. It's just a shame I can't play like him" - Andy Murray, 2010
n°11026002
Umi
Posté le 22-07-2021 à 10:46:00  profilanswer
 
n°11026006
ben shinob​i
Posté le 22-07-2021 à 10:50:54  profilanswer
 

Umi a écrit :

Bref.
530w pour cette configuration ça passe.


large  :o.
Plus sérieusement, ça va tourner, ça va marcher, mais ton bloc d'alim va être sollicité en charge, et très sollicité en peak. Donc il va chauffer, donc la ventilation va tourner à fond, donc ton bloc durera 3 ou 4 ans au lieu de 7 ou 10. Et tu ne pourras pas faire évoluer ta config. Accessoirement, tu paieras 10-20 euros de plus d’électricité par an. Et tu seras probablement contraint de racheter un bloc car tu l'auras rincé.
 
Si tu sais que tu vas le jeter (ton bloc), d'ici 3 ou 4 ans, et que tu joues au casque, ça se tient  :o
 
Economiquement parlant, c'est complètement claqué au sol, ce que tu économises d'un coté à l'achat, tu le perds en x2 sur la durée.
Have fun  :hello:


Message édité par ben shinobi le 22-07-2021 à 11:00:03
n°11026010
Valaint671​30
Y'a pas d'heure pour le rock
Posté le 22-07-2021 à 10:55:20  profilanswer
 

Umi a écrit :

Bref.
530w pour cette configuration ça passe.


 
+1


Message édité par Valaint67130 le 22-07-2021 à 10:55:49

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1655  1656  1657  ..  1878  1879  1880  1881  1882  1883

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR