Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2591 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  787  788  789  ..  803  804  805  806  807  808
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11382262
shadrap
Posté le 25-12-2024 à 12:35:10  profilanswer
 

Reprise du message précédent :

golgota333 a écrit :

Bonjour,
 
Je possède depuis plusieurs mois une Nvidia rtx 4080 super FE. J'utilise l'overclocking automatique de l'application Nvidia qui me donne un cœur de +165 MHz et une mémoire de +200 MHz. Avec msi afterburner, j'ai poussé la mémoire à + 1026 MHz (J'ai pas testé le max ni l'oc du GPU). Sur msi Kombustor ça semble tenir. La mémoire est donc à 1566 MHz ce qui donne une bande passante de 801,8 Go/sec. Est-ce sans danger ? y' a t-il un risque pour la la mémoire ?
 
Merci.


 
Très interessant. Si les températures affichées sur HWInfo sont plus que corrects alors je dirais que c’est sans risque. Toujours sur HWInfo, regarder // comparer les tensions du SOC.
Mais si les température Sont corrects alors je vois pas trop le risque. Un composant électronique, de manière générale, les points à surveiller sont les températures et les tensions.
Par contre, in-game ça donne quoi ? Le gain est-il présent ? C’est là le nerf de la guerre. Si c’est pour gratter 1% alors c’est pas la peine excepté pour le côté « sportif » de la chose.  :hello:

mood
Publicité
Posté le 25-12-2024 à 12:35:10  profilanswer
 

n°11382342
golgota333
Posté le 25-12-2024 à 20:31:34  profilanswer
 

shadrap a écrit :


 
Très interessant. Si les températures affichées sur HWInfo sont plus que corrects alors je dirais que c’est sans risque. Toujours sur HWInfo, regarder // comparer les tensions du SOC.
Mais si les température Sont corrects alors je vois pas trop le risque. Un composant électronique, de manière générale, les points à surveiller sont les températures et les tensions.
Par contre, in-game ça donne quoi ? Le gain est-il présent ? C’est là le nerf de la guerre. Si c’est pour gratter 1% alors c’est pas la peine excepté pour le côté « sportif » de la chose.  :hello:


 
Salut ,
avec MSI Kombustor en stress test tesselation x32 aprés 15 minutes GPU à 2850 mhz mémoire à 1566 mhz.
Température GPU à 325 watts max 76 degrés , température mémoire  max 64 degrés.Par contre température hotspot un peu HOT :p stabilisation à 90 degrés.
Mais c'est un stresst test sollicitant beaucoup le GPU. En jeux sur Wow War Within, Dragon age veilguard, Warhammer 40K , la température de la mémoire est comme celle affichée sur le stress test soit 60 -64 degrés max.Par contre la température du gpu 65 degrés max pour un hot spot beaucoup plus bas 70 - 73 degrés max.
 
Pour les performances ? sur Dragon age Veilguard. Je ne constate pas de différence.Avec gpu à 2850 mhz et mémoire à 1566 mhz, j’étais à environ 170-175 fps
Avec la mémoire à «seulement» 1463 mhz.Le nombre d'ims/sec est plus ou moins équivalent environ 170  -175fps. Après ,Il faudrait un test plus précis ,du type 3Dmark.
Quoiqu'il en soit , Les 50 go/sec en plus de bande passante , semble ne rien apporter en terme de performance.
 
Je vais donc remettre au paramètre d'overcloking de l'app Nvidia.  ;)


---------------
«On ne comprend absolument rien à la civilisation moderne si l'on n'admet pas d'abord qu'elle est une conspiration universelle contre toute espèce de vie intérieure.» Georges Bernanos
n°11382356
uNReaLx77
üNReaL
Posté le 25-12-2024 à 20:49:23  profilanswer
 

Tu devrais pouvoir monter le core plus que ca... 2900 3000.
 
Mais bon à stock c'est pareil hein...

Message cité 1 fois
Message édité par uNReaLx77 le 25-12-2024 à 21:10:35
n°11382360
worm'skill​er
Le roi de la petit côte
Posté le 25-12-2024 à 20:54:15  profilanswer
 

galtheon a écrit :

Aux possesseurs de 4090. Vous êtes à combien de FPS sur Indiana Jones en 4K ? En mettant vos réglages.
Si je mets tout à fond, RT à fond aussi je tourne aux alentours de 45FPS sans DLSS. Et avec DLSS qualité plus génération d'images je dois être aux alentours de 75-80 FPS.
Je voulais juste savoir si c'était dans les normales


 

DVN a écrit :

Idem chez moi sans DLSS TAF 4K RT à la fontaine du Vatican :
https://i.imgur.com/VOdWrXk.png
 
Par contre DLSS Q + FG même réglages, j'ai plus ici et même plus dans des endroits plus fermés :
https://i.imgur.com/YHXvN8R.png
 
C'est surtout au niveau des cinématiques que ça chute autour de 60.


 
 
pareil, c'est le premier jeu où tout à fond je suis obligé d'activer le DLSS FG. je tourne à 115 fps en 4k.


---------------
"le prix passe, la qualité reste"
n°11382551
golgota333
Posté le 26-12-2024 à 16:18:37  profilanswer
 

uNReaLx77 a écrit :

Tu devrais pouvoir monter le core plus que ca... 2900 3000.
 
Mais bon à stock c'est pareil hein...


 
Pour le GPU 2.9 ghz ça passe voir 3000 mhz pile-poil   !. Au delà ça plante.On dirait qu'elles sont bridées dans les pilotes pour ne pas dépasser les 3000 mhz  :whistle:  
Les rtx 5080 en gravure 3nm à n'en pas douter dépasseront facilement les 3.2 ghz en boost.


---------------
«On ne comprend absolument rien à la civilisation moderne si l'on n'admet pas d'abord qu'elle est une conspiration universelle contre toute espèce de vie intérieure.» Georges Bernanos
n°11382552
havoc_28
Posté le 26-12-2024 à 16:23:21  profilanswer
 

golgota333 a écrit :


 
Pour le GPU 2.9 ghz ça passe voir 3000 mhz pile-poil   !. Au delà ça plante.On dirait qu'elles sont bridées dans les pilotes pour ne pas dépasser les 3000 mhz  :whistle:  
Les rtx 5080 en gravure 3nm à n'en pas douter dépasseront facilement les 3.2 ghz en boost.


 
Les RTX 5080 en 3 nm ?
Aux dernières nouvelles on reste sur la famille 5/4nm de TSMC.

n°11382554
uNReaLx77
üNReaL
Posté le 26-12-2024 à 16:32:03  profilanswer
 

golgota333 a écrit :


 
Pour le GPU 2.9 ghz ça passe voir 3000 mhz pile-poil   !. Au delà ça plante.On dirait qu'elles sont bridées dans les pilotes pour ne pas dépasser les 3000 mhz  :whistle:  
Les rtx 5080 en gravure 3nm à n'en pas douter dépasseront facilement les 3.2 ghz en boost.


Nonon c'est pas bridés... certaines passent les 3000..

n°11382561
golgota333
Posté le 26-12-2024 à 17:08:18  profilanswer
 

havoc_28 a écrit :


 
Les RTX 5080 en 3 nm ?
Aux dernières nouvelles on reste sur la famille 5/4nm de TSMC.


 
Ah OK , j'avais cru apercevoir qu'elles étaient gravé en 3nm.
Donc si toujours du 4/5nm, ils devront opérer une sélection des samples de silicium pour monter très haut en fréquence au delà des 3.2 ghz pour les 5080.
Car je ne vois pas comment, la 5080 si elle ne monte pas au delà des 3.2 ghz pourra égaler voir surpasser de 10 % la 4090 ?


---------------
«On ne comprend absolument rien à la civilisation moderne si l'on n'admet pas d'abord qu'elle est une conspiration universelle contre toute espèce de vie intérieure.» Georges Bernanos
n°11382562
havoc_28
Posté le 26-12-2024 à 17:10:44  profilanswer
 

golgota333 a écrit :


 
Ah OK , j'avais cru apercevoir qu'elles étaient gravé en 3nm.
Donc si toujours du 4/5nm, ils devront opérer une sélection des samples de silicium pour monter très haut en fréquence au delà des 3.2 ghz pour les 5080.
Car je ne vois pas comment, la 5080 si elle ne monte pas au delà des 3.2 ghz pourra égaler voir surpasser de 10 % la 4090 ?


 
Les rumeurs qui parlent d'une 5080 > 4090 c'est les moins réalistes, on sera plutôt dans les 10% en dessous ou un peu moins.

Message cité 1 fois
Message édité par havoc_28 le 26-12-2024 à 17:13:12
n°11382571
golgota333
Posté le 26-12-2024 à 17:53:43  profilanswer
 

havoc_28 a écrit :


 
Les rumeurs qui parlent d'une 5080 > 4090 c'est les moins réalistes, on sera plutôt dans les 10% en dessous ou un peu moins.


 
Si on est plutôt 10 % en dessous de la 4090.La fameuse Loi de Moore stipulant que la puissance de calcul informatique double tous les deux ans n'est plus valable aujourd’hui.
En 1999 le premier GPU NVIDIA GeForce 256 SDR  était gravé en 220 nanomètre pour une taille du de la puce de 139 mm² , et une densité de 122.3K par mm²  contre 125.3 millions par mm²  (pour la 4090).
Autant dire qu'en 1999 , il y avait encore de la marge de progression.Ce qui n'est plus le cas aujourd’hui,La taille d'un atome est de 0.1 Nanomètre. Les prochains GPU comme vous le dites seront toujours gravés en 4/5nm soit 40-50 fois la taille d'un atome.Pourront-ils descendre en dessous de 4nm ? On atteint les limites physiques ?. La seul option possible ? c'est de toujours multiplier les unités de calcul comme pour la futur 5090 avec 21760 cœurs cuda. Des performances en hausse ? oui ! mais au prix d'une consommation démesurée 500 -600 watts pour une puce d'à peine quelques MM².
 
Donc il ne faudra pas s'attendre à des GPU comme début des années 2000 avec des performances 2 fois, trois fois plus performant par rapport à la génération précédente dans les prochaines années.
À moins de passer à une autre technologie ( quantique, CPU biologique...) mais je n' y crois pas beaucoup.
 


---------------
«On ne comprend absolument rien à la civilisation moderne si l'on n'admet pas d'abord qu'elle est une conspiration universelle contre toute espèce de vie intérieure.» Georges Bernanos
mood
Publicité
Posté le 26-12-2024 à 17:53:43  profilanswer
 

n°11382573
golgota333
Posté le 26-12-2024 à 18:08:56  profilanswer
 

Après pour du jeux vidéo,l’intérêt d'un GPU comme la futur 5090 ?
 
C'est plus une carte qui a sa place dans des serveurs.Pour un usage Professionnel.
 
La 4090 est largement plus que suffisante pour le jeux vidéo.Après si certains veulent se faire plaisir , pour les amoureux de la technologie. Libre à eux !  :D  
Même sur WUKONG , j'ai pu récupérer la démo gratuite et le benchmark tools sur steam. et avec «seulement» une 4080S FE et en «seulement» 1440P certes (Mon écran est max 1440P 240HZ ) mais en setting Ultra , Ray tracing intégral Ultra , j'obtiens une moyenne de 111 fps et c'est très beau !
Donc avec une 4090 même sur wukong , c'est largement jouable en 4k avec DLSS.


---------------
«On ne comprend absolument rien à la civilisation moderne si l'on n'admet pas d'abord qu'elle est une conspiration universelle contre toute espèce de vie intérieure.» Georges Bernanos
n°11382575
wutys
Posté le 26-12-2024 à 18:13:38  profilanswer
 

même dans l'hypothèse où niveau puissance brute les 2 se valent.
La 4090 au moins devrait rester devant sur la mémoire vive par rapport à la 5080, donc certainement rester "plus à l'aise" sur des gros jeu en 4K.


Message édité par wutys le 26-12-2024 à 18:15:37
n°11382576
havoc_28
Posté le 26-12-2024 à 18:16:37  profilanswer
 

golgota333 a écrit :


 
Si on est plutôt 10 % en dessous de la 4090.La fameuse Loi de Moore stipulant que la puissance de calcul informatique double tous les deux ans n'est plus valable aujourd’hui.
En 1999 le premier GPU NVIDIA GeForce 256 SDR  était gravé en 220 nanomètre pour une taille du de la puce de 139 mm² , et une densité de 122.3K par mm²  contre 125.3 millions par mm²  (pour la 4090).


 
Performance ou augmentation du nombre de transistors qui double ?  
 

n°11382583
[Toine]
A la demande générale...
Posté le 26-12-2024 à 18:39:10  profilanswer
 

golgota333 a écrit :


 
Si on est plutôt 10 % en dessous de la 4090.La fameuse Loi de Moore stipulant que la puissance de calcul informatique double tous les deux ans n'est plus valable aujourd’hui.
En 1999 le premier GPU NVIDIA GeForce 256 SDR  était gravé en 220 nanomètre pour une taille du de la puce de 139 mm² , et une densité de 122.3K par mm²  contre 125.3 millions par mm²  (pour la 4090).
Autant dire qu'en 1999 , il y avait encore de la marge de progression.Ce qui n'est plus le cas aujourd’hui,La taille d'un atome est de 0.1 Nanomètre. Les prochains GPU comme vous le dites seront toujours gravés en 4/5nm soit 40-50 fois la taille d'un atome.Pourront-ils descendre en dessous de 4nm ? On atteint les limites physiques ?. La seul option possible ? c'est de toujours multiplier les unités de calcul comme pour la futur 5090 avec 21760 cœurs cuda. Des performances en hausse ? oui ! mais au prix d'une consommation démesurée 500 -600 watts pour une puce d'à peine quelques MM².
 
Donc il ne faudra pas s'attendre à des GPU comme début des années 2000 avec des performances 2 fois, trois fois plus performant par rapport à la génération précédente dans les prochaines années.
À moins de passer à une autre technologie ( quantique, CPU biologique...) mais je n' y crois pas beaucoup.
 


Y a pas besoin de changer la techno pour augmenter les perfs d'un GPU, il suffit d'augmenter sa taille. Certes ça va consommer plus mais en général on arrive à rogner pas mal de Watts en abaissant un peu la fréquence :D


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11382678
golgota333
Posté le 27-12-2024 à 01:40:43  profilanswer
 

havoc_28 a écrit :

 

Performance ou augmentation du nombre de transistors qui double ?

 


 

Augmentation du nombre de transistors , augmentation du nombre des unités de calcul.
Augmentation de la taille de la matrice.Mais ce sera au prix d'une consommation démesurée.La 4090 atteint plus de 450 watts.La 5090 apparemment pourrait consommer 600 watts ?
À priori actuellement les performances sont proportionnel à la puissance consommée ?

 


Citation prise au hasard : «La loi de Moore implique que les ordinateurs deviennent au fil du temps plus petits, plus rapides et moins chers, à mesure que les transistors sur circuits intégrés deviennent plus efficaces»

 

Dans notre vision du futur , on s'attendait à ne voir que des Laptop d'environ 2.5 kg max avec une grande autonomie et surtout une puissance de calcul importante.On ne s'imaginait pas qu'il y aurait en 2024 encore des PC Tours de 15 kg avec des cpus consommant 250 watts, des gpus atteignant les 600 watts avec des alimentations de plus de 1000 watts.
Et surtout des cartes graphiques pesant 2KG ! ça n’était pas dans notre représentation de la technologie du futur.
Demandez à quelqu'un qui ignore tout des semi-conducteurs.Il serait très étonné de voir une carte graphique haut de gamme type 4080,4090,7900xtx. Simplement au regard des dimensions ,du poids de celles-ci et si cette personne est écologiste.Ne lui parlons pas de la consommation énergétique !

 

ça ne ressemble pas à La technologie ultra miniaturisé des films de SF :p

  

Quoiqu'il en soit , L'actuel 4090 mobile a un TDP annoncé de seulement 120 watts ! ( dans les faits 175 watts voir 200W ) mais niveau performance avec ses 9728 shaders , 304 TMU , 112 ROPs.Cette puce mobile est équivalente à une RTX 3080 Desktop ! disposant de 8704 shaders , 272 TMUS , 96 ROPS avec un TDP de 320 watts !

 

Et pour arriver à ce résultat, les fréquences de la 4090 mobile sont nettement inférieures à celle de la 3080. 1335 mhz base 1695 mhz boost pour la 4090 mobile vs 1440 mhz vs 1710 mhz pour la 3080. C'est remarquable ! , il y a 200 watts d’écarts pour les mêmes performance.

 

Mais Pourra t-on voir une puce un jour dans un Laptop aussi puissante qu'une 4090 Desktop ? tout en consommant 120 watts comme l'actuel 4090 mobile ?

 

https://www.techpowerup.com/gpu-spe [...] bile.c3949

 

https://www.techpowerup.com/gpu-spe [...] 3080.c3621

 

La 4090 mobile a une densité de 121.1 m/mm² , la 3080 Desktop 45.1M / mm².Finesse de gravure 5nm vs 8nm.

 

Niveau densité pour les Laptops. Cela peut encore augmenter ? Mais je n'imagine pas une puce mobile Laptop fournissant autant de performance que l'actuel 4090 Desktop   :??:

   


Message cité 1 fois
Message édité par golgota333 le 27-12-2024 à 02:37:47

---------------
«On ne comprend absolument rien à la civilisation moderne si l'on n'admet pas d'abord qu'elle est une conspiration universelle contre toute espèce de vie intérieure.» Georges Bernanos
n°11382685
Miky 2001
N'y pense même pas !!!
Posté le 27-12-2024 à 08:05:24  profilanswer
 

Biensur que la densité va augmenter  :??:  
 
TSMC commence déjà à produire en 2nm et prévoit le 1,6 pour 2026…
 
Je comprend pas ta remarque…
 
Après biensur que l’on va arriver à une limite physique mais on en est pas encore là et d’autres pistes seront alors   utilisées. :jap:

n°11382695
Scrabble
Posté le 27-12-2024 à 09:30:30  profilanswer
 

Miky 2001 a écrit :

Biensur que la densité va augmenter  :??:  
 
TSMC commence déjà à produire en 2nm et prévoit le 1,6 pour 2026…
 
Je comprend pas ta remarque…
 
Après biensur que l’on va arriver à une limite physique mais on en est pas encore là et d’autres pistes seront alors   utilisées. :jap:


Tu est bien optimiste. C'est pas parce que ça s'appelle 1,6 que ça sera tellement plus dense quactuellement. Quand aux autres pistes, elles n'existent pas. On est déjà arrivé à la limite

n°11382708
Miky 2001
N'y pense même pas !!!
Posté le 27-12-2024 à 10:11:16  profilanswer
 

Tu es pessimiste, ça équilibre  ;)  
 
Le 2N c’est annoncé pour 15% de densité en plus que le 3
Et le 1,6, 10% de plus que le 2N
 
La vérité est sûrement entre les 2  :jap:
 
Pour les évolutions futurs même si on est d’accord que c’est pas pour demain, les processeur quantique c’est le futur surtout dans une optique iA
 
Plus proche de nous, les optimisations des processeurs « classique » au niveau des transistors, condensateur, alimentation… vont encore amener bcp de nouveautés


Message édité par Miky 2001 le 27-12-2024 à 10:19:47
n°11382712
Scrabble
Posté le 27-12-2024 à 10:31:25  profilanswer
 

Je ne suis pas sur qu'il y ait un rapport entre IA et ordinateur quantique, c'est des champs d'application différents

n°11382757
Miky 2001
N'y pense même pas !!!
Posté le 27-12-2024 à 13:06:30  profilanswer
 

Scrabble a écrit :

Je ne suis pas sur qu'il y ait un rapport entre IA et ordinateur quantique, c'est des champs d'application différents


Bah si justement  ;)  
Le calcul quantique peut très bien s’imbriquer aux besoins de l’iA.
 
Google parle déjà de quantique IA
 
https://quantumai.google/


Message édité par Miky 2001 le 27-12-2024 à 13:13:58
n°11382760
havoc_28
Posté le 27-12-2024 à 13:12:08  profilanswer
 

golgota333 a écrit :


 
Augmentation du nombre de transistors , augmentation du nombre des unités de calcul.
Augmentation de la taille de la matrice.Mais ce sera au prix d'une consommation démesurée.La 4090 atteint plus de 450 watts.La 5090 apparemment pourrait consommer 600 watts ?
À priori actuellement les performances sont proportionnel à la puissance consommée ?


 
La loi de moore portait uniquement sur le doublement du nombre de transistors tous les deux ans, et après par truchement on doublait aussi soit les performances, la fréquence (ce qui revenait très souvent au même à l'époque) etc mais le cœur de la loi c'est le doublement du nombre de transistor.

n°11382823
Scrabble
Posté le 27-12-2024 à 15:48:51  profilanswer
 

havoc_28 a écrit :


 
La loi de moore portait uniquement sur le doublement du nombre de transistors tous les deux ans, et après par truchement on doublait aussi soit les performances, la fréquence (ce qui revenait très souvent au même à l'époque) etc mais le cœur de la loi c'est le doublement du nombre de transistor.


Doublement du nombre de transistors tous les deux ans, mais à prix constant. Si le prix se met à doubler aussi, on n'est plus dans la loi de Moore. Pendant plus d'une décennie, j'ai pu changer de GPU pour moins de 250 euros tous les deux ans en doublant la VRAM et les perfs. Tout ça c'est fini

n°11382824
havoc_28
Posté le 27-12-2024 à 15:53:11  profilanswer
 

Scrabble a écrit :


Doublement du nombre de transistors tous les deux ans, mais à prix constant. Si le prix se met à doubler aussi, on n'est plus dans la loi de Moore. Pendant plus d'une décennie, j'ai pu changer de GPU pour moins de 250 euros tous les deux ans en doublant la VRAM et les perfs. Tout ça c'est fini


 
Prix constant ? C'est dans ce qui a été énoncé ? :o.  
La prédiction de Moore c'est que tous les deux ans le nombre de transistor doubleraient et que ça serait le cas pour au moins les 10 prochaines années à venir (quand il a fait cet énoncé). Vu que ça a duré nettement plus que 10 ans c'est devenu une "loi", mais au fond c'était juste prédire la tendance de ce qui se passait dans le monde des semi conducteurs à l'époque.


Message édité par havoc_28 le 27-12-2024 à 15:58:02
n°11382905
ddlabrague​tte
Posté le 27-12-2024 à 19:14:39  profilanswer
 

Miky 2001 a écrit :

Biensur que la densité va augmenter  :??:  
 
TSMC commence déjà à produire en 2nm et prévoit le 1,6 pour 2026…
 
Je comprend pas ta remarque…
 
Après biensur que l’on va arriver à une limite physique mais on en est pas encore là et d’autres pistes seront alors   utilisées. :jap:


Attention aux abus de langage  [:skaine:1]
 

havoc_28 a écrit :


 
La loi de moore portait uniquement sur le doublement du nombre de transistors tous les deux ans, et après par truchement on doublait aussi soit les performances, la fréquence (ce qui revenait très souvent au même à l'époque) etc mais le cœur de la loi c'est le doublement du nombre de transistor.


On oublie souvent un facteur important  
 
Le doublement des perfs, c'est à conso égale  
ou inversement une conso divisée par deux à performance égale  
 
Ce qui était pas loin d'être vrai en pratique jusqu'à la fin des process de gravure " simple " tel que le 32nm d'intel ou le 28nm de TSMC  
Dès lors qu'on est passé sur des process hétérogènes, comme le " tri gate " ou le FinFet, la loi de Moore a pris un gros coup dans l'aile  [:ex-floodeur:5]

Message cité 2 fois
Message édité par ddlabraguette le 27-12-2024 à 19:25:10
n°11382926
Miky 2001
N'y pense même pas !!!
Posté le 27-12-2024 à 20:24:11  profilanswer
 

ddlabraguette a écrit :


Attention aux abus de langage  [:skaine:1]
 


 
Tu as raison  :jap:  
 
Process 2N

n°11383313
shadrap
Posté le 29-12-2024 à 12:16:06  profilanswer
 

golgota333 a écrit :


 
Salut ,
avec MSI Kombustor en stress test tesselation x32 aprés 15 minutes GPU à 2850 mhz mémoire à 1566 mhz.
Température GPU à 325 watts max 76 degrés , température mémoire  max 64 degrés.Par contre température hotspot un peu HOT :p stabilisation à 90 degrés.
Mais c'est un stresst test sollicitant beaucoup le GPU. En jeux sur Wow War Within, Dragon age veilguard, Warhammer 40K , la température de la mémoire est comme celle affichée sur le stress test soit 60 -64 degrés max.Par contre la température du gpu 65 degrés max pour un hot spot beaucoup plus bas 70 - 73 degrés max.
 
Pour les performances ? sur Dragon age Veilguard. Je ne constate pas de différence.Avec gpu à 2850 mhz et mémoire à 1566 mhz, j’étais à environ 170-175 fps
Avec la mémoire à «seulement» 1463 mhz.Le nombre d'ims/sec est plus ou moins équivalent environ 170  -175fps. Après ,Il faudrait un test plus précis ,du type 3Dmark.
Quoiqu'il en soit , Les 50 go/sec en plus de bande passante , semble ne rien apporter en terme de performance.
 
Je vais donc remettre au paramètre d'overcloking de l'app Nvidia.  ;)


 
Merci pour ce retour complet. Dommage de ne pas avoir testé avec d’autres jeux très demandeurs comme Cyberpunk en Path Tracing.  
En dehors de la satisfaction d’overclocking, les gains in-game sont malheureusement peu presents……. Quoi que.  :sarcastic:  

n°11383316
havoc_28
Posté le 29-12-2024 à 12:21:15  profilanswer
 

ddlabraguette a écrit :


On oublie souvent un facteur important  
 
Le doublement des perfs, c'est à conso égale  
ou inversement une conso divisée par deux à performance égale  
 
Ce qui était pas loin d'être vrai en pratique jusqu'à la fin des process de gravure " simple " tel que le 32nm d'intel ou le 28nm de TSMC  
Dès lors qu'on est passé sur des process hétérogènes, comme le " tri gate " ou le FinFet, la loi de Moore a pris un gros coup dans l'aile  [:ex-floodeur:5]


 
La "loi" de moore en soit à la base porte uniquement sur le doublement des transistors, c'est ensuite que c'est greffé par abus le doublement des performances etc. Mais l'énoncé de base c'est le doublement du nombre de transistor tous les deux ans ( qui est un postulat corrigé d'une première ébauche de la prédiction).

n°11383859
Gregooz
Posté le 31-12-2024 à 17:10:29  profilanswer
 

Gregooz a écrit :

MX-4 pour moi, non.
MX-6 à voir car elle a l'air plus visqueuse.
Grizzly, j'ai testé que le kryonaut qui marchait pas mal mais c'était pas sur la 4080.
J'ai un pote qui m'a passé de le Arctic Silver 5, je vais tester :o


Finalement passage sur honeywell ptm7950.
En trainant sur AliExpress, j'ai pu profiter de l'offre de bienvenu sur un de mes vieux comptes donc 0.99€ le pad en 40mmx80mm au lieu de ~8€, reçu en une semaine :o
En commandant, j'étais pas sûr que ce soit le vrai mais y'a quelques centaines d'avis positifs et au pire c'est que 99cts (d'ailleurs je suis toujours pas sûr car rien ne l'indique dans le packaging :lol:)

 

En tout cas, très impressionné suite au premier test, à voir si ça tient dans le temps !

 

Pâte thermique SYY 157 (changée il y a une paire de mois) :
https://i.ibb.co/6gLCt8s/Capture-d-cran-2024-12-31-144510.png
Pad Honeywell PTM7950 :
https://i.ibb.co/MfkYWNs/Capture-d-cran-2024-12-31-154948.png


Message édité par Gregooz le 31-12-2024 à 17:11:19
n°11383948
mimieseb
Posté le 01-01-2025 à 10:40:12  profilanswer
 

Vrai pads honeywell ou ceux d’Ali ?

Message cité 1 fois
Message édité par mimieseb le 01-01-2025 à 16:50:30

---------------
Matos watercooling  http://forum.hardware.fr/forum2.ph [...] =3&trash=0
n°11383977
Gregooz
Posté le 01-01-2025 à 14:14:13  profilanswer
 

mimieseb a écrit :

Vrai pas ou honeywell ou ceux d’Ali ?


Honeywell acheté sur Ali, j'en ai pas acheté d'autres :O

n°11384018
mimieseb
Posté le 01-01-2025 à 16:52:04  profilanswer
 

De ce que j’avais pu lire ceux d’Ali sont des contrefaçons  
Mais les résultats ont quand même l’air bon  
 PS j’ai édité mon message au dessus le correcteur avait fait n’importe quoi


---------------
Matos watercooling  http://forum.hardware.fr/forum2.ph [...] =3&trash=0
n°11384025
Gregooz
Posté le 01-01-2025 à 17:36:31  profilanswer
 

C'était ma crainte d'où ma remarque initiale :jap:

 

Tout ce que je peux dire c'est que le packaging est complet et identique à ce que j'ai pu voir sur certaines vidéos (pinceau, tournevis, spatule, capotes pour les doigts, stickers pour enlever la protection du pad) et le pad bien protégé.

 

Donc une fois de plus, je ne sais pas si c'est the real deal mais, pour l'instant, les températures sont bonnes, la ventilation au minimum donc à voir si dans quelques mois si c'est toujours le cas !


Message édité par Gregooz le 01-01-2025 à 17:36:55
n°11384806
Calcifer35
Posté le 05-01-2025 à 02:49:39  profilanswer
 

Salut !
je monte ma première config PC, j'ai choppé une 4070 TI SUPER sur le forum, j'avais déjà acheté une alim d'occaz il y a quelques semaines. J'y comprends pas grand chose aux histoire de cables, de nouveau cable et d'adaptateur.  
Ma question est la suivante, mon alimentation Corsair RM650 est-elle compatible avec ma carte graphique ? 650w devrait être suffisant elle sera avec un 7500F, c'est cette histoire de câble qui m'inquiète.  
C'est cette alimentation : https://www.amazon.fr/Corsair-RM650 [...] N8CF2?th=1
 
Merci à vous !

n°11384852
[Toine]
A la demande générale...
Posté le 05-01-2025 à 10:11:14  profilanswer
 

Calcifer35 a écrit :

Salut !
je monte ma première config PC, j'ai choppé une 4070 TI SUPER sur le forum, j'avais déjà acheté une alim d'occaz il y a quelques semaines. J'y comprends pas grand chose aux histoire de cables, de nouveau cable et d'adaptateur.  
Ma question est la suivante, mon alimentation Corsair RM650 est-elle compatible avec ma carte graphique ? 650w devrait être suffisant elle sera avec un 7500F, c'est cette histoire de câble qui m'inquiète.  
C'est cette alimentation : https://www.amazon.fr/Corsair-RM650 [...] N8CF2?th=1
 
Merci à vous !


Normalement un adaptateur devrait être livré avec ta carte ...


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11384892
spark
Luc ?
Posté le 05-01-2025 à 12:15:59  profilanswer
 

lol le prix de la 4090 :o
 
https://www.cowcotland.com/modules. [...] idia-1.jpg


Message édité par spark le 05-01-2025 à 12:16:09

---------------
Un cycle complet sera une série de 100.
n°11384893
jln2
Posté le 05-01-2025 à 12:18:53  profilanswer
 

Je vois que la 4070S a bien augmentée aussi :o
J'avais pris une 4070S 679€ en septembre, 749€ aujourd'hui  :lol:   :sarcastic:
Vivement les soldes d'hiver, avec une offre exceptionnelle de -10% sur les cartes graphiques, elle va revenir à 679€  :o


Message édité par jln2 le 05-01-2025 à 12:19:22
n°11384896
spark
Luc ?
Posté le 05-01-2025 à 12:25:30  profilanswer
 

ne serrez pas les fesses demain pour la 5090, ca risque de gratter :o


---------------
Un cycle complet sera une série de 100.
n°11384897
DVN
Posté le 05-01-2025 à 12:37:55  profilanswer
 

Mais non mais non...
 
 [:novax_djokovic:5]


---------------
Non, rien...
n°11384917
brosswood
Posté le 05-01-2025 à 13:35:40  profilanswer
 

Vous avez déjà eu affaire au SAV de Zotac ?
 
Il mettent combien de temps habituellement à réparer un GPU ? >.<

n°11384918
havoc_28
Posté le 05-01-2025 à 13:38:47  profilanswer
 

Un sav standard c'est en semaines que ça se comptent.

n°11384925
brosswood
Posté le 05-01-2025 à 13:51:34  profilanswer
 

Oui, ça fait déjà 6 semaines qu'ils l'ont reçu (en passant par cybertek), et toujours pas de nouvelle, c'est un peu long en effet.  
 
La GTX 1070 en 21/9 1440p c'est poussif quand même en attendant xD

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  787  788  789  ..  803  804  805  806  807  808

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)