Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2674 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1477  1478  1479  ..  1883  1884  1885  1886  1887  1888
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10953453
petit-tigr​e
miaou
Posté le 22-02-2021 à 20:12:57  profilanswer
 

Reprise du message précédent :

jydi75 a écrit :

Les seuls prix vu pour des 3060 sont 500 en précommande amazon, et plus de 1000 dans un article étranger.  
 
Donc 335 tu ne verras pas pour le moment. Mais bon je vois mal les debouchés pour ce modèle quand même. Donc peut etre que ce sera faisable dans les 400...


Si Nvidia les brident pour le minage, ça peut peut-être jouer en notre faveur #believe
 
D'ailleurs si les 3060 sont bridées, j'ose imaginer que les autres vont suivre.


---------------
mIaOuUuUuUuUuUu
mood
Publicité
Posté le 22-02-2021 à 20:12:57  profilanswer
 

n°10953455
Yo80
SERIOUS SHARK :D
Posté le 22-02-2021 à 20:18:46  profilanswer
 

BadgerBoss a écrit :

 

Pas forcément, 120-130 c'est un prix d'or pour une 1650 super? (en partant sur le MSRP de 335 pour la 3060)

 


335 c'est le prix Nvidia... tu n'en trouvera pas à moins de 500 ;)


Message édité par Yo80 le 22-02-2021 à 20:19:03

---------------
Mon Feed  /  Mes Ventes
n°10953460
Rayaki
Posté le 22-02-2021 à 20:25:22  profilanswer
 

Activation a écrit :


 
c est prevu dans star citizen par exemple
mais y a un intéret enorme les mesh shader
 
le unreal engine 5 (le 4.xx me semble pas) va pleinement permettre l utilisation des mesh shader
 
ça sera con de pas passer par les mesh shader dans un open world en tout cas
 
mais voilà tu pourra pas l utiliser dans un jeu crossgen
faudra un jeu ps5/series/cg ready dx12 ultimate (bref turing ou rdna2 mini)


 
Perso moi j'aimerai bien  [:clooney6]  
Un update de ce genre, dans Cyberpunk par exemple si c'était possible, je pense que personne ne cracherait dessus (surtout moi en 4K Quality ou 8K UP :D )
C'est juste le temps que ca se démocratise...
 
D'ailleurs ca me rappelle qu'on aurait du voir venir normalement en ce début d'année le fameux RTX IO...
Entre ca et les firmwares SmartAccessMemory pour Nvidia, il faut de la patience (remarque on est sur le topic où la patience est obligatoire pour ceux qui n'ont pas encore leur RTX)
 
Exterieurement c'est:  [:g43l]  
 
Interieurement c'est:  [:bakk29] ou  [:hurlement_primaire]


---------------
Clan Torysss.
n°10953469
marijuo
Posté le 22-02-2021 à 20:41:34  profilanswer
 

jydi75 a écrit :


 
Il est ou le taulier du topic, on veut un sondage !  :o


 
Il est là, il est là ! ! ! :o :o :o
 
En même temps, chaque soir, quand je rentre du taf, je me tape 5 pages de freepost & HS a lire :o :o
Va falloir vous calmer messieurs :o
 
Bref, qu'est-ce-qui vous ferai plaisir mon bon Monsieur comme nouveau sondage ? ? ?
 

Pipould's a écrit :


 
Je tombe denu... Tout ca sur un MSRP a 730... Ca me parait fou.


 
J'avoue que quand je vois ça je suis moins dégouter d'avoir payé 950 ma 3080....  :sweat:  
 

mustard7627 a écrit :


Les Ventus sont les pires 3070, on ne cesse de le répéter qu'il faut les éviter. Peu fiable (composant de moins bonne qualité qualité) , surchauffe, etc.  
J'espère que tu ne regretteras pas ton choix.
 
https://i94.servimg.com/u/f94/15/26/62/54/307012.jpg


 
Euhhhh on en parle de la FE en bas de tableau a coté d'une pov' Asus Dual :o
 
J'ai eu une 3070 FE et je peux garantir qu'en terme de qualitance, c'est top moumoute :o  
Et niveau O/C elle tenait, à l'arrache, ces 1950 mhz a 1.95v (pas ouf non plus) avec une courbe dégueu. (pas à l'aise avec AB mais ca va mieux maintenant :whistle: )
 
Bref, c'est vraiment juste pour l'O/C ce tableau parce que niveau qualité/silence, rien à voir.
 
Après, la Ventus 3x reste l'entrée de gamme MSi, je pense que c'est une carte qui fait le taff et c'est tout ce qu'on lui demande donc il y a de forte chance que les gpu qui la composent, soient ceux qui tiennent simplement les spec' Nvidia, les autres étant réservés pour les Trio et Suprim.
Donc ça ne remets pas en question la fiabilité des puces en soit, elles tiennent les spec' annoncées mais en revanche elles sont sans doute moins bonne en U/V et clairement en O/C.
Après on a vu un ou deux soucis sur des ventus c'est vrai, est-ce-que l'on peux généralisé....
J'ai largement plus vu de problèmes sur des Gigabyte et pourtant, y en a un paquet qui en ont et n'ont pas de soucis avec la leur...
 

philo01 a écrit :


laisse moi deviner c'est girouette ton deuxième prénom, pas vrai  :D


 
 [:sophiste:2]  
 

Yopiyep a écrit :

Ben si tu filtres les messages de M.arc, il y a quelques temps il avait précisé que c était le cas des rtx 3080/3090.
On parle quand même de marchandise high-tech à plus de 900 eurals mini le bousin, pas d un pot de sauce Bicky ou d un arrivage de fricandelles  :o


 
 
Tu sais, les voitures arrivent par bateaux, même à 55000€ le Tiguan Allspace, il part du Mexique et traverse l'atlantique sur un bon vieux cargo.
Et quand tu vois comment les voitures sont cote / cote, tu te demandes comment avec ne serait-ce-qu'une légère houle, elles arrivent pourtant nickel  [:leguidedubledard:1]  
 
Alors c'est pas une pauvre carte graphique, même a 3000e l'unité, qui prends l'avion de part sa valeur, c'est surtout que c'est léger et compacte, va mettre 100 bagnoles dans un avion toi  [:pug67:2]  
 

mustard7627 a écrit :


 
LOL
Nan, j'te mène en bateau


 
 [:obam haha]  
 

TheTroll a écrit :

On fait pas ce genre de blague ici, y'a des vieux ;)


 
Y avait !
 
Après sa blague on les a tous perdu d'un arrêt cardiaque [:4lkaline:6]   [:chevreuil_npa:2]  
 
 

Rayaki a écrit :


 
ca + le minage + les chronoposts + les fuseaux horaires ... :D
Allez demain y en a qui va balancer qu'il croit à sa bonne étoile et ca va finir en discussion sur les signes du zodiaque :o


 
 
Arrêtes ! Tu vas vraiment lancer un nouveau débat avec tes conneries ! :o
 

Rayaki a écrit :


On les reconnait tout de suite ceux qui choppent la perche en 1er :o :D
 
ps: oui les gemeaux sont les meilleurs... et je ne dis pas ca parce que je suis de Juin :o


 
 
Et bah voila, ils sont presque partie :o
 
On est passé à ca !  [:stardrawer]


---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
n°10953471
Yo80
SERIOUS SHARK :D
Posté le 22-02-2021 à 20:48:11  profilanswer
 

Citation :


 
J'ai eu une 3070 FE et je peux garantir qu'en terme de qualitance, c'est top moumoute :o  
Et niveau O/C elle tenait, à l'arrache, ces 1950 mhz a 1.95v (pas ouf non plus) avec une courbe dégueu. (pas à l'aise avec AB mais ca va mieux maintenant :whistle: )
 
 


Joli le taulier :o :D ! elle est à la déchetterie actuellement? :D


---------------
Mon Feed  /  Mes Ventes
n°10953472
needgpubre​tagne
Cette période est une hérésie
Posté le 22-02-2021 à 20:52:22  profilanswer
 

ce n'est pas une très bonne qualité les FE ?

n°10953474
marijuo
Posté le 22-02-2021 à 20:52:34  profilanswer
 

Yo80 a écrit :

Citation :


 
J'ai eu une 3070 FE et je peux garantir qu'en terme de qualitance, c'est top moumoute :o  
Et niveau O/C elle tenait, à l'arrache, ces 1950 mhz a 1.95v (pas ouf non plus) avec une courbe dégueu. (pas à l'aise avec AB mais ca va mieux maintenant :whistle: )
 
 


Joli le taulier :o :D ! elle est à la déchetterie actuellement? :D


 
 
roh putain ! ! ! ! je viens de me rendre compte de ma connerie  :whistle:  :whistle:  
 
Mais vous m'avez bien compris, 0.95v  :lol:


---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
n°10953475
campi
V8 FTW
Posté le 22-02-2021 à 20:52:56  profilanswer
 

Yo80 a écrit :

Citation :


 
J'ai eu une 3070 FE et je peux garantir qu'en terme de qualitance, c'est top moumoute :o  
Et niveau O/C elle tenait, à l'arrache, ces 1950 mhz a 1.95v (pas ouf non plus) avec une courbe dégueu. (pas à l'aise avec AB mais ca va mieux maintenant :whistle: )
 
 


Joli le taulier :o :D ! elle est à la déchetterie actuellement? :D


 
 [:isofouet]  
 
 :whistle:


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°10953476
mustard762​7
Posté le 22-02-2021 à 20:56:44  profilanswer
 

marijuo a écrit :


J'ai eu une 3070 FE et je peux garantir qu'en terme de qualitance, c'est top moumoute :o  
Et niveau O/C elle tenait, à l'arrache, ces 1950 mhz a 1.95v (pas ouf non plus) avec une courbe dégueu. (pas à l'aise avec AB mais ca va mieux maintenant :whistle: )


 
Monter une carte à sa limite de l'OC c'est pas un problème, je l'ai souvent faire avec certaines cartes pour m'amuser, la performance c'est de réussir à la faire tenir dans le temps en maintenant une stabilité fiable et sans dégrader sa durée de vie. Et bien sûr dans une température ambiance chaude comme en été.
 

n°10953478
marijuo
Posté le 22-02-2021 à 20:57:56  profilanswer
 


 [:moooonblooood:1]

 
mustard7627 a écrit :

 

Monter une carte à sa limite de l'OC c'est pas un problème, je l'ai souvent faire avec certaines cartes pour m'amuser, la performance c'est de réussir à la faire tenir dans le temps en maintenant une stabilité fiable et sans dégrader sa durée de vie. Et bien sûr dans une température ambiance chaude comme en été.

 


 


Ah mais la dessus on est d'accords, c'est pour ça que j'ai précisé O/C "à l'arrache", je découvrais AB, j'avais un courbe dégueu (je connaissais même pas le principe de retirer 200Mhz au GPU avant de modif la courbe) et j'ai vite eu la 3080 sur laquelle j'ai pu vraiment bien U/C & O/C la carte cette foi-ci.


Message édité par marijuo le 22-02-2021 à 21:01:23

---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
mood
Publicité
Posté le 22-02-2021 à 20:57:56  profilanswer
 

n°10953481
Keskia
Posté le 22-02-2021 à 21:02:02  profilanswer
 

Les heureux propriétaires de 3080 FE, vous avez check la gpu memory junction temperature dans les jeux ?
 
La mienne tournait régulièrement entre 104 et 108 degrés avec des pics à 110 (throttle) dans cyberpunk ou d'autres, surtout avec les températures douces des derniers jours.
Du coup, j'ai décidé d'ouvrir la bête et de changer les thermals pads d'origines et d'en ajouter sur certains points chauds, résultat : je ne dépasse plus 95 degrés dans les mêmes conditions.


---------------
Topic Vente - General / Topic Vente Divers
n°10953482
jujuf1
Je suis un chat
Posté le 22-02-2021 à 21:03:25  profilanswer
 

Keskia a écrit :

Les heureux propriétaires de 3080 FE, vous avez check la gpu memory junction temperature dans les jeux ?
 
La mienne tournait régulièrement entre 104 et 108 degrés avec des pics à 110 (throttle) dans cyberpunk ou d'autres, surtout avec les températures douces des derniers jours.
Du coup, j'ai décidé d'ouvrir la bête et de changer les thermals pads d'origines et d'en ajouter sur certains points chauds, résultat : je ne dépasse plus 95 degrés dans les mêmes conditions.


 
92 degrés avec un bon undervolt.

n°10953483
Yo80
SERIOUS SHARK :D
Posté le 22-02-2021 à 21:03:56  profilanswer
 

Keskia a écrit :

Les heureux propriétaires de 3080 FE, vous avez check la gpu memory junction temperature dans les jeux ?
 
La mienne tournait régulièrement entre 104 et 108 degrés avec des pics à 110 (throttle) dans cyberpunk ou d'autres, surtout avec les températures douces des derniers jours.
Du coup, j'ai décidé d'ouvrir la bête et de changer les thermals pads d'origines et d'en ajouter sur certains points chauds, résultat : je ne dépasse plus 95 degrés dans les mêmes conditions.


retour interessant ;)
Tu devrais passer par ici pour aiguiller ceux que ca intéressé ;) : https://forum.hardware.fr/forum2.ph [...] w=0&nojs=0


---------------
Mon Feed  /  Mes Ventes
n°10953488
marijuo
Posté le 22-02-2021 à 21:12:29  profilanswer
 

Keskia a écrit :

Les heureux propriétaires de 3080 FE, vous avez check la gpu memory junction temperature dans les jeux ?
 
La mienne tournait régulièrement entre 104 et 108 degrés avec des pics à 110 (throttle) dans cyberpunk ou d'autres, surtout avec les températures douces des derniers jours.
Du coup, j'ai décidé d'ouvrir la bête et de changer les thermals pads d'origines et d'en ajouter sur certains points chauds, résultat : je ne dépasse plus 95 degrés dans les mêmes conditions.


 
 
Avec les 3 sondes sur l'e-vga, reprise sur GPU-Z que j'avais laissé en arrière plan, lors d'une longue partie de RDR 2 quasi TAF et en supersampling 1.25% sans AA, je monte au max a 80°, ça tourne entre 77 et 80°.
 
En revanche, je viens d'installer la nouvelle version de GPU-Z, j'ai bien les deux nouveaux items qeu sont "t° mem" et "Hotspot", et je remarque que "T° Mem" est 7 à 10° en idle plus élevé que la t° des sonde e-vga (56/58° VS 51/53°).
Faudra que je fasse un relevé in Game.
Sachant que ma ram est a +500Mhz.
 
Bref ça m'a pas l'air si mal que ça.


---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
n°10953489
Devil'sTig​er
Posté le 22-02-2021 à 21:13:29  profilanswer
 

mustard7627 a écrit :


ou pas.
C'est quoi ta vision ? parce que c'est un peu facile de balancer ça sans argumenter derrière, ça ne te rend pas plus crédible.


 

mustard7627 a écrit :


Il faut savoir que les cartes graphiques RTX sont à la base développer pour le jeux, le Ray tracing les mineurs s'en cogne. Si tu développes des cartes pour le jeux et que les mineurs n'utilisent que le GPU bah tu perds le coeur de ton métier et de ton marché. Tu fais des produits dédiés et optimisé au jeu pour rien.


 
Rien que le fait que Cuda soit intégré depuis plus de 10 ans dans tous les GPUs grand public montre bien que ce que tu dis n'est pas vrai. Un GPU ca n'est pas que pour jouer, si ca avait été vrai, Cuda aurait disparu aussi vite qu'il est apparu. Ne parlons pas de tensorcore tu croyais peut-être que ca avait été mis la pour DLSS :o (hint: c'est exactement l'inverse, ils ont mis DLSS pour palier au cout de mettre des tensorcores qui pour le moment ne servent qu'a des gus comme moi :o )
 
Un GPU c'est un processeur, fait lui bouffer tout ce qui bouge, tant qu'il bouffe mieux que les autres, c'est bon. C'est la stratégie de Nvidia, ils en ont autant a faire des joueurs que de tout le reste: c'est a celui qui payera le plus.
 
Par contre, Nvidia n'est pas con, ils sont prêt a sacrifier une partie du business actuel pour le futur: mettre dans les mains des petites bourses (= monsieur tout le monde) un GPU Nvidia, c'est assurer le futur, parce que le futur acteur pro, n'est aujourd'hui pas un pro justement, et il commencera son entré dans le monde pro par ce qu'il a: son PC.
Comme quand les bébés prennent du Mont Blanc, plus tard ils y reviennent aussi, tu pérennises le business :o
 
Bref Nvidia, c'est pas ton pote, boite qui ramène de la thune = boite heureuse touSSa touSSa. La 3060 c'est juste ca.
Et si tu vois les autres faire pareil (imaginons que les 3080 & 3090 subissent le même sort), et bien O miracle ca ne voudra juste dire que Nvidia a piger qu'en faisant ca ils se font encore plus de blé, car en fin de compte, c'est ce a quoi sert une segmentation: chopper plus de clients.

n°10953491
Activation
21:9 kill Surround Gaming
Posté le 22-02-2021 à 21:19:41  profilanswer
 

Rayaki a écrit :


 
Perso moi j'aimerai bien  [:clooney6]  
Un update de ce genre, dans Cyberpunk par exemple si c'était possible, je pense que personne ne cracherait dessus (surtout moi en 4K Quality ou 8K UP :D )
C'est juste le temps que ca se démocratise...
 
D'ailleurs ca me rappelle qu'on aurait du voir venir normalement en ce début d'année le fameux RTX IO...
Entre ca et les firmwares SmartAccessMemory pour Nvidia, il faut de la patience (remarque on est sur le topic où la patience est obligatoire pour ceux qui n'ont pas encore leur RTX)
 
Exterieurement c'est:  [:g43l]  
 
Interieurement c'est:  [:bakk29] ou  [:hurlement_primaire]


 
c est clair que l an dernier microsoft annoncait l arrivée en beta de direct storage sur les premiere build de 2021
mais vu que microsoft semble passer à des build semestriel au lieu de trimestriel, d'ici qu on en voit la couleur que vers juin :o
 
à ce train là RTX I/O annoncé sur rtx3000 on en verra la couleur que sur rtx4000 :o
un peu comme le dlss pourri sur rtx2000 en version 1.x, devenu bien juste avant l arrivée des rtx3000 avec la version dlss 2.x
 
et y en a pour derriere demandé à AMD de pondre un equivalent dlss potable dayone de la sorti des rdna2 ... lol
 
et encore si fallait parlé de toute les feature annoncé à la conf de lancement des rtx3000 :D

n°10953493
mustard762​7
Posté le 22-02-2021 à 21:23:49  profilanswer
 

Devil'sTiger a écrit :


 
Rien que le fait que Cuda soit intégré depuis plus de 10 ans dans tous les GPUs grand public montre bien que ce que tu dis n'est pas vrai. Un GPU ca n'est pas que pour jouer, si ca avait été vrai, Cuda aurait disparu aussi vite qu'il est apparu. Ne parlons pas de tensorcore tu croyais peut-être que ca avait été mis la pour DLSS :o (hint: c'est exactement l'inverse, ils ont mis DLSS pour palier au cout de mettre des tensorcores qui pour le moment ne servent qu'a des gus comme moi :o )
 
Un GPU c'est un processeur, fait lui bouffer tout ce qui bouge, tant qu'il bouffe mieux que les autres, c'est bon. C'est la stratégie de Nvidia, ils en ont autant a faire des joueurs que de tout le reste: c'est a celui qui payera le plus.
 
Par contre, Nvidia n'est pas con, ils sont prêt a sacrifier une partie du business actuel pour le futur: mettre dans les mains des petites bourses (= monsieur tout le monde) un GPU Nvidia, c'est assurer le futur, parce que le futur acteur pro, n'est aujourd'hui pas un pro justement, et il commencera son entré dans le monde pro par ce qu'il a: son PC.
Comme quand les bébés prennent du Mont Blanc, plus tard ils y reviennent aussi, tu pérennises le business :o
 
Bref Nvidia, c'est pas ton pote, boite qui ramène de la thune = boite heureuse touSSa touSSa. La 3060 c'est juste ca.
Et si tu vois les autres faire pareil (imaginons que les 3080 & 3090 subissent le même sort), et bien O miracle ca ne voudra juste dire que Nvidia a piger qu'en faisant ca ils se font encore plus de blé, car en fin de compte, c'est ce a quoi sert une segmentation: chopper plus de clients.


 
C'est ta vision très personnelle, je n'ai pas du tout la même approche que toi.

n°10953494
Activation
21:9 kill Surround Gaming
Posté le 22-02-2021 à 21:24:20  profilanswer
 

Devil'sTiger a écrit :


 
Rien que le fait que Cuda soit intégré depuis plus de 10 ans dans tous les GPUs grand public montre bien que ce que tu dis n'est pas vrai. Un GPU ca n'est pas que pour jouer, si ca avait été vrai, Cuda aurait disparu aussi vite qu'il est apparu. Ne parlons pas de tensorcore tu croyais peut-être que ca avait été mis la pour DLSS :o (hint: c'est exactement l'inverse, ils ont mis DLSS pour palier au cout de mettre des tensorcores qui pour le moment ne servent qu'a des gus comme moi :o )
 
Un GPU c'est un processeur, fait lui bouffer tout ce qui bouge, tant qu'il bouffe mieux que les autres, c'est bon. C'est la stratégie de Nvidia, ils en ont autant a faire des joueurs que de tout le reste: c'est a celui qui payera le plus.
 
Par contre, Nvidia n'est pas con, ils sont prêt a sacrifier une partie du business actuel pour le futur: mettre dans les mains des petites bourses (= monsieur tout le monde) un GPU Nvidia, c'est assurer le futur, parce que le futur acteur pro, n'est aujourd'hui pas un pro justement, et il commencera son entré dans le monde pro par ce qu'il a: son PC.
Comme quand les bébés prennent du Mont Blanc, plus tard ils y reviennent aussi, tu pérennises le business :o
 
Bref Nvidia, c'est pas ton pote, boite qui ramène de la thune = boite heureuse touSSa touSSa. La 3060 c'est juste ca.
Et si tu vois les autres faire pareil (imaginons que les 3080 & 3090 subissent le même sort), et bien O miracle ca ne voudra juste dire que Nvidia a piger qu'en faisant ca ils se font encore plus de blé, car en fin de compte, c'est ce a quoi sert une segmentation: chopper plus de clients.


 
le pire c'est que je demande que ça depuis la puce entre pascal et turing (dont j ai oublié le nom qui n a été dispo qu"en secteur pro avec les premier tensorcore sans rt core)
que le deep learning via teensor core servent dans des softs video/image/son pour permettre des restauration/amelioration (genre exemple à la con restauré une musique venant d un vynil qui craque)
 
pb c'est pas faute d'utiliser divers soft payant, aucun à date ne les utilisent c est foutu tensor core dispo depuis maintenant bien 4ans

Message cité 1 fois
Message édité par Activation le 22-02-2021 à 21:29:23
n°10953500
petit-tigr​e
miaou
Posté le 22-02-2021 à 21:38:11  profilanswer
 

mustard7627 a écrit :


 
C'est ta vision très personnelle, je n'ai pas du tout la même approche que toi.


En tout cas c'est multi-tâche. En termes de vidéo par exemple pour le décodage/encodage matériel, les GPU présentent un vrai intérêt.


---------------
mIaOuUuUuUuUuUu
n°10953504
Spikeange
Player One
Posté le 22-02-2021 à 21:47:41  profilanswer
 

Hello ! J'aimerais avoir vos avis sur la fameuse 3090 pour de la VR (actuelle et à venir), trop overkill selon vous ?
 
J'ai lu énormément de sujet sur reddit, et globalement les cas où il faut plus de 10go de VRAM sont rares, et souvent on parle de VRAM alloué et non utilisé.
Dans ce cas de figure une 3080 serait suffisante, et il est moins onéreux de prendre la 3080 et changer dans deux ans (ou plus) pour une série 4000.
 
Reddit : https://www.reddit.com/r/nvidia/com [...] 3080_10gb/
 
Extrait d'un article qui évoque la VRAM :
 

Spoiler :

Much has been talked about VRAM size during NVIDIA's Ampere launch. The GeForce RTX 3080 has 10 GB VRAM, which I still think is plenty for today and the near future. Planning many years ahead with hardware purchases makes no sense, especially when it comes to VRAM—you'll run out of shading power long before memory becomes a problem. GTX 1060 will not drive 4K, no matter whether it has 3 or 6 GB. Game developers will certainly make use of the added memory capacity on the new consoles, we're talking 8 GB here, as a large portion of the console's total memory is used for the OS, game, and game data. I think I'd definitely be interested in an RX 6700 Series with just 8 GB VRAM at more affordable pricing. On the other hand, AMD's card is cheaper than NVIDIA's product and has twice the VRAM, so there is really no reason to complain.


 
Source : https://www.techpowerup.com/review/ [...] 00/41.html
 
Sur cette vidéo, on atteint 18go de VRAM : https://www.youtube.com/watch?v=iir [...] e=youtu.be
Mais alloué ou utilisé ? Aucune idée. Et est-ce que la carte ne se permet tout simplement pas de prendre autant parce que c'est disponible ? (désolé je ne suis absolument pas un expert côté utilisation de la VRAM)
 
Merci d'avance :jap:


Message édité par Spikeange le 22-02-2021 à 21:48:39
n°10953506
Devil'sTig​er
Posté le 22-02-2021 à 21:56:54  profilanswer
 

mustard7627 a écrit :


 
C'est ta vision très personnelle, je n'ai pas du tout la même approche que toi.


Ben je travaille dans le milieu en fait, sans rentrer dans les détails, disons que je suis a un poste et une position qui fait que j'intéresse pas mal les commerciaux de Nvidia par exemple :o Donc vision personnelle...
 
Rappelle juste toi que le côté "data center" de Nvidia, donc plus du tout jeux vidéo (mais alors 0 absolu), rapporte maintenant les 2/3 du revenu "grand public", en moins de 10 ans donc, et ce sont les mêmes archis qui font les 2 secteurs. La dimension "Nvidia c'est du GPU grand public", c'est fini depuis le début des années 2000, toute l'évolution depuis te le montre, le rachat de Physics, le rachat du SLI, l'arrivé des tesla, j'en passe.
Et Cuda est un formidable produit d'appel, peu onéreux, a ce monde. Parce qu'en fin de compte une v100, ca n'est rien de plus que ta titan/GeForce, en plus cher (mais genre BEAUCOUP :o ), avec plus de tout.
 

Activation a écrit :


 
le pire c'est que je demande que ça depuis la puce entre pascal et turing (dont j ai oublié le nom qui n a été dispo qu"en secteur pro avec les premier tensorcore sans rt core)
que le deep learning via teensor core servent dans des softs video/image/son pour permettre des restauration/amelioration (genre exemple à la con restauré une musique venant d un vynil qui craque)
 
pb c'est pas faute d'utiliser divers soft payant, aucun à date ne les utilisent c est foutu tensor core dispo depuis maintenant bien 4ans


 
Les tensorcore c'est la plaie, faut du code spécifique (comme pour cuda), donc je pense que pour le moment les studios préfère encore du x86 de base, AVX2 & co ont amélioré un peu les choses, et puis les tensorcore c'est bien plus utile dans la phase de développement que après, ce qui coute c'est builder le modèle, pas de le faire tourner, donc en tant qu'utilisateur final, avoir des tensorcore te sert pas trop trop...
 
Sinon j'espère que pour les vinyles tu connais celui-là:
https://www.izotope.com/en/products/rx.html
 
Vu la tronche de ce qu'il supporte, il y a clairement de l'IA ;) Mais ca ne doit pas être encore du tensorcore...
 

petit-tigre a écrit :


En tout cas c'est multi-tâche. En termes de vidéo par exemple pour le décodage/encodage matériel, les GPU présentent un vrai intérêt.


 
C'est là ou ca devient intéressant, grace à ca, Nvidia a pris une position dominante face a Intel ou AMD. Si tu as besoin de puissance, il ne faut pas chercher, c'est le GPU bien sur. Et pouf 10 ans plus tard, ton fabricant de GPU se permet de tarifer plus cher son GPU que ton fabricant de CPU. Quasi impossible a faire au début des années 2000:
 
https://www.hardware.fr/articles/418-11/conclusion.html
 
900e et des poussières le meilleur P4 a l'époque:
 
https://www.hardware.fr/articles/456-8/conclusion.html
 
450e la 9800 Pro.
 
Aujourd'hui aller un gros PC ca va être 500e dans le CPU et 1500 dans le GPU, position commercial gagnante pour Nvidia donc :)

n°10953507
repliku
Posté le 22-02-2021 à 22:00:17  profilanswer
 

J'ai commencé à faire le bilan pour ce mois, ma productivité a baissé depuis que j'attends ces saletés de cartes, je crois que je suis déjà bon pour l'asile.
J'ai un rendez vous médical le 25 avec ma chance ça va tomber en plein dedans.

n°10953509
Snatch3156​0
Au dessus de tous.
Posté le 22-02-2021 à 22:03:12  profilanswer
 


 
 [:azrail:10]  
 
https://scontent-cdg2-1.xx.fbcdn.net/v/t1.15752-9/p1080x2048/153205436_273273860855683_180672052639296678_n.jpg?_nc_cat=111&ccb=3&_nc_sid=ae9488&_nc_ohc=DwE5xLd0dwIAX-hknh8&_nc_ht=scontent-cdg2-1.xx&tp=6&oh=52c4ddf701f375db8335cd5bdf0dea3e&oe=605B5B6D
 
J'ai monté le bousin, avant tout j'ai pas le ventirad définitif, je préviens :o


---------------
GamerTag: MSR Snatch  "Baseball, basketball and football all require one ball... Motocross requires two!"
n°10953511
Keskia
Posté le 22-02-2021 à 22:28:53  profilanswer
 

Yo80 a écrit :


retour interessant ;)
Tu devrais passer par ici pour aiguiller ceux que ca intéressé ;) : https://forum.hardware.fr/forum2.ph [...] w=0&nojs=0


 
Merci j'avais même pas vu ce topic, j'ai posté plus de détails dessus du coup  :jap:


---------------
Topic Vente - General / Topic Vente Divers
n°10953512
joueur de ​flute
Posté le 22-02-2021 à 22:31:19  profilanswer
 

C'est un peu vide en haut  :o  
 
60Ti/70 FE c'est le même design ?

Message cité 2 fois
Message édité par joueur de flute le 22-02-2021 à 22:32:35
n°10953513
Eldem
Ultima ratio regum
Posté le 22-02-2021 à 22:34:27  profilanswer
 

n0name a écrit :

 

Je sais je radote mais je ''arrive pas a comprendre qu'on trouve cyberpunk "beau". Oui t'a du rtx, oui un plan sur 50 est beau mais c'est un hasard.


Bah moi je vois toujours pas l'intérêt du minage. Comme quoi on a pas tous le cerveau qui fonctionne de la même manière.  :O

 


champion091 a écrit :


Aussi, je voulais dire que depuis peu, je m'amuse à constater que la réalité est faite de jeu de lumières de partout, et que c'est magnifique. On y fait pas attention, mais oui, après qu'il est plu, il y a des reflets partout, pire que dans Cyberpunk [:latex_]

 

Donc pour ceux comme moi qui attendent leur RTX 3000, rassurez vous, on vit dans un monde en RTX On, sans lag ! [:farwader:6]


Je suis pas le seul alors.  :D
Après avoir eu ma 3080 et passé plusieurs heures à Night City, je me suis surpris à observer les reflets dans les vitres des immeubles en bas de chez moi, je me suis rendu compte qu'en réalité je n'avais jamais remarqué à quel point on vit au milieu des reflets.

 

Si c'est pas méta.  [:apges:5]

n°10953515
jydi75
Nez vierge Since 2019
Posté le 22-02-2021 à 22:37:25  profilanswer
 

joueur de flute a écrit :

C'est un peu vide en haut  :o  
 
60Ti/70 FE c'est le même design ?


 
Tu as une date de prod dans ton numero de serie de ta 3060ti ?


Message édité par jydi75 le 22-02-2021 à 22:41:40
n°10953518
joueur de ​flute
Posté le 22-02-2021 à 22:43:49  profilanswer
 

J'sais pas où faut regarder :o

n°10953523
havoc_28
Posté le 22-02-2021 à 22:55:06  profilanswer
 

Devil'sTiger a écrit :


 
Rien que le fait que Cuda soit intégré depuis plus de 10 ans dans tous les GPUs grand public montre bien que ce que tu dis n'est pas vrai. Un GPU ca n'est pas que pour jouer, si ca avait été vrai, Cuda aurait disparu aussi vite qu'il est apparu. Ne parlons pas de tensorcore tu croyais peut-être que ca avait été mis la pour DLSS :o (hint: c'est exactement l'inverse, ils ont mis DLSS pour palier au cout de mettre des tensorcores qui pour le moment ne servent qu'a des gus comme moi :o )


 
Oui, les processeurs graphiques sont des puces assez généralistes, mais en tout cas les TMU / ROPs ne servent que pour les charges graphiques :D.  
CUDA est une plateforme de développement / couche logicielle (API) s'appuyant sur les unités de bases des GPUs qui sont des unités assez "généralistes" . "Cuda Cores" c'est que du marketing :o, mais cette plateforme clé en main a permis à Nvidia de se mettre en position de force dans de nombreux projets liés au GPU computing.


Message édité par havoc_28 le 22-02-2021 à 23:03:48
n°10953524
Falconpage
HFR Powered since 1998
Posté le 22-02-2021 à 22:56:59  profilanswer
 

Keskia a écrit :

Les heureux propriétaires de 3080 FE, vous avez check la gpu memory junction temperature dans les jeux ?
 
La mienne tournait régulièrement entre 104 et 108 degrés avec des pics à 110 (throttle) dans cyberpunk ou d'autres, surtout avec les températures douces des derniers jours.
Du coup, j'ai décidé d'ouvrir la bête et de changer les thermals pads d'origines et d'en ajouter sur certains points chauds, résultat : je ne dépasse plus 95 degrés dans les mêmes conditions.


 
Je ne crois pas l’avoir vu à plus de 96 degrés, ne pas oublier que c’est le point chaud du silicium le plus élevé qui est mesuré.
Sur les EVGA il y a un capteur sur la partie externe de la mémoire.
À surveiller quand même, ça va ralentir à partir de 110 degrés d’après l’aide de hw64.

n°10953529
jydi75
Nez vierge Since 2019
Posté le 22-02-2021 à 23:13:15  profilanswer
 

joueur de flute a écrit :

J'sais pas où faut regarder :o


 
Ouai on a eu le débat, mais personne ne sait ici. A priori si tu as un 20 dans le serial, il faut regarder  les chiffres avant qui indiquerait la semaine. Moi j'ai ****5120*** a travers. Sur la boite

n°10953531
joueur de ​flute
Posté le 22-02-2021 à 23:33:04  profilanswer
 

serial ou part number ?
 
sur le serial ça donne : ****920021***

n°10953532
jydi75
Nez vierge Since 2019
Posté le 22-02-2021 à 23:34:35  profilanswer
 

att je vais regarder, sur le serial
 
Ouai ben non ça correspond pas.  
 
en gros j'ai ça avec des chiffres différents : 1155120008357
 
Ou on pensait que 5120 égal  51 eme semaine de 2020

Message cité 1 fois
Message édité par jydi75 le 22-02-2021 à 23:38:59
n°10953533
jeffk
Posté le 22-02-2021 à 23:40:27  profilanswer
 

Snatch31560 a écrit :


 
 [:azrail:10]  
 
https://scontent-cdg2-1.xx.fbcdn.ne [...] e=605B5B6D
 
J'ai monté le bousin, avant tout j'ai pas le ventirad définitif, je préviens :o


 
horrible.

n°10953534
Snatch3156​0
Au dessus de tous.
Posté le 22-02-2021 à 23:41:30  profilanswer
 

joueur de flute a écrit :

C'est un peu vide en haut  :o  
 
60Ti/70 FE c'est le même design ?


J'ai une grille magnétique a mettre, y avait pas tout la :o
 
Mais le nh-d15 comblera les trous :o


---------------
GamerTag: MSR Snatch  "Baseball, basketball and football all require one ball... Motocross requires two!"
n°10953536
joueur de ​flute
Posté le 22-02-2021 à 23:49:25  profilanswer
 

Snatch31560 a écrit :


J'ai une grille magnétique a mettre, y avait pas tout la :o
 
Mais le nh-d15 comblera les trous :o


 
Beurk encore un noctua boy, merci de ne pas poster de photo une fois le montage terminé  :jap:  
 

jydi75 a écrit :

att je vais regarder, sur le serial
 
Ouai ben non ça correspond pas.  
 
en gros j'ai ça avec des chiffres différents : 1155120008357
 
Ou on pensait que 5120 égal  51 eme semaine de 2020


 
C'est possible, j'ai masqué le 4 avant le 9 du coup j'ai 4920

n°10953537
Falconpage
HFR Powered since 1998
Posté le 22-02-2021 à 23:53:31  profilanswer
 

Un truc que je comprends pas, pourquoi de base les courbes freq / tension sont si peux adaptées ?
Ok chaque puce est différente mais monter au taquet et se taper la limite de puissance c’est contre productif au possible, ça chauffe, ça consomme, c’est bruyant et c’est moins performant :o
 
Il y a des cartes qui ne tiennent pas la freq boost d’origine à 0,9 V ?

n°10953538
jydi75
Nez vierge Since 2019
Posté le 22-02-2021 à 23:55:23  profilanswer
 

joueur de flute a écrit :


 
C'est possible, j'ai masqué le 4 avant le 9 du coup j'ai 4920


 
ah la théorie est peu être juste alors.  
 
D'autre possesseur de FE pour confirmer ?  
 
n0name tu peux regarder sur les boites ?

Message cité 2 fois
Message édité par jydi75 le 22-02-2021 à 23:56:13
n°10953539
Falconpage
HFR Powered since 1998
Posté le 22-02-2021 à 23:56:18  profilanswer
 

jydi75 a écrit :


 
ah la théorie est peu être juste alors.  
 
D'autre possesseur de FE pour confirmer ?  
 
noName tu peux regarder sur les boites ?


J’ai 4820
Dernier drop 3080 FE

n°10953540
jydi75
Nez vierge Since 2019
Posté le 22-02-2021 à 23:57:44  profilanswer
 

Falconpage a écrit :


J’ai 4820
Dernier drop 3080 FE


 
 :jap:  Purée si c'est ça je suis étonné !

n°10953541
drmanhatta​n31
aka innocent
Posté le 22-02-2021 à 23:58:00  profilanswer
 

Falconpage a écrit :

Un truc que je comprends pas, pourquoi de base les courbes freq / tension sont si peux adaptées ?
Ok chaque puce est différente mais monter au taquet et se taper la limite de puissance c’est contre productif au possible, ça chauffe, ça consomme, c’est bruyant et c’est moins performant :o
 
Il y a des cartes qui ne tiennent pas la freq boost d’origine à 0,9 V ?


elles sont outrageusement claquées parce que toute la série doit tenir cette courbe, et que tester manuellement chaque gpu c'est relou alors on prévoit très large
 
remarque, on pourrait totalement l'automatiser (comme le fait un peu l'oc scanner) ; j'avais tenté un soft là dessus, mais l'API nVidia est une merde sans nom :o (si quelqu'un est bon en reverse, qu'il me DM ! :D)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1477  1478  1479  ..  1883  1884  1885  1886  1887  1888

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)