Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3927 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  242  243  244  ..  845  846  847  848  849  850
Auteur Sujet :

[Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)

n°10435994
aliss
Rhyme the Rhyme Well
Posté le 28-09-2018 à 15:03:29  profilanswer
 

Reprise du message précédent :
Ca a son utilité pour les amateurs d'oc extrême.
 
Sous air / flotte ça n'a strictement aucun intérêt si ce n'est rester dans les clous de la norme PCI-SIG.

mood
Publicité
Posté le 28-09-2018 à 15:03:29  profilanswer
 

n°10435997
Bouvman
You fuck my wife ?
Posté le 28-09-2018 à 15:07:05  profilanswer
 


Une petite question : pourquoi n'vidia limite-t-il la consommation de ses cartes ? pour avoir moins de casse ? moins de retour SAV ? moins de retour négatifs quant à la consommation qui explose ?
 

n°10435999
mouctoupi
Posté le 28-09-2018 à 15:07:44  profilanswer
 

drey19 a écrit :


 
Edit : Sur Pcars 2 Spirit of le mans, sur monza, avec une indycar ça tourne entre 60 et 90FPs avec une majorité de fps au dessus de 80 tout au max SS 1.5.


 
Tu étais tout seul sur la piste ?

n°10436001
reflex69
Posté le 28-09-2018 à 15:09:18  profilanswer
 

HappyHarry a écrit :

est ce que les pascal avec 3 8pins clockaient mieux ?
 
non ? bon, ben tu as ta réponse :D


Aucun rapport de prendre Pascal pour conclure sur Turing  :pfff:  
C'est sûrement la première génération où le power limit est le facteur le plus limitant  :o

n°10436009
sardhaukar
Posté le 28-09-2018 à 15:20:11  profilanswer
 

Bouvman a écrit :


Une petite question : pourquoi n'vidia limite-t-il la consommation de ses cartes ? pour avoir moins de casse ? moins de retour SAV ? moins de retour négatifs quant à la consommation qui explose ?
 


 
Voir moins d'accidents domestiques pour cause de feu dans la maison il s'agit aussi de la sécurité des clients. C'est une CG ce n'est pas une plaque électrique, la conso de base est déjà élevée, 130% devient déraisonnable et au delà c'est de la folie sauf professionnel de l'oc.  :pt1cable:
 
Et puis pour gagner quoi ? Au delà du sweet spot (je ne le connais j'ai pas testé) c'est de moins en moins utile et peut devenir contre productif avec le throttle.

Message cité 1 fois
Message édité par sardhaukar le 28-09-2018 à 15:21:16
n°10436011
Bouvman
You fuck my wife ?
Posté le 28-09-2018 à 15:25:07  profilanswer
 

sardhaukar a écrit :


 
Voir moins d'accidents domestiques pour cause de feu dans la maison il s'agit aussi de la sécurité des clients. C'est une CG ce n'est pas une plaque électrique, la conso de base est déjà élevée, 130% devient déraisonnable et au delà c'est de la folie sauf professionnel de l'oc.  :pt1cable:
 
Et puis pour gagner quoi ? Au delà du sweet spot (je ne le connais j'ai pas testé) c'est de moins en moins utile et peut devenir contre productif avec le throttle.


 
Perso, n'ayant que des blowers, je n'OC pas, en tout cas je ne touche pas à la tension  [:turbocat:1] ...
 

n°10436014
reflex69
Posté le 28-09-2018 à 15:30:54  profilanswer
 

Bouvman a écrit :


Une petite question : pourquoi n'vidia limite-t-il la consommation de ses cartes ? pour avoir moins de casse ? moins de retour SAV ? moins de retour négatifs quant à la consommation qui explose ?
 


Sachant que le PCB n'a jamais été aussi bien armé pour encaisser (même sur FE) alors je suppose que c'est pour protéger la puce Turing qui est surdimensionnée et très complexe.
Et puis vouloir gratter les derniers % c'est plus pour l'OC, mais ça peut se justifier vu le prix des cartes...

n°10436015
havoc_28
Posté le 28-09-2018 à 15:33:36  profilanswer
 

reflex69 a écrit :


Sachant que le PCB n'a jamais été aussi bien armé pour encaisser (même sur FE) alors je suppose que c'est pour protéger la puce Turing qui est surdimensionnée et très complexe.
Et puis vouloir gratter les derniers % c'est plus pour l'OC, mais ça peut se justifier vu le prix des cartes...


 
On a toujours pas vu le comportement de la carte niveau consommation en RayTracing / DLSS. Vu que Nvidia un monitoring très poussé de ses puces, il est possible que la carte en garde en réserve dans les cars où l'on aura des scènes très chargés à tous les niveaux (rasterisation, RayTracing, DLSS).

Message cité 1 fois
Message édité par havoc_28 le 28-09-2018 à 15:35:10
n°10436016
Bouvman
You fuck my wife ?
Posté le 28-09-2018 à 15:33:59  profilanswer
 


Merci.
 

n°10436017
sardhaukar
Posté le 28-09-2018 à 15:35:22  profilanswer
 

J'ai pas lu encore de personne ayant joué avec l'undervolt.
Personne n'est tenté ?

mood
Publicité
Posté le 28-09-2018 à 15:35:22  profilanswer
 

n°10436026
aliss
Rhyme the Rhyme Well
Posté le 28-09-2018 à 15:44:19  profilanswer
 

reflex69 a écrit :


Aucun rapport de prendre Pascal pour conclure sur Turing  :pfff:  
C'est sûrement la première génération où le power limit est le facteur le plus limitant  :o


 
Les premiers essais de vmod démontrent plutôt une limitation architecturale et de process.
 
Pousser plus le PL n'apportera qu'un très faible gain accompagné d'une forte augmentation de conso.

n°10436028
TheRealBix
Posté le 28-09-2018 à 15:47:12  profilanswer
 

Des 2080 Ti à 1200€ chez TopAchat et HFR (Windforce, Inno3d, KFA...)
 
Avec les codes à 5% ça donne du 1140€, ça peut en intéresser certains... (pas moi perso :p )

n°10436029
Star2k
Posté le 28-09-2018 à 15:51:11  profilanswer
 

havoc_28 a écrit :

 

On a toujours pas vu le comportement de la carte niveau consommation en RayTracing / DLSS. Vu que Nvidia un monitoring très poussé de ses puces, il est possible que la carte en garde en réserve dans les cars où l'on aura des scènes très chargés à tous les niveaux (rasterisation, RayTracing, DLSS).


N'oublions pas qu'il y a cette histoire d'USB Type-C "Virtual link" qui, s'il a comme fonction d'alimenter un casque, doit demander des watts.

 

Et vu que tu vas me demander un lien :o : https://www.nvidia.com/en-us/geforce/technologies/vr/

Message cité 1 fois
Message édité par Star2k le 28-09-2018 à 15:51:47
n°10436035
MEI
|DarthPingoo(tm)|
Posté le 28-09-2018 à 15:56:39  profilanswer
 

Star2k a écrit :


N'oublions pas qu'il y a cette histoire d'USB Type-C "Virtual link" qui, s'il a comme fonction d'alimenter un casque, doit demander des watts.  
 
Et vu que tu vas me demander un lien :o : https://www.nvidia.com/en-us/geforce/technologies/vr/


Cad que :
- le PCB est conçu pour des puces 100% fonctionelles et avec 12Go de GDDR6 et avec 2x8pin ... y'a quand même 375W maxi de TDP sortable... donc quand même plus que ce que NVIDIA indique pour la 2080 Ti
- l'USB Type C c'est que quelque W et doit venir direct du PCIe je pense
- faut pas oublier que dans les benchs actuel on est sans usage des RT/Tensor  Core... Faudra voir dans les jeux RT comment ça se comporte en conso peak. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10436042
HappyHarry
Posté le 28-09-2018 à 16:08:22  profilanswer
 

reflex69 a écrit :


Aucun rapport de prendre Pascal pour conclure sur Turing  :pfff:  
C'est sûrement la première génération où le power limit est le facteur le plus limitant  :o


 
raison de plus , c'est encore moins utile d'ajouter un 8 pins quand la carte est encore plus fortement bridée ...
si ce n'est d'un point de vue marketing  :sarcastic:

n°10436044
drey19
Posté le 28-09-2018 à 16:10:15  profilanswer
 

mouctoupi a écrit :


 
Tu étais tout seul sur la piste ?


 
Il y avait 3 voitures devant.

n°10436054
Star2k
Posté le 28-09-2018 à 16:21:34  profilanswer
 

MEI a écrit :


Cad que :
- le PCB est conçu pour des puces 100% fonctionelles et avec 12Go de GDDR6 et avec 2x8pin ... y'a quand même 375W maxi de TDP sortable... donc quand même plus que ce que NVIDIA indique pour la 2080 Ti
- l'USB Type C c'est que quelque W et doit venir direct du PCIe je pense
- faut pas oublier que dans les benchs actuel on est sans usage des RT/Tensor  Core... Faudra voir dans les jeux RT comment ça se comporte en conso peak. ;)


 
Non, c'est jusqu'à 100w dispo... c'est pas les quelques watt venant du PCIe qui vont pouvoir fournir la demande.
 
https://www.nextinpact.com/news/107 [...] ce-rtx.htm (faut être prenium pour avoir l'info)

n°10436056
Miky 2001
N'y pense même pas !!!
Posté le 28-09-2018 à 16:23:50  profilanswer
 

https://www.techspot.com/article/1712-nvidia-dlss/
 
Cet article est passé ici ?
 
On va attendre des tests plus poussés que des demos, mais le DLSS ne semble pas si magique que ça ! En espérant que nvidia ne nous fasse pas croire n'importe quoi !!!

n°10436057
HappyHarry
Posté le 28-09-2018 à 16:24:07  profilanswer
 

MEI a écrit :


 
- faut pas oublier que dans les benchs actuel on est sans usage des RT/Tensor  Core... Faudra voir dans les jeux RT comment ça se comporte en conso peak. ;)


 
ou a quel point la partie raster va devoir etre abaissée pour que l'enveloppe globale soit respectée pendant que les RT/Tensor sont utilisées :ange:

n°10436058
Ouiche
Posté le 28-09-2018 à 16:25:19  profilanswer
 

Bouvman a écrit :


Une petite question : pourquoi n'vidia limite-t-il la consommation de ses cartes ? pour avoir moins de casse ? moins de retour SAV ? moins de retour négatifs quant à la consommation qui explose ?
 


 
La réponse "pr" : https://www.youtube.com/watch?v=GjpQwqtvCZc
 
En gros, c'est pour "garantir" que les cartes fonctionnent ~5 ans en moyenne. C'est peut être du pipo (j'en sais rien), mais officiellement c'est pour la fiabilité.

Message cité 1 fois
Message édité par Ouiche le 28-09-2018 à 16:26:37
n°10436060
TheRealBix
Posté le 28-09-2018 à 16:26:00  profilanswer
 

Star2k a écrit :


 
Non, c'est jusqu'à 100w dispo... c'est pas les quelques watt venant du PCIe qui vont pouvoir fournir la demande.
 
https://www.nextinpact.com/news/107 [...] ce-rtx.htm (faut être prenium pour avoir l'info)


 
 
C'est 27W pour le Virtual Link

n°10436061
dindger
Demain est un autre jour...
Posté le 28-09-2018 à 16:26:03  profilanswer
 

J'ai bench vite fait, MSI Duke 2080Ti @Stock de HFR
 
AC:Origin
FC5
F1 2018
 
conforme aux résultats de TPU
 
Etant donné que je viens d'une GTX 960 2Go... comment dire.... [:a t t i c u s:1]

n°10436063
davids
Posté le 28-09-2018 à 16:28:04  profilanswer
 

GTX 960 2go de transition parce que tu as vendu ta 1080Ti non ? :o :o

n°10436064
MEI
|DarthPingoo(tm)|
Posté le 28-09-2018 à 16:29:23  profilanswer
 

Star2k a écrit :


 
Non, c'est jusqu'à 100w dispo... c'est pas les quelques watt venant du PCIe qui vont pouvoir fournir la demande.
 
https://www.nextinpact.com/news/107 [...] ce-rtx.htm (faut être prenium pour avoir l'info)


Ouai enfin ca dépends le profil qu'à choisir NVIDIA.
 
Pour un headset VR, pas besoin de 100W ... :spamafote:
 
EDIT : Apparemment c'est 27W pour le power du VirtualLink.


Message édité par MEI le 28-09-2018 à 16:32:52

---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10436065
dindger
Demain est un autre jour...
Posté le 28-09-2018 à 16:30:02  profilanswer
 

davids a écrit :

GTX 960 2go de transition parce que tu as vendu ta 1080Ti non ? :o :o


non non je me trimballe ma 960 depuis 2015... j'ai sauté la génération Pascal  :D

n°10436066
davids
Posté le 28-09-2018 à 16:32:40  profilanswer
 

ton 8700K doit être content :d
 
 [:perco_35:2]


Message édité par davids le 28-09-2018 à 16:32:52
n°10436067
aliss
Rhyme the Rhyme Well
Posté le 28-09-2018 à 16:34:34  profilanswer
 

Miky 2001 a écrit :

https://www.techspot.com/article/1712-nvidia-dlss/
 
Cet article est passé ici ?
 
On va attendre des tests plus poussés que des demos, mais le DLSS ne semble pas si magique que ça ! En espérant que nvidia ne nous fasse pas croire n'importe quoi !!!


 
Sur la deuxième demo il arrive au même rendu et même framerate en 1800p + TAA...
 
J'ose croire que nV n'a pas conçu le DLSS uniquement pour justifier la présence des RT Core... :D  

n°10436069
havoc_28
Posté le 28-09-2018 à 16:37:33  profilanswer
 

aliss a écrit :


 
Sur la deuxième demo il arrive au même rendu et même framerate en 1800p + TAA...
 
J'ose croire que nV n'a pas conçu le DLSS uniquement pour justifier la présence des RT Core... :D  


 
Tensor Core.

n°10436072
MEI
|DarthPingoo(tm)|
Posté le 28-09-2018 à 16:39:07  profilanswer
 

aliss a écrit :


 
Sur la deuxième demo il arrive au même rendu et même framerate en 1800p + TAA...
 
J'ose croire que nV n'a pas conçu le DLSS uniquement pour justifier la présence des RT Core... :D  


Non le DLSS existe pour eviter que RT+AA ne soit du slide show c'est tout...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10436073
Miky 2001
N'y pense même pas !!!
Posté le 28-09-2018 à 16:39:35  profilanswer
 

aliss a écrit :


 
Sur la deuxième demo il arrive au même rendu et même framerate en 1800p + TAA...
 
J'ose croire que nV n'a pas conçu le DLSS uniquement pour justifier la présence des RT Core... :D  


 
L'avenir nous le dira, mais se serait moche... :(
 
Edit : on parle des tensor core pour être plus précis ( :jap: havoc_28)... J'espère que le DLSS n'est pas un artifice factice pour justifier l'intérêt des Tensor Core aujourd'hui inexploités sans la RT encore implémentée


Message édité par Miky 2001 le 28-09-2018 à 16:45:01
n°10436074
aliss
Rhyme the Rhyme Well
Posté le 28-09-2018 à 16:41:15  profilanswer
 

havoc_28 a écrit :


 
Tensor Core.


 
 :jap:  
 
Mais le fait est que Turing en a hérité de Volta et qu'il fallait sans doute leur trouver une utilité.

n°10436075
havoc_28
Posté le 28-09-2018 à 16:42:36  profilanswer
 

aliss a écrit :

:jap: Mais le fait est que Turing en a hérité de Volta et qu'il fallait sans doute leur trouver une utilité.


 
ça aide aussi pour réduire le bruits de certaines parties du RayTracing, bref RT Core + Tensor Core sont complémentaires. Le GV100 utilisait ses tensors core pour cela. Mais c'est sur que reprendre une base Volta avec quelques améliorations incrémentales  + tensors cores, c'était le plus efficient niveau coût de conception ?


Message édité par havoc_28 le 28-09-2018 à 16:44:30
n°10436077
MEI
|DarthPingoo(tm)|
Posté le 28-09-2018 à 16:45:49  profilanswer
 

aliss a écrit :


 
Sur la deuxième demo il arrive au même rendu et même framerate en 1800p + TAA...
 
J'ose croire que nV n'a pas conçu le DLSS uniquement pour justifier la présence des RT Core... :D  


Faut se recentrer... le DLSS > TAA en perf et en qualité.
 
Et le TAA n'est déjà pas très gourmand. Le DLSS c'est quand censé simuler du FSAA 64X à la 3Dfx ...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10436078
HappyHarry
Posté le 28-09-2018 à 16:46:27  profilanswer
 

ca ajoute artificiellement de la valeur au produit
fallait bien avoir qqchose à vendre ... cher de préférence

n°10436079
Miky 2001
N'y pense même pas !!!
Posté le 28-09-2018 à 16:47:12  profilanswer
 

MEI a écrit :


Faut se recentrer... le DLSS > TAA en perf et en qualité.


 
re-check l'article, mais c'est pas vraiment leur conclusion... après on a pas grand chose aujourdhui pour comparer

n°10436082
aliss
Rhyme the Rhyme Well
Posté le 28-09-2018 à 16:48:42  profilanswer
 

MEI a écrit :


Faut se recentrer... le DLSS > TAA en perf et en qualité.
 
Et le TAA n'est déjà pas très gourmand. Le DLSS c'est quand censé simuler du FSAA 64X à la 3Dfx ...


 
Le hic c'est qu'il arrive au même framerate avec un rendu similaire.
 
On attendra plus de tests et bien évidemment les premiers ajouts en RT dans quelques mois mais sur ces démos le bilan est mitigé.

n°10436083
TheRealBix
Posté le 28-09-2018 à 16:48:44  profilanswer
 

Pas bête du tout la comparaison avec le 1800p, c'est une résolution que j'utilise d'ailleurs sur mon écran quand la 4K ne passe pas.
 
Et du coup... Ben c'est vrai que c'est tout de suite moins glorieux au niveau de la comparaison...  
Le plan sur la ville est meilleur avec DLSS mais sur l'autre scène en intérieur c'est kifkif voire meilleur en 1800p.

n°10436084
Ouiche
Posté le 28-09-2018 à 16:48:47  profilanswer
 

Miky 2001 a écrit :

https://www.techspot.com/article/1712-nvidia-dlss/
 
Cet article est passé ici ?
 
On va attendre des tests plus poussés que des demos, mais le DLSS ne semble pas si magique que ça ! En espérant que nvidia ne nous fasse pas croire n'importe quoi !!!


 
Le seul truc que je trouve bien fait dans cette démo, c'est la crêpe  :whistle:
 
Et encore, la grosse interrogation c'est la température et la consommation du DLSS / RT. Si c'est cartes tapent déjà leur TDP sans... qu'est ce qui se passe quand c'est activé? La fréquence gpu chute?


Message édité par Ouiche le 28-09-2018 à 16:49:08
n°10436085
MEI
|DarthPingoo(tm)|
Posté le 28-09-2018 à 16:49:03  profilanswer
 

Miky 2001 a écrit :


 
re-check l'article, mais c'est pas vraiment leur conclusion... après on a pas grand chose aujourdhui pour comparer


D'après les screens, c'est clairement mieux anti aliasé et moins blurry en DLSS qu'en TAA...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10436086
sardhaukar
Posté le 28-09-2018 à 16:49:04  profilanswer
 

Peut être que le jour où on aura + que des démos sans gameplay on pourra juger. Pour l'instant, c'est de l'unité de calcul qui dort et qui attends du miam miam.

n°10436087
Miky 2001
N'y pense même pas !!!
Posté le 28-09-2018 à 16:51:01  profilanswer
 

MEI a écrit :


D'après les screens, c'est clairement mieux anti aliasé et moins blurry en DLSS qu'en TAA...


 
si tu compares le 1800P TAA (+upscale) et le 4K DLSS : leur conclusion c'est : même rendu, même perfs

Message cité 1 fois
Message édité par Miky 2001 le 28-09-2018 à 16:52:44
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  242  243  244  ..  845  846  847  848  849  850

Aller à :
Ajouter une réponse
 

Sujets relatifs
Aide: peut-on mettre une NVIDIA GeForce 980M sur un Schenker XMG P724?GPU nvidia inutilisable apres changement carte mere
Impossible de réinstaller les pilotes nvidiaBIOS NVIDIA 9600M GT 512 MB GDDR3
Upgrade config / i7 4770k Nvidia m2000Problème mise à jour carte graphique Nvidia
Intel Xeon W 2133 + Nvidia P4000 en version "grand public" ?Artefacts Carte Graphique Nvidia
Bruit parasite Son suite update driver Nvidia GTX 680 
Plus de sujets relatifs à : [Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)