Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3135 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  365  366  367  ..  845  846  847  848  849  850
Auteur Sujet :

[Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)

n°10469564
Profil sup​primé
Posté le 18-11-2018 à 06:05:38  answer
 

Reprise du message précédent :
pas -, développas ..
Et => eût fallu (conditionnel passé deuxième forme)

Spoiler :

Oui les [:mike hoksbiger], je sais

sniper 46 a écrit :

Surtout lorsque tu écris des choses erronées et que tu  n'assumes pas.

Il y a de ça


Message édité par Profil supprimé le 18-11-2018 à 06:15:22
mood
Publicité
Posté le 18-11-2018 à 06:05:38  profilanswer
 

n°10469571
Ozhack78
Posté le 18-11-2018 à 07:18:49  profilanswer
 

Ma MSI 2080 Gaming X trio
 
https://i.imgur.com/ipZT5jr.jpg
https://i.imgur.com/vhC7I5v.jpg

Message cité 2 fois
Message édité par Ozhack78 le 18-11-2018 à 07:20:22

---------------
Uplay / Steam / Origin : Ozhack - Xbox / PSN : Ozhack78 - Rockstar : Ozhack27
n°10469576
charognard​37
Vivement la retraite !
Posté le 18-11-2018 à 07:44:06  profilanswer
 

ça devient très chiant ces commentaires 'enculeur de mouche' à chaque fois qu'une personne donne un avis ou une information (Surtout lorsque que l'on sent qu'il a eu de la cherche derrière) .
ça rend ce fil non agréable à lire et les parties intéressantes sont noyées dans un flot perpétuel de connerie.
Je y changerai malheureusement rien, et en plus je participe à la création d'un post inutile par la présente.
Mais bon c'est dit.
Pas la peine de répondre, vous êtes plus intelligent ça !
 
Si vous voulez vraiment polémiquer, il y a des appli poubelles pour cela genre FaceBook ou Twitter, n'hésitez pas la bas tout le monde se regarde le nombril.
 
Pour les auteurs donc de posts 'interressants' soit au max 5% de ce fil. Nous lecteurs SILENCIEUX, on vous aime continuez.
 
enfin 366 pages, alors que les cartes sont encore vendues en mode échantillonnage, contre 1005 pour la génération précédente. Je pense que l'a on peut battre un record mais ça ne sera pas dans le qualitatif ;)


Message édité par charognard37 le 18-11-2018 à 07:54:06
n°10469582
charognard​37
Vivement la retraite !
Posté le 18-11-2018 à 08:14:46  profilanswer
 

Je reviens au sujet.
et je pars de cette photo
https://img.purch.com/dlss-nvidia/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS82L1AvODA2MzUzL29yaWdpbmFsL0ZGLVhWLWdsb2JhbC5wbmc=
je l'ai vu déjà depuis quelques dizaines de jours (pas la peine de répondre, c'est pas la question), et comme une majorité d'entre-vous sur le coup je criais à l'entourloupe.
COMMENT LE DLSS peut rendre net quelque chose qui n'est pas sur l'image brute ? (et oui je pensais à l'époque qu'il fonctionnait un peu comme AA)
Pire même, le flou est à travers la vitre de la voiture et pas sur le reste de l'arrière plan.
Sachant que le blur est un post traitement, j'en viens à me demander si celui-ci est compatible avec le DLSS. En effet si le deep Learning peut extrapoler les pixels manquant, et de façon convaincante me semble t-il, pour la profondeur de champ ça me semble plus problématique en post traitement après le DLSS. Et avant ça me semble encore moins possible car ça ferai perdre de l'information pour le traitement DLSS.
 
Bref j'attends pas de réponse de votre part (Puisque, pour la plupart d'entre vous, vous n'en savez pas plus), mais en allant faire popo hier la question m'est venue.
 
Par contre j'aimerai bien quelques photos, sur des jeux réels, avec le DLSS activé voir ce que donne ces filtres post traitement dont le blur justement.
Y a t'il des jeux DLSS ?
Lesquels ?
Quelqu'un pourrait le faire ?
 
Perso peux pas vous tester le truc, j'ai une carte de la génération précédente.

Message cité 3 fois
Message édité par charognard37 le 18-11-2018 à 08:22:07
n°10469587
Miky 2001
N'y pense même pas !!!
Posté le 18-11-2018 à 08:33:43  profilanswer
 

Le DLSS n’est pour l’instant implémenté dans aucun jeux. Donc aucun test possible...
 
Après le DLSS serait un upscale « intelligent » et « mystérieux » développé par nvidia.
On part du 1440p pour faire du 4k.
 
D’où le gain de perfs. Par contre on ne sait pas à quel moment du rendu cet upscale est réalisé, ce qui peut expliquer les différences de netteté dans le rendu final.
 
On avait linké un article qui analysait le DLSS il y a plus d’un mois ici... mais comme tu l’as dit, c’est plus interessant de parler de « c’est cher », « voleur » ou « ma 1080 est plus mieux »... donc bon

n°10469588
Uzudu
Posté le 18-11-2018 à 08:35:27  profilanswer
 

Salut, je te rejoins sur le fait que le topic ne soit pas très agréable à lire et c'est bien de remettre les choses à plat. Perso, je suis pas satisfait des performances de ma carte sur Battlefield V et j'ai amené des screenshots avec les FPS DXR ON sur chaque capture pour démontrer qu'en l'état c'était pas jouable, je décrie cette feature et je possède la carte donc, pas pour dire c'est de la merde l'ancienne gen c'est mieux.  :jap: (Mais bien, c'est de la merde actuellement, c'est pas jouable, mal optimisé, ça rajoute de l'input lag et même quand il n'y a pas d’effets à l'écran les FPS se divisent par deux )  
 
J'ai une RTX 2080 et je suis disposé à tester ce que tu veux, mais quoi?
Je crois qu'il y a aucune démo DLSS actuellement appart le bench de FF VX si?
 
J'ai une version reatail de FFXV (laissée à l'abandon) et le benchmark sur le pc, dis moi ce qui pourrait être utile?
 
Edit_le bench que j'ai sur mon disque n'est pas le bon, j'ai pas le DLSS, et dans le jeu non plus j'ai pas l'option  :(  (mars 2018  :whistle: )  
 
https://reho.st/medium/self/d8fc60bf9a5ccf2829628c2e097c7cd3fbb12d3e.png https://reho.st/medium/self/417ccbefe547752e7ae1aa2356c3b26303b53d30.jpg


Message édité par Uzudu le 18-11-2018 à 08:53:23
n°10469592
Dark Schne​iderr
⭐⭐
Posté le 18-11-2018 à 09:10:06  profilanswer
 

charognard37 a écrit :

Pire même, le flou est à travers la vitre de la voiture et pas sur le reste de l'arrière plan.
Sachant que le blur est un post traitement, j'en viens à me demander si celui-ci est compatible avec le DLSS. En effet si le deep Learning peut extrapoler les pixels manquant, et de façon convaincante me semble t-il, pour la profondeur de champ ça me semble plus problématique en post traitement après le DLSS. Et avant ça me semble encore moins possible car ça ferai perdre de l'information pour le traitement DLSS.

 

Oui, ou le Depth of Field. Tout ce qui est flou de perspective.

 

De même pour la partie conso, si pour un même TDP de 250 watts, les RT et Tensor Cores se mettent en oeuvre, quel est l'impact sur la partie s'occupant de la rasterisation ? Faudra bien qu'elle consomme moins ...

 

De plus, peut-on combiner RTX et DLSSS en même temps ?

 

Bref, on est dans le ... flou  :o

Message cité 1 fois
Message édité par Dark Schneiderr le 18-11-2018 à 09:11:08

---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°10469595
tistou77
Geek Inside!!
Posté le 18-11-2018 à 09:13:40  profilanswer
 


Salut
 
HS mais très joli ta backplate de la phoebus :)
tu l'as eu où (pas vendu avec je crois) ?
 


---------------
Mon topic d'achats/ventes: [VDS] Rien pour le moment
n°10469621
MateoTTR
old skool scene
Posté le 18-11-2018 à 10:07:03  profilanswer
 

charognard37 a écrit :


je l'ai vu déjà depuis quelques dizaines de jours (pas la peine de répondre, c'est pas la question), et comme une majorité d'entre-vous sur le coup je criais à l'entourloupe.
COMMENT LE DLSS peut rendre net quelque chose qui n'est pas sur l'image brute ? (et oui je pensais à l'époque qu'il fonctionnait un peu comme AA)
Pire même, le flou est à travers la vitre de la voiture et pas sur le reste de l'arrière plan.
Sachant que le blur est un post traitement, j'en viens à me demander si celui-ci est compatible avec le DLSS. En effet si le deep Learning peut extrapoler les pixels manquant, et de façon convaincante me semble t-il, pour la profondeur de champ ça me semble plus problématique en post traitement après le DLSS. Et avant ça me semble encore moins possible car ça ferai perdre de l'information pour le traitement DLSS.


 
Bonjour, je rejoins la remarque générale sur la qualité du topic, et j'ai le même sentiment en suivant le topic sur l'i9-9900K.  
Alors, soit je suis devenu un vieux con (probable), soit HFR s'est grave redditisé ces dernières années (probable aussi).
 
Concernant le Deep Learning, j'en fais au travail (sur des images spatiales) sans en être un expert pour autant, je peux essayer une explication intuitive pour le DLSS:
Imagine que tu génères des millions d'images très hautes résolutions de ton jeu (disons en 4K) en essayant de couvrir largement tous les rendus que le jeu peut donner (toutes les perspectives possibles avec tous les types de textures). A partir de ces exemples, tu peux générer les images de ces mêmes scènes en résolution plus basse (par exemple 1440p), et tu vas ensuite "éduquer" des réseaux de neurones profonds (avec des couches convolutionnelles) afin d'"encoder" les scènes basses résolutions et de les "décoder" sous la forme de scènes hautes résolutions.  
Cet apprentissage est extrêmement lourd par le volume de données nécessaires mais aussi le temps de calcul sur un cloud avec des machines multi-GPU, mais cela va fonctionner très bien. Après apprentissage, le réseau saura, en général et sur des images du jeu qu'il n'a encore jamais vues, récréer une version nette à partir d'une texture floue en "inventant" les détails perdus dans le sous-échantillonnage (violant en apparence le principe de Shannon).  
C'est sur la base de beaucoup d'exemples de ces mêmes textures dans la base d'apprentissage que le réseau aura appris une fonction inverse capable de créer une texture nette à partir de sa version floue.  
Evidemment, ces réseaux ne sont pas parfaits et peuvent faire des erreurs: la texture nette générée peut être "fausse" ou en tout cas différente de la vraie version nette provenant de la texture originale. Si tu fournis au réseau une image très différente (par ex. venant d'un autre jeu), il fera certainement un très mauvais upsampling, en générant potentiellement des détails qui n'ont rien à voir et sont inspirées des textures du jeu sur lequel il a appris à upsampler.
Il y a donc une grande limitation: cet apprentissage devra être réalisé en amont par nvidia, individuellement sur tous les jeux qu'ils voudront bien supporter. Il sera plus ou moins compliqué selon le jeu et la richesse des environnements du jeu. Pour des jeux à génération procédurale qui pourraient générer une grande variété de décors aléatoires, on peut imaginer que le DLSS serait très peu performant.
 
Sinon je me permets de poser une question sur la MSI 2080 Ti TRIO vendue par le shop HFR.  
Vous avez une idée pourquoi la carte est maintenant référencée en double chez eux?
https://shop.hardware.fr/fiche/AR201808170041.html - une première référence  à 1287,95€ que j'ai commandée il y a plus d'un mois  
https://shop.hardware.fr/fiche/AR201811060145.html - une nouvelle référence pour exactement la même carte mais au prix de 1312,96€

Message cité 2 fois
Message édité par MateoTTR le 18-11-2018 à 10:10:56

---------------
MSI MEG Z390 ACE | i9 9900K | H115i | 2x 16GB Vengeance RGB Pro 3200 MHz C16 | MSI RTX 2080 Ti Gaming X Trio | 2x Samsung 970 EVO 1TB | WD Blue 6TB | Obsidian 500D RGB SE | Corsair HX1000i
n°10469624
sniper 46
Posté le 18-11-2018 à 10:12:16  profilanswer
 

MateoTTR a écrit :


Sinon je me permets de poser une question sur la MSI 20180 ti TRIO vendue par le shop HFR.  
Vous avez une idée pourquoi la carte est maintenant référencée en double chez eux?
https://shop.hardware.fr/fiche/AR201808170041.html - une première référence  à 1287,95€ que j'ai commandée il y a plus d'un mois  
https://shop.hardware.fr/fiche/AR201811060145.html - une nouvelle référence pour exactement la même carte mais au prix de 1312,96€


 
Oui, il y a une version Gaming X Trio et la seconde, une Gaming Trio  :jap:  La déclinaison X dispose d'un OC d'usine (GPU Boost) légèrement plus élevé (1 755 contre 1 635 MHz). Pour le reste, c'est la même carte  :)

Message cité 1 fois
Message édité par sniper 46 le 18-11-2018 à 10:12:33

---------------
Pseudo en game - Icewind
mood
Publicité
Posté le 18-11-2018 à 10:12:16  profilanswer
 

n°10469627
lecas
Posté le 18-11-2018 à 10:12:53  profilanswer
 

Gammes Gaming et Gaming X la seule différence c'est l'overclocking d'usine

n°10469638
charognard​37
Vivement la retraite !
Posté le 18-11-2018 à 10:36:53  profilanswer
 

MateoTTR a écrit :


...Concernant le Deep Learning, j'en fais au travail (sur des images spatiales) sans en être un expert pour autant, je peux essayer une explication intuitive pour le DLSS:  
Imagine que tu génères des millions d'images très hautes résolutions de ton jeu (disons en 4K) en essayant de couvrir largement tous les rendus que le jeu peut donner (toutes les perspectives possibles avec tous les types de textures). A partir de ces exemples, tu peux générer les images de ces mêmes scènes en résolution plus basse (par exemple 1440p), et tu vas ensuite "éduquer" des réseaux d…


Merci pour le rappel sur le DEEP LEARNING, perso j'ai beaucoup lu dessus je connaissais déjà donc.
Et justement j'émets un doute sur le post traitement possible sur une image deeplearnée et j'attends impatiemment les premiers jeux l'intégrant pour confirmer ou infirmer la chose.

n°10469644
angelusdeu​s
BlobUmad
Posté le 18-11-2018 à 10:42:58  profilanswer
 


Tu nous feras un avant/après quand elle aura cramé ?  :D

n°10469654
ZzDazzleZz
Bencheur Oufff
Posté le 18-11-2018 à 11:07:51  profilanswer
 

Dark Schneiderr a écrit :


 
Oui, ou le Depth of Field. Tout ce qui est flou de perspective.
 
De même pour la partie conso, si pour un même TDP de 250 watts, les RT et Tensor Cores se mettent en oeuvre, quel est l'impact sur la partie s'occupant de la rasterisation ? Faudra bien qu'elle consomme moins ...
 
De plus, peut-on combiner RTX et DLSSS en même temps ?
 
Bref, on est dans le ... flou  :o


 
En regardant des liens sur youtube "avec monitoring", on constate aucune chute de fréquence GPU in game sous BFV avec RTX ON.
Donc j'en déduis aucune surchauffe ni surconsommation  :D


Message édité par ZzDazzleZz le 18-11-2018 à 11:15:24
n°10469655
Pumpkins55
Emptiness is loneliness
Posté le 18-11-2018 à 11:09:28  profilanswer
 

angelusdeus a écrit :


Tu nous feras un avant/après quand elle aura cramé ?  :D


Merci pour ta contribution trollesque qui enrichit un peu plus le topic... [:prozac]

n°10469656
ol1v1er
Posté le 18-11-2018 à 11:10:43  profilanswer
 

charognard37 a écrit :


Merci pour le rappel sur le DEEP LEARNING, perso j'ai beaucoup lu dessus je connaissais déjà donc.
Et justement j'émets un doute sur le post traitement possible sur une image deeplearnée et j'attends impatiemment les premiers jeux l'intégrant pour confirmer ou infirmer la chose.


 
 
On verra ça avec les 3080, 3080ti  :)  
Un peu comme le fameux ray tracing :o

n°10469668
Profil sup​primé
Posté le 18-11-2018 à 11:21:37  answer
 

cette génération de carte graphique semble faire couler plus d'encre que de FPS.....
 
Bon perso  le rt dans BFV est pas si mal, mais rien de bien folichon, surtout en mouvement,  
le drop de frame rate est quand même important pour qq reflets, ça reste beau quand même.
 
Faut plus de rt core je pense pour la gen suivante et ou une meilleur opti, je sais pas trop,  
j'ai l'impression de voir la même chose qu'a la sortie de physx,  
de toute façon faut bien qu'ils apportent de nouvelles choses, le rt me semble pertinent, qui vivra verra ^^
 
Mon post est inutile, je sais.....

Message cité 1 fois
Message édité par Profil supprimé le 18-11-2018 à 11:22:47
n°10469702
ZzDazzleZz
Bencheur Oufff
Posté le 18-11-2018 à 11:52:15  profilanswer
 


 
Me semble que tu n'as pas vraiment vu le RT en action dans BFV, pour moi visuellement c'est une giga claque, et apporte beaucoup plus de réalisme dans le jeu.
Après faudrait pas demander la lune niveau perfs pour une première génération de carte.
Il devrait y avoir des nouvelles turing en 2019 qui devrait apporter un gain de performance non négligeable, reste plus qu'à attendre [:zest:1]

n°10469706
Profil sup​primé
Posté le 18-11-2018 à 11:58:36  answer
 

charognard37 a écrit :

Je reviens au sujet.
et je pars de cette photo


 
 
 
la plaque d'immatriculation au premier plan est bien vilaine  en DLSS :/
le crénelage est également bien marqué sur les contours de la caisse comparé au TAA  
 
le fait qu'on part d'une résolution plus faible est nettement visible sur ce screen :/


Message édité par Profil supprimé le 18-11-2018 à 12:03:05
n°10469709
Bouvman
You fuck my wife ?
Posté le 18-11-2018 à 12:04:51  profilanswer
 
n°10469743
Profil sup​primé
Posté le 18-11-2018 à 12:52:33  answer
 

ZzDazzleZz a écrit :


 
Me semble que tu n'as pas vraiment vu le RT en action dans BFV, pour moi visuellement c'est une giga claque, et apporte beaucoup plus de réalisme dans le jeu.
Après faudrait pas demander la lune niveau perfs pour une première génération de carte.
Il devrait y avoir des nouvelles turing en 2019 qui devrait apporter un gain de performance non négligeable, reste plus qu'à attendre [:zest:1]


 
oui, tu as raison, j'ai vu que des vidéos,  c'est beau c'est sur, mais dans un jeu comme BFV,  
dans le feu de l action, on les remarque vraiment les reflets ou on fini par les oublier,  
en gros, effet wow puis "bon bin voila", je désactive parce que je veux plus de frame rate?
 
en gros vous préférez jouer à BFV avec rt ou vous finissez par desactiver pour un max de frame rate? (bien sur je m'adresse a tous ceux qui sont sur BFV avec des rtx 2080 ou Ti)
 
BFV est un jeu qui s’apprécie surtout avec un gros frame rate (bien sur c'est perso)  
y jouer a 60 fps avec rt vs 120 fps sans rt.....hum....il me faudrait une rtx pour vraiment le savoir en faite, les vidéos ne suffisent pas pour que je prenne une décision.
pour un autre style de jeu ou le frame rate n'est pas aussi important que BFV, oui la je ne doute pas qu'on laisse le rt activé.
 
Mais on parle de plus de 1200€ pour la TI et 800 pour le rtx 2080 ^^ , et passer d'une gtx 1080 bien oc à une rtx 2080, bof, la TI oui mais le prix est un frein énorme pour moi...
Sans parler que rester en full hd 144hz avec des CG comme ça est inconcevable, ça reste possible dans un 1er temps mais sur le long terme, bof, déjà qu'avec ma gtx 1080 j'aimerais passer sur du 27" 2560x1440, donc faut encore que je change de moniteur (un Gsync de préférence en plus ) , la note risque d'être vraiment trop salé ^^

Message cité 1 fois
Message édité par Profil supprimé le 18-11-2018 à 12:54:24
n°10469756
ZzDazzleZz
Bencheur Oufff
Posté le 18-11-2018 à 13:28:48  profilanswer
 


 
Bah avec une 1080 il vaut mieux attendre la prochaine révision ^^, sinon pour le RT je dirais qu'en multi il vaut mieux couper le RT pour avoir un maxx de perf et garder le RT en solo  :jap:.
A voir s'il y aura une amélioration des perfs dans le futur mais en l'état c'est déjà bluffant  :love:  
 
Plus qu'à espérer une grosse chute des prix d'ici la fin d'année surtout sur les 2080 Ti  :pt1cable:  

n°10469757
Dark Schne​iderr
⭐⭐
Posté le 18-11-2018 à 13:30:13  profilanswer
 

Je ne crois pas qu'on verra une chute des prix d'ici la fin de l'année sur les Turing.


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°10469758
Profil sup​primé
Posté le 18-11-2018 à 13:31:40  answer
 

j'en ai bien peur ^^

n°10469779
xsirx
Posté le 18-11-2018 à 14:05:46  profilanswer
 

C'est vraiment pénible, impossible de me décider
 
-2080ti et 2080 c'est trop cher et semble peu pérenne pour les performances en RT (qui sont trop faibles je trouve)
 
-2070 La moins chère mais le RT est cosmétique (autant prendre une 1080ti voire une 1080 d'occase)
 
-Mais je trouve embêtant de dépenser 550 euros pour une carte d'ancienne génération
 
 
Me tromperais-je ?
 
Bref merci nvidia  :pfff:


---------------
RIP Ian Murdock :(
n°10469784
bigbenze
Posté le 18-11-2018 à 14:17:46  profilanswer
 

xsirx a écrit :

C'est vraiment pénible, impossible de me décider
 
-2080ti et 2080 c'est trop cher et semble peu pérenne pour les performances en RT (qui sont trop faibles je trouve)
 
-2070 La moins chère mais le RT est cosmétique (autant prendre une 1080ti voire une 1080 d'occase)
 
-Mais je trouve embêtant de dépenser 550 euros pour une carte d'ancienne génération
 
 
Me tromperais-je ?
 
Bref merci nvidia  :pfff:


 
je suis exactement dans le même cas que toi et j'en viens même à me demander si je vais pas faire tirer ma 970 sur du 1440p même si je dois faire de gros sacrifices niveau qualité graphique.  
Ca me fait clairement chier en venant de me faire plaisir en prenant un asus pg279q mais d'un autre coté tout comme toi j'ai l'impression d'être perdant sur tous les tableaux  


---------------
Feed back / Ach-Vente
n°10469792
MateoTTR
old skool scene
Posté le 18-11-2018 à 14:29:42  profilanswer
 

sniper 46 a écrit :

Oui, il y a une version Gaming X Trio et la seconde, une Gaming Trio  :jap:  La déclinaison X dispose d'un OC d'usine (GPU Boost) légèrement plus élevé (1 755 contre 1 635 MHz). Pour le reste, c'est la même carte  :)


 
Merci j'avais pas noté la différence avec le "X" dans le titre.
Alors tu coup, le shop HFR vent la carte overclockée (déclinaison X) moins cher que celle non-overclockée :) Je sens que je ne suis pas prêt de la recevoir la version X à 1280€ :)


---------------
MSI MEG Z390 ACE | i9 9900K | H115i | 2x 16GB Vengeance RGB Pro 3200 MHz C16 | MSI RTX 2080 Ti Gaming X Trio | 2x Samsung 970 EVO 1TB | WD Blue 6TB | Obsidian 500D RGB SE | Corsair HX1000i
n°10469793
Profil sup​primé
Posté le 18-11-2018 à 14:39:12  answer
 

xsirx a écrit :

C'est vraiment pénible, impossible de me décider
 
-2080ti et 2080 c'est trop cher et semble peu pérenne pour les performances en RT (qui sont trop faibles je trouve)
 
-2070 La moins chère mais le RT est cosmétique (autant prendre une 1080ti voire une 1080 d'occase)
 
-Mais je trouve embêtant de dépenser 550 euros pour une carte d'ancienne génération
 
 
Me tromperais-je ?
 
Bref merci nvidia  :pfff:


 

bigbenze a écrit :


 
je suis exactement dans le même cas que toi et j'en viens même à me demander si je vais pas faire tirer ma 970 sur du 1440p même si je dois faire de gros sacrifices niveau qualité graphique.  
Ca me fait clairement chier en venant de me faire plaisir en prenant un asus pg279q mais d'un autre coté tout comme toi j'ai l'impression d'être perdant sur tous les tableaux  


 
Pareil, je me demande du coup si c'est pas un signe pour sauter cette génération de GPU.... :??:

n°10469795
sardhaukar
Posté le 18-11-2018 à 14:42:18  profilanswer
 

xsirx a écrit :

C'est vraiment pénible, impossible de me décider
 
-2080ti et 2080 c'est trop cher et semble peu pérenne pour les performances en RT (qui sont trop faibles je trouve)
 
-2070 La moins chère mais le RT est cosmétique (autant prendre une 1080ti voire une 1080 d'occase)
 
-Mais je trouve embêtant de dépenser 550 euros pour une carte d'ancienne génération
 
 
Me tromperais-je ?
 
Bref merci nvidia  :pfff:


 

bigbenze a écrit :


 
je suis exactement dans le même cas que toi et j'en viens même à me demander si je vais pas faire tirer ma 970 sur du 1440p même si je dois faire de gros sacrifices niveau qualité graphique.  
Ca me fait clairement chier en venant de me faire plaisir en prenant un asus pg279q mais d'un autre coté tout comme toi j'ai l'impression d'être perdant sur tous les tableaux  


 
Choix 1 : 1080ti occasion (1080 trop chères rapport aux 1080ti occaz' et 1070ti neuves) => 1440@+ de 100fps  
Choix 2 : 1070ti@400€ neuve voire Vega64 si bonne promo. => 1440p@60/1080p@144hz
Choix 3 : 1070 tout court occasion ~270€ => 1440p@60/1080p@144hz avec quelques curseurs plus bas (ombres ? AA ?)
Choix 4 : 980ti custom hdg occasion ~230€ => Perfs idem 1070. Avantage, ces cartes ne sont pas efficaces en minage et donc auront servis en gaming.
Choix 5 : Attendre le 7nm (date inconnue)
 
Regardez bien le BF soyez réactifs vendredi, on sait jamais.


Message édité par sardhaukar le 18-11-2018 à 14:46:38
n°10469798
sardhaukar
Posté le 18-11-2018 à 14:49:15  profilanswer
 

Pour rester plus dans le sujet, j'aurais bien aimé voir des comparos de CPUs pour le Ray Tracing. J'ai ouïe dire que Dice conseillait spécifiquement du 6c/12t et + pour le rendu RT et je m'interroge sur la participation ou non du CPU sur les perfs. Si quelqu'un a pu voir, ça m'intéresse.  :jap:


Message édité par sardhaukar le 18-11-2018 à 14:49:42
n°10469929
Lykomax
Posté le 18-11-2018 à 17:59:57  profilanswer
 

bigbenze a écrit :


je suis exactement dans le même cas que toi et j'en viens même à me demander si je vais pas faire tirer ma 970 sur du 1440p même si je dois faire de gros sacrifices niveau qualité graphique.  
Ca me fait clairement chier en venant de me faire plaisir en prenant un asus pg279q mais d'un autre coté tout comme toi j'ai l'impression d'être perdant sur tous les tableaux


 
Je suis exactement dans le même cas (double rebond), sauf que moi je possède une GTX1080 que j'ai acheté au bon moment (il y a 1 an et demi avant la hausse).
 
Là je suis entrain de réfléchir pour un écran 27"/1440p/144hz. Je pense que la 2080ti serait dispensable pour ce genre de résolution, en faisant quelques concessions avec ma GTX1080, ça devrait rouler.
 
A force d'écumer les boutiques et les comparatifs je finis par penser qu'acheter un écran Freesync est une bonne solution plutôt qu'un G-sync.
Vu comment Nvidia maltraite notre porte monnaie, faire 200€ d'économie sur l'écran ça fera comme une réduc de 200€ sur ma prochaine carte graphique qui serait une AMD du coup.
Nvidia nous plonge dans de sacrés dilemmes qui repoussent toutes mes décisions d'achat et je leur dit pas merci.
 
 
 
 

n°10469936
ZzDazzleZz
Bencheur Oufff
Posté le 18-11-2018 à 18:05:40  profilanswer
 

Lykomax a écrit :


 
Je suis exactement dans le même cas (double rebond), sauf que moi je possède une GTX1080 que j'ai acheté au bon moment (il y a 1 an et demi avant la hausse).
 
Là je suis entrain de réfléchir pour un écran 27"/1440p/144hz. Je pense que la 2080ti serait dispensable pour ce genre de résolution, en faisant quelques concessions avec ma GTX1080, ça devrait rouler.
 
A force d'écumer les boutiques et les comparatifs je finis par penser qu'acheter un écran Freesync est une bonne solution plutôt qu'un G-sync.
Vu comment Nvidia maltraite notre porte monnaie, faire 200€ d'économie sur l'écran ça fera comme une réduc de 200€ sur ma prochaine carte graphique qui serait une AMD du coup.
Nvidia nous plonge dans de sacrés dilemmes qui repoussent toutes mes décisions d'achat et je leur dit pas merci.
 


 
 
La prochaine révision turing fin 2019 au pire début 2020, pour la nouvelle archi sauce AMD ça sera pour au mieux début 2021 sans avoir la certitude du raytracing .
 
Perso si tu trouves un bon 27 1440p (gsync) en bon deal pendant les BF fonce...
Sinon tu vas devenir attendre longtemps et vu les tarifs des RX 590 qui sont pas très loin des bons plans sur les VEGA56.... :whistle:  
 

Message cité 1 fois
Message édité par ZzDazzleZz le 18-11-2018 à 18:06:03
n°10469946
stef95000
Posté le 18-11-2018 à 18:19:03  profilanswer
 

Concernant le souci de CG qui lâchent, je viens de monter un Pc pour mon frère avec une EVGA 2080 XC avec un GPU type A
 
D'origine aucun souci d'artefacts ou autre mais dès l'utilisation d'un soft d'OC avec +200 a la mémoire des artefacts apparaissent , aucun artefacts à +50...... même le scan auto faisait apparaître des artefacts  
 
Je lui ai viré EVGA Precision par plus de précaution .
 
J'ai laissé tourner le PC depuis 2 jours sur 3Dmark en boucle sans aucun problème  
 
J'ai l'impression que les RTX supporte très mal un OC en + de celui déjà pratiquer d'origine  
 
Je viens de tester avec ma 2080ti j'ai le même résultat , apres d'origine le GPU monte a 2100Mhz et en moyenne a 2070Mhz , la RAM ne supporte presque qu'aucun OC

n°10469951
It_Connexi​on
Posté le 18-11-2018 à 18:21:12  profilanswer
 

stef95000 a écrit :

Concernant le souci de CG qui lâchent, je viens de monter un Pc pour mon frère avec une EVGA 2080 XC avec un GPU type A
 
D'origine aucun souci d'artefacts ou autre mais dès l'utilisation d'un soft d'OC avec +200 a la mémoire des artefacts apparaissent , aucun artefacts à +50...... même le scan auto faisait apparaître des artefacts  
 
Je lui ai viré EVGA Precision par plus de précaution .
 
J'ai laissé tourner le PC depuis 2 jours sur 3Dmark en boucle sans aucun problème  
 
J'ai l'impression que les RTX supporte très mal un OC en + de celui déjà pratiquer d'origine  
 
Je viens de tester avec ma 2080ti j'ai le même résultat , apres d'origine le GPU monte a 2100Mhz et en moyenne a 2070Mhz , la RAM ne supporte presque qu'aucun OC


 
 :heink: 2 jours !!

n°10469953
stef95000
Posté le 18-11-2018 à 18:22:50  profilanswer
 

It_Connexion a écrit :


 
 :heink: 2 jours !!


 
Oui en boucle pour voir si la CG allait montrer une faiblesse avec la chaleur
 
edit : tu connais le menu stress test sur 3Dmark ...... (j'ai une licence  ;) )

Message cité 1 fois
Message édité par stef95000 le 18-11-2018 à 18:24:43
n°10469955
Profil sup​primé
Posté le 18-11-2018 à 18:22:59  answer
 

D'origine 2070, mais bien sûr :d ..

n°10469956
It_Connexi​on
Posté le 18-11-2018 à 18:25:06  profilanswer
 

stef95000 a écrit :


 
Oui en boucle pour voir si la CG allait montrer une faiblesse avec la chaleur


 
J'aurai jamais osé mais autant le faire au début oui  :jap:

n°10469965
Lykomax
Posté le 18-11-2018 à 18:36:05  profilanswer
 

ZzDazzleZz a écrit :


La prochaine révision turing fin 2019 au pire début 2020, pour la nouvelle archi sauce AMD ça sera pour au mieux début 2021 sans avoir la certitude du raytracing .
 
Perso si tu trouves un bon 27 1440p (gsync) en bon deal pendant les BF fonce...
Sinon tu vas devenir attendre longtemps et vu les tarifs des RX 590 qui sont pas très loin des bons plans sur les VEGA56.... :whistle:


 
Le raytracing ne m'intéresse pas, je trouve que c'est un gouffre énorme en terme d'images par secondes, et si tu veux maintenir du 120im/s TAF sur un bon écran 1440p ou 4k avec du raytracing, même une 3080ti pourrait ne pas suffire. Et il faudra encore 2 générations de consoles pour que ça devienne viable.  
Je préfère que les devs s'attardent à embellir les jeux avec les techniques actuelles de rastérisation plutôt que de perdre leur temps à optimiser le raytracing. Il y a qu'à voir les derniers hits PS4 (Uncharted et GoW) pour se convaincre que le PC peut mieux faire en terme d'effets faire sans avoir recours au raytracing.
 
Oui je suis à l'affut des bonnes affaires sur les écrans et je dirais pas non à un écran G-sync à vil prix pendant le BF. :)
 

n°10469970
ZzDazzleZz
Bencheur Oufff
Posté le 18-11-2018 à 18:41:18  profilanswer
 

Lykomax a écrit :


 
Le raytracing ne m'intéresse pas, je trouve que c'est un gouffre énorme en terme d'images par secondes, et si tu veux maintenir du 120im/s TAF sur un bon écran 1440p ou 4k avec du raytracing, même une 3080ti pourrait ne pas suffire. Et il faudra encore 2 générations de consoles pour que ça devienne viable.  
Je préfère que les devs s'attardent à embellir les jeux avec les techniques actuelles de rastérisation plutôt que de perdre leur temps à optimiser le raytracing. Il y a qu'à voir les derniers hits PS4 (Uncharted et GoW) pour se convaincre que le PC peut mieux faire en terme d'effets faire sans avoir recours au raytracing.
 
Oui je suis à l'affut des bonnes affaires sur les écrans et je dirais pas non à un écran G-sync à vil prix pendant le BF. :)
 


 
Franchement même en rasterisation BFV éclate la rétine comme il faut !! :) beaucoup plus impressionnant que les jeux PS4  :D

n°10469981
Lykomax
Posté le 18-11-2018 à 18:49:15  profilanswer
 

ZzDazzleZz a écrit :

 

Franchement même en rasterisation BFV éclate la rétine comme il faut !! :) beaucoup plus impressionnant que les jeux PS4  :D


Il faudrait que je regarde des vidéos pour me rendre compte.

 

Cela dit si je deviens accros au 120fps, avec mon nouvel écran, je laisserais le raytracing sur off, préférant la fluidité et les sensations aux graphismes, et je doute que le jeu devienne moche sans cette fonction.

 


Message édité par Lykomax le 18-11-2018 à 18:50:30
n°10469982
Karkrinola​S
Posté le 18-11-2018 à 18:49:41  profilanswer
 

ZzDazzleZz a écrit :


 
Franchement même en rasterisation BFV éclate la rétine comme il faut !! :) beaucoup plus impressionnant que les jeux PS4  :D


 
Toi, t'as pas de ps4 et tu n'as pas jouer à red dead redemption 2. Je n'ai pas testé BFV démo sous RTX, mais par rapport à BF1 je n'ai pas eu de grosse claque visuelle en rasterisation. Les cartes en multi ou en solo sont belles mais technologiquement parlant, RTX OFF, ça m'a l'air exactement pareil.

Message cité 1 fois
Message édité par KarkrinolaS le 18-11-2018 à 18:52:45
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  365  366  367  ..  845  846  847  848  849  850

Aller à :
Ajouter une réponse
 

Sujets relatifs
Aide: peut-on mettre une NVIDIA GeForce 980M sur un Schenker XMG P724?GPU nvidia inutilisable apres changement carte mere
Impossible de réinstaller les pilotes nvidiaBIOS NVIDIA 9600M GT 512 MB GDDR3
Upgrade config / i7 4770k Nvidia m2000Problème mise à jour carte graphique Nvidia
Intel Xeon W 2133 + Nvidia P4000 en version "grand public" ?Artefacts Carte Graphique Nvidia
Bruit parasite Son suite update driver Nvidia GTX 680 
Plus de sujets relatifs à : [Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)