Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3176 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  222  223  224  ..  801  802  803  804  805  806
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11170393
DVN
Posté le 25-10-2022 à 10:48:00  profilanswer
 

Reprise du message précédent :
Et bien j'espère pour toi que c'est juste un petit décalage.
 
 [:super victor]


---------------
Non, rien...
mood
Publicité
Posté le 25-10-2022 à 10:48:00  profilanswer
 

n°11170396
bonk1
Elle te plait ma soeur ?
Posté le 25-10-2022 à 10:52:06  profilanswer
 

Valaint67130 a écrit :

Si j'en ai plein mais ça foutrait en l'air mon câble management :o
 
Je l'ai mis à 70% de tdp pour le moment en préventif
 
Ça se trouve les gars qui ont cramés leurs connecteurs c'est juste parce qu'ils les avaient mal enfoncés, le petit "clic" c'est important !


 
L'échauffement a 2 causes possibles :
- un diamètre trop fin d'un cable électrique
- un contact pas idéal entre 2 broches. C'est d'ailleurs pour ça qu'en elec il ne faut pas trop serrer jusqu'à écraser les fils, c'est contre productif.
 
Le problème semble venir d'un contact imparfait du à une torsion des cables, ou un diamètre insuffisant. Il en résulte en cas de contact imparfait et du fait d'une surface de contact insuffisant des étincelles sur des surfaces mal en contact pour la migration des électrons, donc une combustion.  
 
https://www.techpowerup.com/forums/attachments/1666632905055-png.266978/

Message cité 1 fois
Message édité par bonk1 le 25-10-2022 à 10:53:03

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11170397
EnzoLouis
Posté le 25-10-2022 à 10:53:03  profilanswer
 

J'ai envoyé un mail. J'attends la réponse.
Bon, après, je ne compte pas l'utiliser avant début novembre, le 8 novembre selon Amazon, c'est à dire le jour ou vais fait recevoir mon Alim ATX 3.0.  :bounce:

n°11170398
jonas
c'est mon identité
Posté le 25-10-2022 à 10:54:46  profilanswer
 

jonas a écrit :

tiens, dans ceux qui ont commandé une gainward chez ldlc "7 à 14 jours", quelqu'un en a déjà reçu une ? :o


 
UP ! [:meganne]


---------------
et voilà
n°11170401
worm'skill​er
Le roi de la petit côte
Posté le 25-10-2022 à 10:57:07  profilanswer
 

korette1 a écrit :


 
Je suis d'accord. Je pense malgré tout que le câble Seasonic présente malgré tout moins de risque car ça a vraiment rien à voir. C'est vraiment un câble d'alim et j'ose espérer qu'il est vraiment calculé pour. C'est pas un adaptateur.
De plus, est ce voulu ou pas il est très rigide au niveau du connecteur de la carte graphique. Tu peux pas le plier tellement il est rigide donc il part à l'horizontal sur 3 ou 4cm. Alors c'est clair que le mec qui a pas un grand boitier je vois pas comment il fait avec ce câble.


 
 
je suis d'accord. Sur les asus thor 2 (alim frabriquée par seasonic) le cab ATX 5.0 est bien rigide.


---------------
"le prix passe, la qualité reste"
n°11170403
DVN
Posté le 25-10-2022 à 10:57:40  profilanswer
 

bonk1 a écrit :


 
L'échauffement a 2 causes possibles :
- un diamètre trop fin d'un cable électrique
- un contact pas idéal entre 2 broches. C'est d'ailleurs pour ça qu'en elec il ne faut pas trop serrer jusqu'à écraser les fils, c'est contre productif.
 
Le problème semble venir d'un contact imparfait du à une torsion des cables, ou un diamètre insuffisant. Il en résulte en cas de contact imparfait et du fait d'une surface de contact insuffisant des étincelles sur des surfaces mal en contact pour la migration des électrons, donc une combustion.  
 
https://www.techpowerup.com/forums/ [...] ng.266978/


 
Pour le coup, un plus gros connecteur est plus safe que ce connecteur tout fin pour éviter ce genre de problème.
Peut-être que les économies vont coûter cher au final...
 
 [:musacorp:4]


---------------
Non, rien...
n°11170410
brolysan2
Posté le 25-10-2022 à 11:06:38  profilanswer
 
n°11170414
n0name
Etat nounou, Etat soeur.
Posté le 25-10-2022 à 11:16:45  profilanswer
 

olioops a écrit :

Peu importe qu'il soit plié ou non, ça ne devrait pas pouvoir fondre ! ma 3080 est moins puissante et pourtant elle a 24 broches ...pas 12 :sweat:
ils se sont chier dessus stou :o arrêt de la production des 4090 et ils vont revoir leur copie [:airforceone]

 


C'est pas le nombre de broche qui compte hein, mais l'épaisseur et le bon contact dans les prises


---------------
Mes ventes: https://forum.hardware.fr/forum2.ph [...] 851&page=1
n°11170418
Kenadan
Twin rulez
Posté le 25-10-2022 à 11:21:43  profilanswer
 
n°11170421
Regla88
Posté le 25-10-2022 à 11:25:33  profilanswer
 

thekiller3 a écrit :


 
t'as trouvé une solution ? à par changer de boitier ...  :sweat:


 
Non, boitier ouvert pour l'instant, faudra voir si avec un de ces connecteur à 90° ça aide.

mood
Publicité
Posté le 25-10-2022 à 11:25:33  profilanswer
 

n°11170427
Rayaki
Posté le 25-10-2022 à 11:30:08  profilanswer
 

bonk1 a écrit :


Cependant avoir des cables de seasonic ou corsair m'inspire bien plus que des nvidia ou asus by nvidia. C'est leur job, et pas la même qualité en main. Même ceux d'une alim Asus sont au top en regard de ceux fournis avec la carte vidéo.


 
C'est bien pour ca que j'attendais la sortie des câbles Be Quiet plutôt que celui dans la boite de la 4090 :)
J'ai un peu plus confiance au constructeur de mon alimentation !
 


---------------
Clan Torysss.
n°11170431
bonk1
Elle te plait ma soeur ?
Posté le 25-10-2022 à 11:35:18  profilanswer
 

DVN a écrit :


 
Pour le coup, un plus gros connecteur est plus safe que ce connecteur tout fin pour éviter ce genre de problème.
Peut-être que les économies vont coûter cher au final...
 
 [:musacorp:4]


 
ben oui... et le petit connecteur avec 12 broches toutes fines est à mon avis moins apte à supporter le passage que 2 PCIE 8 PINS qui étaient de plus gros diamètre
 
En électricité on met pas un diamètre de cable identiique pour le plafonnier et une prise de sol qui tire 3000w
 
En théorie voici les diamètre par puissance :  
https://installation-electrique.oor [...] electrique
 
Or sur un connecteur 12 pins le fil du connecteur final doit faire 0.5mm2 tout au mieux, vu comme le connecteur est petit
 
D'ailleurs les problèmes sont au niveau du connecteur 12 pins dans la carte vidéo, pas au niveau des emboitements 8 pins PCIE vers le connecteur / centralisateur

Message cité 3 fois
Message édité par bonk1 le 25-10-2022 à 11:39:09

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11170432
Yopfraize
Posté le 25-10-2022 à 11:37:48  profilanswer
 

https://www.techpowerup.com/img/w9zX0fzgT1ufKTje.jpg
 
Bon bah c'est définitvement mort pour faire rentrer dans un O11 Evo ; y'a 2/2,5cm max d'écart.
 
Mais c'est n'importe quoi cette gen, faut des boitiers Grand Tour pour un foutu GPU.
 
Edit : Merde déjà postée l'image :o.


Message édité par Yopfraize le 25-10-2022 à 11:38:59
n°11170434
DVN
Posté le 25-10-2022 à 11:41:10  profilanswer
 

bonk1 a écrit :


 
ben oui... et le petit connecteur avec 12 broches toutes fines est à mon avis moins apte à supporter le passage que 2 PCIE 8 PINS qui étaient de plus gros diamètre
 
En électricité on met pas un diamètre de cable identiique pour le plafonnier et une prise de sol qui tire 3000w
 
En théorie voici les diamètre par puissance :  
https://installation-electrique.oor [...] electrique
 
Or sur un connecteur 12 pins le fil du connecteur final doit faire 0.5mm2 tout au mieux, vu comme le connecteur est petit
 
D'ailleurs les problèmes sont au niveau du connecteur 12 pins dans la carte vidéo, pas au niveau des emboitements 8 pins PCIE vers le connecteur / centralisateur


 
Bizarre quand même qu'un truc aussi "basique" passe à la conception.


---------------
Non, rien...
n°11170437
Warzeo
Posté le 25-10-2022 à 11:43:27  profilanswer
 

Rayaki a écrit :


Selon les jeux, le DLSS se fait discret ou un peu moins.
Après ca reste une option, on peux choisir Sans ou au moins le DLSS Quality sur nos jeux.
 
Personnellement, sur les 2 jeux dont je dispose et qui ont le DLSS, autant le DLSS performance est suffisant sur Outpost, autant sur CyberPunk je lui préfère complément le DLSS Qualité.
 
CyberPunk simplement parce que le soucis du DLSS se voit de 2 manières: les tapis dont la structure moire et les lignes/grilles qui peuvent montrer de l'aliasing selon les textures qu'il y a autour.
Et, le jeu étant codé comme il est :sarcastic: tu peux avoir un cas extreme : les vues miroirs.
Mais bon c'est tellement salement codé pour ces vues qu'on ne s'étendra pas sur le sujet [:manust]
 
Outpost, clairement le DLSS Qualité voir le performance donnent de bons résultats.
Mais bon se balader dans un monde open world nature, ce n'est pas un secret que le DLSS est sur son meilleur terrain :D
 
Quand on voit comment était le DLSS 1.0 à sa sortie et les améliorations qui ont suivi, je ne m'inquiètes pas trop sur les prochains updates coté DLSS. Ca continuera à s'améliorer un peu.
 
 
Pour le DLSS3, c'est une nouvelle techno et oui on pourra toujours trouver des cas particuliers où ce n'est pas parfait surtout dans sa première version.
La plupart des articles montrent tous les cas de figures possibles posant soucis, afin de montrer que la techno n'est pas parfaite et ca je peux l'admettre car cela reste de l'information.
Les interrogations oui, la psychose non ! il faut faire la part des choses en fonction des attentes du moment.
Il reste les soucis liés aux transparences et au déplacement verticaux, j'ai vu quelques exemples en vidéo où on peut voir des artefacts, ca ok !
Et bien soit on désactive la génération d'image si on a assez de framerate, soit on attend une amélioration genre DLSS 3.1 pour que les choses s'arrangent (un peu ? beaucoup ?)
 
Après le drama "gnagnagna DLSS c'est pas la vraie résolution et ca peux être flou, vous mentez" des 3080/3090, on a droit au nouveau drama du moment "gnagnagna la génération d'image n'est pas une vraie image calculée et ca peut être moche" des 4090/4080  [:n0b0dy:1]  
 
Une nouvelle techno sort, elle n'est pas parfaite ! laissez lui le temps de se mettre en place et s'améliorer !  :jap:  


 
Ah mais je trouve ça très bien le DLSS, après bien sûr il faut que ça reste propre sur le rendu final mais autrement c'est une aubaine. J'espère que ça arrivera sur Switch.
Et effectivement j'ai peu suivi les évolutions mais j'imagine que ça s'améliorera ou que comme je dis ça sera variable d'un jeu à l'autre !
Bon comme souvent avec le mode du PC après quoi, on cale tout au max et selon les FPS qu'on arrive à tenir on commence à réduire les trucs au fur et à mesure  :ange:  
 
 
 
Mouais j'ai pas joué au jeu mais on en dit quand même beaucoup de bien, et j'ai vu peu de gens trouver ça too much comme le sol miroir dans Watch Dogs !
 

DVN a écrit :


 
On va vraiment repartir sur le même débat du DLSS comme au temps du 1 alors qu'on en est au 3 ? Va falloir penser à changer de disque.
 
Si le DLSS vous convient pas et bien vous l'utilisez pas, les discussions qui servent à rien...
 
 [:zedlefou:1]


 
C'est intéressant le débat :jap:
Perso je suis toujours preneur de l'avis des autres pour savoir ce que les gens en pensent, les rendus selon les jeux, etc.
D'autant que j'ai une 1080 donc le DLSS je connais que dans la théorie pour l'instant haha

n°11170442
olioops
Si jeune et déjà mabuse.
Posté le 25-10-2022 à 11:48:45  profilanswer
 

n0name a écrit :


 
 
C'est pas le nombre de broche qui compte hein, mais l'épaisseur et le bon contact dans les prises


Oui merci je sais, c'était juste pour imager la répartition de la charge ! et les connecteurs du 12 broches ne sont pas beaucoup plus gros [:vilvatox:3]


Message édité par olioops le 25-10-2022 à 12:25:08

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11170444
zbineulong​time
☱☱☱☱☱☱☱☱☱☱☱☱
Posté le 25-10-2022 à 11:50:26  profilanswer
 

DLSS3 sur FS2020 en 4k ultra c'est très très propre.


---------------
.
n°11170445
francis125​6
Posté le 25-10-2022 à 11:51:32  profilanswer
 

Perso, j'avais testé le DLSS sur warzone avec une 3070. Ça rendait le jeu injouable.
 
J'espère que ça c'est grandement amélioré. :o

n°11170447
jonas
c'est mon identité
Posté le 25-10-2022 à 11:51:50  profilanswer
 

zbineulongtime a écrit :

DLSS3 sur FS2020 en 4k ultra c'est très très propre.


 
j'ai hâte ! sur écran, et dans le quest 2 :love:
 
y'a plus qu'à recevoir la carte :o
 
et faire une fresh install de mon pc par la même occasion, marre de ce windows beta :o


---------------
et voilà
n°11170454
EnzoLouis
Posté le 25-10-2022 à 11:58:25  profilanswer
 

Après, pour DLSS, c'est aussi une histoire de perception personnelle.  
 
J'peux faire un parallèle avec des vidéos de film/serie, où certaines personnes n'arrivent pas a voir si la qualité de cette vidéo est meilleure qu'une autre. Alors, que moi, si, je grille directement.

n°11170461
Valaint671​30
Cinquième soleil
Posté le 25-10-2022 à 12:04:13  profilanswer
 

Pour m'être servi du DLSS en qualité sur pas mal d'heures dans death stranding, Metro, RDR2, Horizon zero dawn et sur god of war en uhd, avec une 3090 ça apportait un plus et la différence de visuel était vraiment minime, en réalité on la voit quand on est statique et encore, faut vraiment se prendre pour manimal qui voit tout en mode faucon :o
 
C'est un faux débat depuis la 4090 de toutes façon :lol:
 
... Au moins jusqu’à ce qu'elle crame..


Message édité par Valaint67130 le 25-10-2022 à 12:05:01

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11170471
plopzor
Posté le 25-10-2022 à 12:17:50  profilanswer
 

J'attends l'enquête de gamernexus sur la surchauffe des 12VHPWR. Vu leur influence et leurs contacts avec nvidia, ca ne va pas traîner

n°11170472
Valaint671​30
Cinquième soleil
Posté le 25-10-2022 à 12:18:35  profilanswer
 

:o
 
Au bucher les scalpeurs de câbles
 
https://www.computerlounge.co.nz/sh [...] ower-cable


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11170474
zbineulong​time
☱☱☱☱☱☱☱☱☱☱☱☱
Posté le 25-10-2022 à 12:20:48  profilanswer
 


 
 [:haha prozac]


---------------
.
n°11170476
DVN
Posté le 25-10-2022 à 12:22:32  profilanswer
 


 
MAIS BORDEL
 
 [:ilovezadig:1]


---------------
Non, rien...
n°11170478
Warzeo
Posté le 25-10-2022 à 12:25:54  profilanswer
 

EnzoLouis a écrit :

Après, pour DLSS, c'est aussi une histoire de perception personnelle.  
 
J'peux faire un parallèle avec des vidéos de film/serie, où certaines personnes n'arrivent pas a voir si la qualité de cette vidéo est meilleure qu'une autre. Alors, que moi, si, je grille directement.


 
Ouais... après là-dessus, ceux qui activent les trucs au max sur leur télé, qui donne une image "fluide", des couleurs bleus, des noirs blanc.. et qui disent "ouais moi j'aime bien ça va", j'ai plus de mal  :whistle:  
Pour moi ça va à l'encontre même de ce que le réalisateur veut que l'on voit, et souvent ça gâche certaines scènes. D'où le mode "filmmaker".
Mais pour les jeux, c'est un peu différent. Après je vois ce que tu veux dire

n°11170485
-xan-
Posté le 25-10-2022 à 12:34:34  profilanswer
 

AllenMadison a écrit :

Ne jamais acheter du nvidia day one :o


 
Ne jamais rien acheter Day One en fait ... Le problème est que de nos jours, ne pas acheter Hour One = Rupture de Stock ...

n°11170486
- gab
Posté le 25-10-2022 à 12:35:31  profilanswer
 

bonk1 a écrit :

Or sur un connecteur 12 pins le fil du connecteur final doit faire 0.5mm2 tout au mieux, vu comme le connecteur est petit


Ça doit être au moins du 16 AWG, non ? (donc 1.3 mm²)
 
Du 18 ça serait 0.8 mm², mais je doute qu'ils aient utilisé ça pour faire passer 600w.


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°11170487
Profil sup​primé
Posté le 25-10-2022 à 12:36:20  answer
 

Warzeo a écrit :


 
Mouais j'ai pas joué au jeu mais on en dit quand même beaucoup de bien, et j'ai vu peu de gens trouver ça too much comme le sol miroir dans Watch Dogs !
 


 
Il est bien, je ne dis pas le contraire, mais perso, je trouve que ça brille trop, après les gouts et les couleurs ^^
 
Le RT c'est bien pratique pour les dev, mais bon pourquoi pas, l'avenir du jeu vidéo :??: , possible.
 
Amd va aussi dans ce sens pour le RT, on verra bien ce qu'elles vont donner, ça arrive bientôt.
 
J'espère qu'il y aura "baston" vs la 4080, la 4090 semble, elle, intouchable.
 
Par contre, je ne rêve pas de CG à 600watts.
 
Déjà que la 4090 demande un cpu qui pousse fort pour qu'elle s'exprime vraiment.
 
Le constat, pour l'instant, la 4090 est, je le pense réellement, une carte qui sera seule, toute seule et sans concurrence et ça pendant qqs années.
 
Mais soyons réaliste, vu le tarif actuel, c'est chaud, je pense garder ma 3090 encore un bon moment... prendre une 4090 avec mon R9 5950x, pas tip top,
je n'ai pas les moyens de changer toute ma config, donc je passe mon tour ;) , mais j'en rêve quand même.
 
La 4080, j'attends les tests, mais quand on regarde les spécifications vs la 4090, la 4080 sera nettement en dessous,  
il y aura certainement une 4080 TI pour combler le trou entre 4080 et 4090
Dans un an certainement, a moins qu'Amd pousse Nvidia dans les cordes (pour la 4080), pourquoi pas...

n°11170488
eastride
Posté le 25-10-2022 à 12:37:45  profilanswer
 

olioops a écrit :

Peu importe qu'il soit plié ou non, ça ne devrait pas pouvoir fondre ! ma 3080 est moins puissante et pourtant elle a 24 broches ...pas 12  :sweat:  
ils se sont chier dessus stou  :o arrêt de la production des 4090 et ils vont revoir leur copie  [:airforceone]


ça ne devrait... bah si c'est une règle de base de l'électricité, que ça te plaise ou pas
ça n'empêche qu'ils devraient revoir au minima leur design pour limiter le risque (visiblement beaucoup de boitier obligent de mettre de l'angle à ce connecteur)
voir leur section de câble si ils sont trop faible (mais ce serait une erreur de débutant)

n°11170490
-xan-
Posté le 25-10-2022 à 12:38:18  profilanswer
 

EnzoLouis a écrit :

https://i.gyazo.com/a7333a2bc45d18e [...] 881c54.png
 
Toujours rien de nouveau, alors que la carte devait être livrée aujourd'hui.  :sweat:  
Je vais les contactés demain.


 
Paiement Autorisé = Pas encore en stock ...
 
Tu peux les appeler mais a part annuler ta commande ou au mieux te donner une nouvelle date ils pourront pas grand chose pour toi ... Et en virement bancaire, ta commande est validé qu'a réception du paiement, tu dois être loin d'être de la top liste d'attente ...


Message édité par -xan- le 25-10-2022 à 12:39:22
n°11170495
eastride
Posté le 25-10-2022 à 12:45:09  profilanswer
 

Rayaki a écrit :


le seul graphique potable et parlant que j'ai trouvé sur les risques de pliage trop près du connecteur est le suivant:
 
https://www.techpowerup.com/forums/ [...] ng.266978/


ça image très bien ce que j'ai expliqué
 
il faut qu'il sortent un nouveau câble au connecteur coudé, et pas un connecteur coudé qui se clipse sur le câble actuel (à chaque connecteur, c'est un risque de problème d'arc électrique dans le temps)

n°11170498
olioops
Si jeune et déjà mabuse.
Posté le 25-10-2022 à 12:50:40  profilanswer
 

eastride a écrit :


ça ne devrait... bah si c'est une règle de base de l'électricité, que ça te plaise ou pas
ça n'empêche qu'ils devraient revoir au minima leur design pour limiter le risque (visiblement beaucoup de boitier obligent de mettre de l'angle à ce connecteur)
voir leur section de câble si ils sont trop faible (mais ce serait une erreur de débutant)


T'as pas compris ! l'utilisateur ne devrait pas se retrouver dans ce genre de situation, tout le monde n'a pas un boitier d'un mètre de large  :o ils ont mal conçu le produit pour la sortie, point.
Sérieux les gars faite un effort :sweat: stop le 1er degré, lisez un minimum entre les lignes [:delprozac]


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11170500
eastride
Posté le 25-10-2022 à 12:55:40  profilanswer
 


970 et 1080ti, aucun soucis et aucun repast, t° nickel
après on va peut-être déchanter en cas de soucis sur leur sav (celui de asus est bien nase aussi)
par contre, les utilitaires de gigabyte sont d'une nullité absolu

n°11170504
orion0101
Tuono V4 Factory depuis 2017!
Posté le 25-10-2022 à 13:00:17  profilanswer
 

DVN a écrit :


 
J'ai pas compris là ?
 
On me dit que c'est moins beau, je compare donc directement sur l'aspect sans chercher midi à quatorze heure.
 
Sinon j'ai pas vu d'artefact qui dégrade l'image ou autre, c'est terminé le temps du DLSS qui était perceptible dès qu'on bougeait, y'avait pas discussion quand c'est sorti.
 
Concernant les artefacts qu'on pointe aujourd'hui, c'est surtout sur le frame generator (nouvelle techno qu'on peut ne pas utiliser en plus du DLSS3) en fait mais quand t'es à 200 fps à moins de jouer au ralenti avec une loupe pour chercher les artefacts, tu verras absolument rien donc faut débat pour moi.
 
 [:pierroclastic:5]


 
Pour l'avoir testé très récemment ( hier :D ) sur BF2042, je peux t'assurer que c'est juste dégueulasse, y'a pas d'autre mot :lol:
Sur RDR2, c'était moyen malgré le rythme du jeu plus lent.
Je suis donc retourner au natif sur ces jeux.
 
Malgré tout, je perçois plus de potentiel à court et moyen terme à cette technologie qu'au RT.
 

zbineulongtime a écrit :

DLSS3 sur FS2020 en 4k ultra c'est très très propre.


 
HU avait fait une vidéo sur le DLSS 3 et justement pointait du doigt FS2020 comme étant soumis à quelques soucis.
Peut être résolu entre temps?


---------------
"Peu importe s'il dit la vérité, ce n'est pas une défense valable" "Il faut interpréter le tweet en se mettant au niveau, à la portée du Français et de l'électeur moyen"
n°11170505
DVN
Posté le 25-10-2022 à 13:01:18  profilanswer
 

orion0101 a écrit :


 
Pour l'avoir testé très récemment ( hier :D ) sur BF2042, je peux t'assurer que c'est juste dégueulasse, y'a pas d'autre mot :lol:
Sur RDR2, c'était moyen malgré le rythme du jeu plus lent.
Je suis donc retourner au natif sur ces jeux.
 
Malgré tout, je perçois plus de potentiel à court et moyen terme à cette technologie qu'au RT.
 


 
T'es sérieux de parler de BF 2042
 
 [:exceptionnalnain:1]


---------------
Non, rien...
n°11170506
Warzeo
Posté le 25-10-2022 à 13:05:05  profilanswer
 


 
Je me pose justement la question de prendre une 3080Ti ou 3090 en ce moment.
J'ai un peu peur de la conso/bruit, après on me parle d'UV donc pourquoi pas mais j'ai jamais rien bidouillé sur mon système donc faudrait que j'apprenne.
En tout cas j'ai l'impression que les 4080 seront trop cher pour moi, et pas forcément un gain massif (vs prix des 3080Ti et 3090 d'occase)

n°11170508
dedouille2​9
ex intermendiant du spectacle
Posté le 25-10-2022 à 13:07:47  profilanswer
 

petit test time spy "tout à stock" de ma config:
 
https://gpuz.techpowerup.com/22/10/25/4vp.png
 
http://www.3dmark.com/spy/31834191

n°11170509
eastride
Posté le 25-10-2022 à 13:08:48  profilanswer
 

olioops a écrit :


T'as pas compris ! l'utilisateur ne devrait pas se retrouver dans ce genre de situation, tout le monde n'a pas un boitier d'un mètre de large  :o ils ont mal conçu le produit pour la sortie, point.
Sérieux les gars faite un effort :sweat: stop le 1er degré, lisez un minimum entre les lignes [:delprozac]


tu n'a pas donné plus d'explication, et je ne suis pas devin
tu me reproche ce que tu fais dans ta réponse, hors mis que moi, j'ai développé
"ça n'empêche qu'ils devraient revoir au minima leur design pour limiter le risque"
 
bref, je propose qu'on ne se prenne pas la tête, encore moins en publique pour polluer le topic

n°11170510
orion0101
Tuono V4 Factory depuis 2017!
Posté le 25-10-2022 à 13:10:11  profilanswer
 

DVN a écrit :


 
En mode performance, c'est chiant de toujours prendre qu'un bout de phrase pour contredire...
 
 [:taijitu:3]


 

DVN a écrit :


 
T'es sérieux de parler de BF 2042
 
 [:exceptionnalnain:1]


 
:)
 

Spoiler :

Le prend pas mal, c'est juste pour rigoler :lol:


---------------
"Peu importe s'il dit la vérité, ce n'est pas une défense valable" "Il faut interpréter le tweet en se mettant au niveau, à la portée du Français et de l'électeur moyen"
n°11170511
Valaint671​30
Cinquième soleil
Posté le 25-10-2022 à 13:10:52  profilanswer
 


 
Il a l'air de faire chaud chez toi :o


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  222  223  224  ..  801  802  803  804  805  806

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)