Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4591 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  221  222  223  ..  801  802  803  804  805  806
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11170254
korette1
Posté le 25-10-2022 à 00:41:27  profilanswer
 

Reprise du message précédent :

cyberfred a écrit :

j'allais poser la même question que toi Korette1 ;)
de ce que j'avais compris jusque-là , comme le dit 3615buck , on avait déjà entendu parlé de ce souci mais cela concernait uniquement l'adaptateur  et qu'à priori , avec un branchement direct sur l'alim , on n'aurait pas ce souci éventuel.
sauf que maintenant on parle aussi de ce souci de câble plié et donc on peut logiquement aussi se poser la question sur un branchement direct à l'alim si le câble est trop plié


 
Moi en tout cas il est pas plié au niveau de la carte car j'ai un cosmos c700m et j'ai facile 3-4cm de marge entre la carte et la porte en verre.  

mood
Publicité
Posté le 25-10-2022 à 00:41:27  profilanswer
 

n°11170255
AllenMadis​on
Posté le 25-10-2022 à 00:42:03  profilanswer
 

korette1 a écrit :


 
Moi en tout cas il est pas plié au niveau de la carte car j'ai un cosmos c700m et j'ai facile 3-4cm de marge entre la carte et la porte en verre.  


 
Touche du bois alors  [:frogaski62:5]


---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°11170257
cyberfred
Posté le 25-10-2022 à 00:43:14  profilanswer
 

idem , comme je le disais au-dessus , le mien non plus n'est pas trop plié car il reste de la marge avec la façade extérieur du boitier.
on va croiser les doigts !

n°11170264
olioops
Si jeune et déjà mabuse.
Posté le 25-10-2022 à 01:01:57  profilanswer
 

Peu importe qu'il soit plié ou non, ça ne devrait pas pouvoir fondre ! ma 3080 est moins puissante et pourtant elle a 24 broches ...pas 12  :sweat:  
ils se sont chier dessus stou  :o arrêt de la production des 4090 et ils vont revoir leur copie  [:airforceone]


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11170270
AllenMadis​on
Posté le 25-10-2022 à 02:00:48  profilanswer
 

Ne jamais acheter du nvidia day one :o


---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°11170271
Rayaki
Posté le 25-10-2022 à 02:07:36  profilanswer
 

Warzeo a écrit :


 
Petit GPU..  :pt1cable:  
Sinon sur un Cyberpunk, même une 3090 fait pas du ultra sans DLSS. Même en 1440p je crois pas que ça tienne le 60fps avec RT. Et le jeu est pas plus beau sans RT que avec RT et DLSS.
C'est pas ce qu'en dise les joueurs en tout cas.
 
Sur le fond c'est vrai le DLSS c'est une aide, le rendu dépend des jeux, parfois c'est un peu plus beau.
Je suis un peu plus sceptique sur le DLSS 3 et les frames rajoutées avec artefacts, mais à voir in game, c'est peut-être optimisé au cas par cas.
Après j'imagine que c'est comme l'upscale de la Nvidia Shield, parfois c'est nickel, d'autres fois le traitement se voit un peu...


 
 
Selon les jeux, le DLSS se fait discret ou un peu moins.
Après ca reste une option, on peux choisir Sans ou au moins le DLSS Quality sur nos jeux.
 
Personnellement, sur les 2 jeux dont je dispose et qui ont le DLSS, autant le DLSS performance est suffisant sur Outpost, autant sur CyberPunk je lui préfère complément le DLSS Qualité.
 
CyberPunk simplement parce que le soucis du DLSS se voit de 2 manières: les tapis dont la structure moire et les lignes/grilles qui peuvent montrer de l'aliasing selon les textures qu'il y a autour.
Et, le jeu étant codé comme il est :sarcastic: tu peux avoir un cas extreme : les vues miroirs.
Mais bon c'est tellement salement codé pour ces vues qu'on ne s'étendra pas sur le sujet [:manust]
 
Outpost, clairement le DLSS Qualité voir le performance donnent de bons résultats.
Mais bon se balader dans un monde open world nature, ce n'est pas un secret que le DLSS est sur son meilleur terrain :D
 
Quand on voit comment était le DLSS 1.0 à sa sortie et les améliorations qui ont suivi, je ne m'inquiètes pas trop sur les prochains updates coté DLSS. Ca continuera à s'améliorer un peu.
 
 
Pour le DLSS3, c'est une nouvelle techno et oui on pourra toujours trouver des cas particuliers où ce n'est pas parfait surtout dans sa première version.
La plupart des articles montrent tous les cas de figures possibles posant soucis, afin de montrer que la techno n'est pas parfaite et ca je peux l'admettre car cela reste de l'information.
Les interrogations oui, la psychose non ! il faut faire la part des choses en fonction des attentes du moment.
Il reste les soucis liés aux transparences et au déplacement verticaux, j'ai vu quelques exemples en vidéo où on peut voir des artefacts, ca ok !
Et bien soit on désactive la génération d'image si on a assez de framerate, soit on attend une amélioration genre DLSS 3.1 pour que les choses s'arrangent (un peu ? beaucoup ?)
 
Après le drama "gnagnagna DLSS c'est pas la vraie résolution et ca peux être flou, vous mentez" des 3080/3090, on a droit au nouveau drama du moment "gnagnagna la génération d'image n'est pas une vraie image calculée et ca peut être moche" des 4090/4080  [:n0b0dy:1]  
 
Une nouvelle techno sort, elle n'est pas parfaite ! laissez lui le temps de se mettre en place et s'améliorer !  :jap:  
 
 

Spoiler :


 
Tout comme pour les videos putaclick à base de "on nous ment" "nvidia devra nous rendre des comptes" "c'est un cache-misère" en surexposant tous les cas particuliers, qui sont bien évidemment balancés par des youtubers en mal de monétisation qui aime rassurer l'autre camp (et ca se voit encore plus en lisant les commentaires).
 
Mais bon ca vaut aussi dans l'autre sens où on te balance pépouze que "il est impossible distinguer une image native d'une image en DLSS" en se basant uniquement sur des images fixes quivontbien.
 
Dans les deux cas, ca reste du [:perlouze de mistral]  [:medmhand:3]  

Message cité 1 fois
Message édité par Rayaki le 25-10-2022 à 03:29:33

---------------
Clan Torysss.
n°11170272
Rayaki
Posté le 25-10-2022 à 02:18:18  profilanswer
 

olioops a écrit :

Peu importe qu'il soit plié ou non, ça ne devrait pas pouvoir fondre ! ma 3080 est moins puissante et pourtant elle a 24 broches ...pas 12  :sweat:  
ils se sont chier dessus stou  :o arrêt de la production des 4090 et ils vont revoir leur copie  [:airforceone]


 
J'ai pas trop vu la pertinence de NVidia à s'acharner à proposer un nouveau modèle de connecteur alors que les alimentations ne sont toujours pas sorties et qu'on doit passer par des adaptateurs.
Sans doute parce que 4 connecteurs à 150W ça prend plus de place sur un PCB qu'un seul mais bon le contrôle Qualité est supposé avoir testé un max de cas de figures.
Et bien sûr ca veut faire de l'économie en ne proposant pas un modèle droit et un modèle coudé dans le package :/
J'ai cru comprendre aussi que la 4090 ne prend presque pas de jus du PCI-express alors que ca peut lui fournir 75W de ce coté là (donc moins tirer sur son connecteur d'alimentation par la même occasion), ca me semble un choix de Nvidia... discutable !
Et l'emplacement de son connecteur d'alimentation aussi... les cartes sont de plus en plus longues et donc on finit par mettre le connecteur de coté mais la problématique des boitiers n'est pas seulement coté profondeur mais aussi coté largeur.
 

Spoiler :

 [:ronfl]
:o


 
Après, il faut voir les conditions réelles qui peuvent provoquer des risques:
- pliage ou pas ? serrés ou pas ?
- adaptateur fourni avec la carte graphique ou un modèle partenaire ?
- l'alimentation était elle suffisante ? de bonne qualité ?
- 4090 FE ou une AIB ?
- quelle condition d'exploitation ?
- Bios d'origine ou Bios flashé d'une autre carte (ca semble être le petit jeu du moment coté Forum US pour chercher le bios le plus haut en watt disponible, quelque soit la marque)
- Est ce un soucis uniquement de l'adaptateur voir de composants pas assez puissants coté PCB ?
- Une alim ATX3.0 aurait elle réellement pu éviter ce soucis ?
Ca fait quand même pas mal de composantes à prendre en compte et coté forum remontant les 2 soucis que j'ai vu voir, coté information à part dire que ce sont 2 Gigabyte OC c'est plutôt light [:nanaki:1]  
Et selon le modèle/fabricant, tous les PCB n'ont pas la même qualité de composants.
 
 
Edit: le seul graphique potable et parlant que j'ai trouvé sur les risques de pliage trop près du connecteur est le suivant:
 
https://www.techpowerup.com/forums/attachments/1666632197044-png.266975/
https://www.techpowerup.com/forums/attachments/1666632905055-png.266978/

Message cité 2 fois
Message édité par Rayaki le 25-10-2022 à 03:31:33

---------------
Clan Torysss.
n°11170275
lovingbenj​i
J'en prendrai pour 1 dollar
Posté le 25-10-2022 à 05:06:43  profilanswer
 

korette1 a écrit :

Ca concerne que leur adaptateur fourni dans les boîtes ou aussi tout les câbles réels ce souci ? J'utilise pas l'adaptateur mais le câble 2x8pins vers 12VHPWR 600w fourni par seasonic pour les alim 1300w..


 
Je vais aussi recevoir ce câble et je me pose une question : il y avait pas une histoire de CG qui détecte si elle a 4 connecteurs de branchés ou moins et qui du coup réduit sa puissance si elle n’en voit pas 4 ? Je me pose la question avant d’utiliser le câble Seasonic …


---------------
Chic not Geek
n°11170283
Profil sup​primé
Posté le 25-10-2022 à 07:05:14  answer
 

eastride a écrit :


je suis le plus gros poisseux avec asus, 1 pc portable, 2 gpu , 1 carte mère, 2 smartphones et 1 écran hs très rapidement
seul ma carte wifi chez cette marque ne m'a jamais posé soucis
pourtant c'est la marque qui a la plus grosse hype
 
gigabyte est globalement détesté, pourtant c'est celle d'on je suis le plus satisfait et qui ne m'a jamais posé soucis
 
je n'ai pas trop d'expérience avec gainward, 1 seul gpu, et je n'ai eu aucun soucis


Pareil Gigabyte, je suis un grand fan depuis pas mal d'année et 0 probleme,  
et pourtant, surtout les mobo, j'ai bien tapé dedans niveau oc, j'en ai 2 en stock et elles tournent toujours comme des horloges.
 
Mais bizarrement, Gigabyte en carte graphique, la, je suis moins chaud, pourquoi, je ne sais pas trop  :??:

n°11170289
Profil sup​primé
Posté le 25-10-2022 à 07:34:45  answer
 

dax73 a écrit :

Si jamais le câble Bequiet est dispo ici :
 
https://www.reichelt.com/fr/fr/be-q [...] 36858.html


cool, merci, même si pour l'instant je ne vais pas prendre de 4090, mais le câble, oui, pour l'avenir et au-delà   [:xtech93]

mood
Publicité
Posté le 25-10-2022 à 07:34:45  profilanswer
 

n°11170290
Profil sup​primé
Posté le 25-10-2022 à 07:37:28  answer
 

Warzeo a écrit :


 
Petit GPU..  :pt1cable:  
Sinon sur un Cyberpunk, même une 3090 fait pas du ultra sans DLSS. Même en 1440p je crois pas que ça tienne le 60fps avec RT. Et le jeu est pas plus beau sans RT que avec RT et DLSS.
C'est pas ce qu'en dise les joueurs en tout cas.
 
Sur le fond c'est vrai le DLSS c'est une aide, le rendu dépend des jeux, parfois c'est un peu plus beau.
Je suis un peu plus sceptique sur le DLSS 3 et les frames rajoutées avec artefacts, mais à voir in game, c'est peut-être optimisé au cas par cas.
Après j'imagine que c'est comme l'upscale de la Nvidia Shield, parfois c'est nickel, d'autres fois le traitement se voit un peu...


 
Cyberpunk, Cyberpunk..... le jeu des reflets :??:
 
Sinon oui, sans dlss, même une 3090, tout à donf, c'est chaud, mais les RT psycho, bof, pas naturel, trop de chez trop,  
si on me dit qu'Nvidia n'est pas derrière cette histoire de miroirs, je me coupe une guitare.

Message cité 1 fois
Message édité par Profil supprimé le 25-10-2022 à 07:43:19
n°11170305
bonk1
Elle te plait ma soeur ?
Posté le 25-10-2022 à 08:26:19  profilanswer
 

Rayaki a écrit :


 
J'ai pas trop vu la pertinence de NVidia à s'acharner à proposer un nouveau modèle de connecteur alors que les alimentations ne sont toujours pas sorties et qu'on doit passer par des adaptateurs.
Sans doute parce que 4 connecteurs à 150W ça prend plus de place sur un PCB qu'un seul mais bon le contrôle Qualité est supposé avoir testé un max de cas de figures.
Et bien sûr ca veut faire de l'économie en ne proposant pas un modèle droit et un modèle coudé dans le package :/
J'ai cru comprendre aussi que la 4090 ne prend presque pas de jus du PCI-express alors que ca peut lui fournir 75W de ce coté là (donc moins tirer sur son connecteur d'alimentation par la même occasion), ca me semble un choix de Nvidia... discutable !
Et l'emplacement de son connecteur d'alimentation aussi... les cartes sont de plus en plus longues et donc on finit par mettre le connecteur de coté mais la problématique des boitiers n'est pas seulement coté profondeur mais aussi coté largeur.
 

Spoiler :

 [:ronfl]
:o


 
Après, il faut voir les conditions réelles qui peuvent provoquer des risques:
- pliage ou pas ? serrés ou pas ?
- adaptateur fourni avec la carte graphique ou un modèle partenaire ?
- l'alimentation était elle suffisante ? de bonne qualité ?
- 4090 FE ou une AIB ?
- quelle condition d'exploitation ?
- Bios d'origine ou Bios flashé d'une autre carte (ca semble être le petit jeu du moment coté Forum US pour chercher le bios le plus haut en watt disponible, quelque soit la marque)
- Est ce un soucis uniquement de l'adaptateur voir de composants pas assez puissants coté PCB ?
- Une alim ATX3.0 aurait elle réellement pu éviter ce soucis ?
Ca fait quand même pas mal de composantes à prendre en compte et coté forum remontant les 2 soucis que j'ai vu voir, coté information à part dire que ce sont 2 Gigabyte OC c'est plutôt light [:nanaki:1]  
Et selon le modèle/fabricant, tous les PCB n'ont pas la même qualité de composants.
 
 
Edit: le seul graphique potable et parlant que j'ai trouvé sur les risques de pliage trop près du connecteur est le suivant:
 
https://www.techpowerup.com/forums/ [...] ng.266975/
https://www.techpowerup.com/forums/ [...] ng.266978/


 
Le PCB est très petit en regard de la taille des RTX 4090 avec le dissipateur, il était facile de faire mieux et même sans cet adaptateur... ou alors avec 2 adaptateurs en 2X2 plutôt que 1x4. Mais bon ca faisait 50 centimes de plus à fabriquer une carte vendue 2000... la marge allait en, souffrir
 
Je ne vois pas non plus ce qu'une Alim ATX 3.0 va changer a un problème hardware sur la carte...  
 
Cependant avoir des cables de seasonic ou corsair m'inspire bien plus que des nvidia ou asus by nvidia. C'est leur job, et pas la même qualité en main. Même ceux d'une alim Asus sont au top en regard de ceux fournis avec la carte vidéo.
 
Quand je pense que sur ce forum des gens en ont commandé des coudés sur Aliexpress pour leur 4090... pensez à commander aussi un extincteur ! Et je doute que ça passera en garantie

Message cité 2 fois
Message édité par bonk1 le 25-10-2022 à 08:28:49

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11170309
plopzor
Posté le 25-10-2022 à 08:29:47  profilanswer
 

j'attends le set de cable de cablemod.. heureusement je ne laisse jamais le PC allumé quand je ne suis pas à côté

n°11170312
n0name
Etat nounou, Etat soeur.
Posté le 25-10-2022 à 08:52:05  profilanswer
 

DVN a écrit :

 

Pourtant cela a déjà été pointé plusieurs fois que le DLSS pouvait améliorer des rendus sur des zones pas forcément très détaillées. Death Stranding en est un très bon exemple.

 

Comme je ne suis pas là pour imposer mes yeux, j'ai mis des screens plus haut pour comparer et laisser les gens juger.

 

Comme je le disais y'a une différence au niveau de certaines ombres si on compare à côté et on peut rajouter un peu de netteté à la limite en utilisant le DLSS mais sans savoir qui est quoi, chapeau à celui qui saura faire la diff en jeu.

 

Pour continuer à tester comme suggéré au dessus.

 

Sans DLSS mais avec Frame Gen, ça reste à une moyenne de 150 fps et une conso de 350W avec une image en rien dégradée.

 

Sans aucun ajout, par contre ça oscille plus entre 100 et 60 fps sur le premier village pour une conso au-dessus de 300W aussi. C'est moins la fête même si c'est normalement suffisant pour cette définition. :whistle:

 

Voilà pour les curieux, perso, y'a des techno qui marchent bien, autant les utiliser et je vais pas les bouder. Je préfère jouer que comparer les pixels.

 

Je rends l'antenne sur le sujet.

 

[:caudacien:1]

 

Et Enzo, va chez AMD si tu trouves que c'est de la magouille le DLSS, t'es sûr de pas en avoir chez les rouges :o

 


Désolé mes t'es screens ne valent rien. Il est evident que sur une image fixe avec le personnage a l'arrêt le dlls ne produira aucun artefact.


---------------
Mes ventes: https://forum.hardware.fr/forum2.ph [...] 851&page=1
n°11170314
Regla88
Posté le 25-10-2022 à 08:57:14  profilanswer
 

cyberfred a écrit :

effectivement , du coup j'ai revérifié dans mon boitier et fort heureusement je n'ai pas eu à plier l'adaptateur dans mon boitier car il reste encore un peu de marge (Fractal Define 7 qui est assez large finalement).
par contre au-delà du fait qu'il faut faire attention à ce que ce soit pas trop plié , on en sait plus au niveau des branchements alims pour ceux qui ont malheureusement leur connecteur qui a cramé ?
 
https://zupimages.net/up/22/43/j75k.jpg
quand j'ai ouvert la boite c'est le premier autocollant que j'ai vu , inutile de dire que j'ai suivi les indications à la lettre :D


 
J'ai fait de même, raccordement à respecter impérativement pour éviter une catastrophe!
 
Ce qui est très vicieux, c'est que même le pire raccordement comme l'image de droite fonctionnera, le PC va démarrer sans soucis, mais lors de la première grosse charge, là ça va être l'enfer!

n°11170317
DVN
Pas l'temps
Posté le 25-10-2022 à 09:01:30  profilanswer
 

n0name a écrit :


 
 
Désolé mes t'es screens ne valent rien. Il est evident que sur une image fixe avec le personnage a l'arrêt le dlls ne produira aucun artefact.


 
On va vraiment repartir sur le même débat du DLSS comme au temps du 1 alors qu'on en est au 3 ? Va falloir penser à changer de disque.
 
Si le DLSS vous convient pas et bien vous l'utilisez pas, les discussions qui servent à rien...
 
 [:zedlefou:1]


---------------
Loi de Brandolini : La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire.
n°11170318
Rayaki
Posté le 25-10-2022 à 09:01:47  profilanswer
 

1foteam a des cables bequiet en stock


---------------
Clan Torysss.
n°11170322
jack0059
Posté le 25-10-2022 à 09:13:45  profilanswer
 

Recu la gainward a l'instant le model non gs a le vbios limité a 450w et arrive avec un adaptateur 3x8pin.
je la garde et montage ce week end (au vu des nombreuses review qui montrent un gain ridicule a pousser la consommation ca fera parfaitement l'affaire a voir si on peut pas gratter un peu avec un leger undervolt)
pousser la puissance a part pour bencher ca a pas l'air utile.
au vu des problème d'adaptateur pliés j'me dit que j'ai bien fait de passer de mon o11d a un corsair 7000D ca m'évitera la parano en attendant le câble de chez corsair.

n°11170326
ol1v1er
Posté le 25-10-2022 à 09:17:09  profilanswer
 

DVN a écrit :


 
On va vraiment repartir sur le même débat du DLSS comme au temps du 1 alors qu'on en est au 3 ? Va falloir penser à changer de disque.
 
Si le DLSS vous convient pas et bien vous l'utilisez pas, les discussions qui servent à rien...
 
 [:zedlefou:1]


 
Le DLSS est une super technologie  :jap:  
 
Je l'active dès qu'elle est dispo en qualité, ça baisse la charge
Gpu et donc la conso et la chauffe
 Encore plus avec un gpu légèrement UV  :o  
 
Je suis aussi pour une configuration performante qui consomme et  chauffe peu
 
 

n°11170330
DVN
Pas l'temps
Posté le 25-10-2022 à 09:25:23  profilanswer
 

ol1v1er a écrit :


 
Le DLSS est une super technologie  :jap:  
 
Je l'active dès qu'elle est dispo en qualité, ça baisse la charge
Gpu et donc la conso et la chauffe
 Encore plus avec un gpu légèrement UV  :o  
 
Je suis aussi pour une configuration performante qui consomme et  chauffe peu
 
 


 
C'est exactement ça.
 
[:fredmoul:1]  
 


---------------
Loi de Brandolini : La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire.
n°11170332
- gab
Posté le 25-10-2022 à 09:25:30  profilanswer
 

lovingbenji a écrit :

Je vais aussi recevoir ce câble et je me pose une question : il y avait pas une histoire de CG qui détecte si elle a 4 connecteurs de branchés ou moins et qui du coup réduit sa puissance si elle n’en voit pas 4 ? Je me pose la question avant d’utiliser le câble Seasonic …


Ça c'est avec l'adaptateur vendu avec les cartes, mais la carte ne voit pas les 8 pins spécifiquement, elle voit la façon dont sont connectés les contacts "sense" du 12VHPWR.
 
Donc si Seasonic a câblé son connecteur (et dimensionné les conducteurs) comme il faut, ça peut en principe fournir le max avec 2x 8 pins côté alim.


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°11170334
lovingbenj​i
J'en prendrai pour 1 dollar
Posté le 25-10-2022 à 09:30:28  profilanswer
 

- gab a écrit :


Ça c'est avec l'adaptateur vendu avec les cartes, mais la carte ne voit pas les 8 pins spécifiquement, elle voit la façon dont sont connectés les contacts "sense" du 12VHPWR.
 
Donc si Seasonic a câblé son connecteur (et dimensionné les conducteurs) comme il faut, ça peut en principe fournir le max avec 2x 8 pins côté alim.


 
merci donc aucun risque/souci de perf à utiliser le câble Seasonic !


---------------
Chic not Geek
n°11170335
campi
V8 FTW
Posté le 25-10-2022 à 09:31:42  profilanswer
 

DVN a écrit :


 
Visuellement c'est moins beau ? C'est balancé comme ça où t'as des screens de comparaison in game ?
 
Edit : Je me réponds à moi-même en testant les 2 rendus. Il y a une différence au niveau de certaines ombres, en effet. De là à dire moins beau, hmm.
 
Test à l'aveugle forcément et plein format sur les liens.
 
https://img.super-h.fr/images/2022/ [...] 9e2.md.jpg
https://img.super-h.fr/images/2022/ [...] 006.md.jpg


 
Sur cyberpunk le dlss ne m'avait pas convaincu, mais là rien à redire.

Message cité 1 fois
Message édité par campi le 25-10-2022 à 09:44:24

---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11170336
DVN
Pas l'temps
Posté le 25-10-2022 à 09:32:26  profilanswer
 

Quand on voit tous les builds réalisés et comment sont pliés les câbles pour que ça rentre en général, va y avoir beaucoup de surprises amha.
 
 [:musacorp:4]
 

campi a écrit :


 
Sur cyberpunk la dlss ne m'avait pas convaincu, mais là rien à redire.  


 
Le qualité est franchement très bon maintenant qu'il tourne sans ramer.  :whistle:

Message cité 1 fois
Message édité par DVN le 25-10-2022 à 09:33:31

---------------
Loi de Brandolini : La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire.
n°11170337
- gab
Posté le 25-10-2022 à 09:34:46  profilanswer
 

lovingbenji a écrit :

merci donc aucun risque/souci de perf à utiliser le câble Seasonic !


En principe :D Ils peuvent toujours avoir foiré leur truc, même si c'est peu probable.


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°11170341
korette1
Posté le 25-10-2022 à 09:37:38  profilanswer
 

bonk1 a écrit :


 
Le PCB est très petit en regard de la taille des RTX 4090 avec le dissipateur, il était facile de faire mieux et même sans cet adaptateur... ou alors avec 2 adaptateurs en 2X2 plutôt que 1x4. Mais bon ca faisait 50 centimes de plus à fabriquer une carte vendue 2000... la marge allait en, souffrir
 
Je ne vois pas non plus ce qu'une Alim ATX 3.0 va changer a un problème hardware sur la carte...  
 
Cependant avoir des cables de seasonic ou corsair m'inspire bien plus que des nvidia ou asus by nvidia. C'est leur job, et pas la même qualité en main. Même ceux d'une alim Asus sont au top en regard de ceux fournis avec la carte vidéo.
 
Quand je pense que sur ce forum des gens en ont commandé des coudés sur Aliexpress pour leur 4090... pensez à commander aussi un extincteur ! Et je doute que ça passera en garantie


 
Je suis d'accord. Je pense malgré tout que le câble Seasonic présente malgré tout moins de risque car ça a vraiment rien à voir. C'est vraiment un câble d'alim et j'ose espérer qu'il est vraiment calculé pour. C'est pas un adaptateur.
De plus, est ce voulu ou pas il est très rigide au niveau du connecteur de la carte graphique. Tu peux pas le plier tellement il est rigide donc il part à l'horizontal sur 3 ou 4cm. Alors c'est clair que le mec qui a pas un grand boitier je vois pas comment il fait avec ce câble.

n°11170344
ben shinob​i
Posté le 25-10-2022 à 09:40:37  profilanswer
 

De toute façon, tous les adaptateurs augmentent la resistance et donc la chauffe. Il vaut mieux toujours privilégier le bon cable SANS adaptateur. Quitte à changer d'alim si pas dispo.


Message édité par ben shinobi le 25-10-2022 à 09:41:09
n°11170346
campi
V8 FTW
Posté le 25-10-2022 à 09:45:37  profilanswer
 

DVN a écrit :

Quand on voit tous les builds réalisés et comment sont pliés les câbles pour que ça rentre en général, va y avoir beaucoup de surprises amha.
 
 [:musacorp:4]
 


 

DVN a écrit :


 
Le qualité est franchement très bon maintenant qu'il tourne sans ramer.  :whistle:


 
 Ça va je suis sur le téléphone avec le tactile de merde. J'espère que tu ne fais jamais de fautes :o


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11170347
n0name
Etat nounou, Etat soeur.
Posté le 25-10-2022 à 09:46:02  profilanswer
 

DVN a écrit :

 

On va vraiment repartir sur le même débat du DLSS comme au temps du 1 alors qu'on en est au 3 ? Va falloir penser à changer de disque.

 

Si le DLSS vous convient pas et bien vous l'utilisez pas, les discussions qui servent à rien...

 

[:zedlefou:1]

 


Lol j'ai pas dit que je n'aimais pas le dlls, au contraire je trouve que c'est une bonne techno. Mais c'est faux de dire que ça ne dégrade pas l'image et c'est encore plus faux d'essayer de prouver le contraire avec deux images fixes d'un personnage a l'arrêt.

 

In-game ce sont des situations qui n'arrivent jamais donc osef que ça sharpen dans ce cas.

Message cité 1 fois
Message édité par n0name le 25-10-2022 à 09:49:42

---------------
Mes ventes: https://forum.hardware.fr/forum2.ph [...] 851&page=1
n°11170356
DVN
Pas l'temps
Posté le 25-10-2022 à 09:57:10  profilanswer
 

campi a écrit :


 
 Ça va je suis sur le téléphone avec le tactile de merde. J'espère que tu ne fais jamais de fautes :o


 
J'ai pas compris là ?
 

n0name a écrit :


 
 
Lol j'ai pas dit que je n'aimais pas le dlls, au contraire je trouve que c'est une bonne techno. Mais c'est faux de dire que ça ne dégrade pas l'image et c'est encore plus faux d'essayer de prouver le contraire avec deux images fixes d'un personnage a l'arrêt.
 
In-game ce sont des situations qui n'arrivent jamais donc osef que ça sharpen dans ce cas.


 
On me dit que c'est moins beau, je compare donc directement sur l'aspect sans chercher midi à quatorze heure.
 
Sinon j'ai pas vu d'artefact qui dégrade l'image ou autre, c'est terminé le temps du DLSS qui était perceptible dès qu'on bougeait, y'avait pas discussion quand c'est sorti.
 
Concernant les artefacts qu'on pointe aujourd'hui, c'est surtout sur le frame generator (nouvelle techno qu'on peut ne pas utiliser en plus du DLSS3) en fait mais quand t'es à 200 fps à moins de jouer au ralenti avec une loupe pour chercher les artefacts, tu verras absolument rien donc faut débat pour moi.
 
 [:pierroclastic:5]


---------------
Loi de Brandolini : La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire.
n°11170362
EnzoLouis
Posté le 25-10-2022 à 10:02:51  profilanswer
 

https://i.gyazo.com/a7333a2bc45d18ecd2f65be7b7881c54.png
 
Toujours rien de nouveau, alors que la carte devait être livrée aujourd'hui.  :sweat:  
Je vais les contactés demain.

n°11170365
Jackkk
tout simplement
Posté le 25-10-2022 à 10:08:43  profilanswer
 

AllenMadison a écrit :

Ne jamais acheter du nvidia day one :o


Souvenir de 2005 avec les "fameux" chipset Nforce de Nvidia  :o  
 https://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
 
Cette boîte a de l'experience en terme d'enfulage du consommateur. Y'a du bon chez eux,  mais aussi du mauvais  [:xqwzts:1]  
Le problème avec eux c'est justement d'admettre le défaut.


---------------
Une foule innombrable de turlupins, de béquillards, de gueux de nuit accourus sur la grève, dansaient des gigues devant la spirale de flamme et de fumée.
n°11170367
Valaint671​30
Tout tourne autour du soleil
Posté le 25-10-2022 à 10:09:58  profilanswer
 

Sérieux il faudrait mettre 4 cables PCI :o
 
Ptin j'en ai mis que 2 en attendant le câble corsair  
 
Bon quand ils veulent ils mettent des câbles 12 pins en stock


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11170370
DVN
Pas l'temps
Posté le 25-10-2022 à 10:13:53  profilanswer
 

Valaint67130 a écrit :

Sérieux il faudrait mettre 4 cables PCI :o
 
Ptin j'en ai mis que 2 en attendant le câble corsair  
 
Bon quand ils veulent ils mettent des câbles 12 pins en stock


 
Que 2, t'en avais pas au moins 3 ?
 
Moi aussi j'attends mais je pense que les ATX 3 sortiront avant que le cable Corsair soit dispo...  :o


---------------
Loi de Brandolini : La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire.
n°11170374
thekiller3
Posté le 25-10-2022 à 10:19:29  profilanswer
 

Regla88 a écrit :


 
Que ça passe au moins c’est bien, tu risques d’avoir le même soucis que moi, c’est l’impossibilité de fermer la porte du PC a cause de la taille du connecteur 12+4 pins.


 
t'as trouvé une solution ? à par changer de boitier ...  :sweat:

n°11170375
Valaint671​30
Tout tourne autour du soleil
Posté le 25-10-2022 à 10:19:43  profilanswer
 

Si j'en ai plein mais ça foutrait en l'air mon câble management :o
 
Je l'ai mis à 70% de tdp pour le moment en préventif
 
Ça se trouve les gars qui ont cramés leurs connecteurs c'est juste parce qu'ils les avaient mal enfoncés, le petit "clic" c'est important !


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11170377
DVN
Pas l'temps
Posté le 25-10-2022 à 10:22:13  profilanswer
 

Valaint67130 a écrit :

Si j'en ai plein mais ça foutrait en l'air mon câble management :o
 
Je l'ai mis à 70% de tdp pour le moment en préventif
 
Ça se trouve les gars qui ont cramés leurs connecteurs c'est juste parce qu'ils les avaient mal enfoncés, le petit "clic" c'est important !


 
Tu me mets le doute sur le petit clic maintenant.
 
"Parano powa time"  :sweat:


---------------
Loi de Brandolini : La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire.
n°11170385
nikoft
Posté le 25-10-2022 à 10:40:25  profilanswer
 

EnzoLouis a écrit :

https://i.gyazo.com/a7333a2bc45d18e [...] 881c54.png
 
Toujours rien de nouveau, alors que la carte devait être livrée aujourd'hui.  :sweat:  
Je vais les contactés demain.


 
En 2021 on a connu ça, j'ai attendu une ftw3 pendant 4 mois pour qu'ils finissent pas annuler la commande.
 
Elle est rester commandable pendant 1h30 donc...il y aura forcément des déçus, t'a commandé a quel heure?


Message édité par nikoft le 25-10-2022 à 10:41:09
n°11170388
DVN
Pas l'temps
Posté le 25-10-2022 à 10:45:00  profilanswer
 

C'est RDC ?
 
Si oui, on ne sera pas surpris...  :o


---------------
Loi de Brandolini : La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire.
n°11170391
EnzoLouis
Posté le 25-10-2022 à 10:46:30  profilanswer
 

Vers 15h36, mais en virement bancaire.  
 
Oui, c'est RDC.

n°11170393
DVN
Pas l'temps
Posté le 25-10-2022 à 10:48:00  profilanswer
 

Et bien j'espère pour toi que c'est juste un petit décalage.
 
 [:super victor]


---------------
Loi de Brandolini : La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  221  222  223  ..  801  802  803  804  805  806

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)