Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2340 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  348  349  350  ..  803  804  805  806  807  808
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11185429
ibuprophet
Posté le 16-11-2022 à 22:28:12  profilanswer
 

Reprise du message précédent :

DVN a écrit :

Le fameux "clic" que les éclairés recherchaient à entendre avaient donc raison d'être attentifs.
 
 [:bakk53]


 
En conclusion:
https://youtu.be/ig2px7ofKhQ?t=1578

Message cité 1 fois
Message édité par ibuprophet le 16-11-2022 à 22:29:29
mood
Publicité
Posté le 16-11-2022 à 22:28:12  profilanswer
 

n°11185430
Miky 2001
N'y pense même pas !!!
Posté le 16-11-2022 à 22:31:49  profilanswer
 

olakeen a écrit :

Voilà ce que je cherchais
 
On peut voir qu'en abaissant le power limit de la 4090 pour avoir la même consommation que le 4080, la 4090 fait mieux.
Mais surtout, et c'est une première, le flagship a un meilleur ratio FPS/Watts  :pt1cable:  
 
https://rehost.diberie.com/Picture/Get/r/99171
https://rehost.diberie.com/Picture/Get/r/99172


Meilleur ratio ?? :heink:  
Vu la diff minim de chez minim qui s’explique sûrement par la précision de la mesure ou de la variabilité d’un chip à un autre, c’est osé de parler de meilleur résultat plouf la 4090.
 
Ensuite je vois pas comment dans un graph (le 2eme dans ton post) tu peux avoir un ratio fps/watt quasi identique et dans un autre (le 1re) avoir de meilleurs résultats avec la 4090 !!! Soit elles ne consomment en fait pas pareil dans le test du graph 1, soit leurs graphs sont bidonesque…
 
Mais l’idée derrière est louable. Le protocole pour le montrer bcp moins… :jap:

n°11185437
orion0101
Tuono V4 Factory depuis 2017!
Posté le 16-11-2022 à 22:54:54  profilanswer
 

bonk1 a écrit :


Pour tous ceux qui débattent ici, une STRIX 4090 à 2500€ c'est 1 an de salaire d'un tunisien, et pour 120€ par an vous pouvez parrainer 1 enfant du tiers monde via l'unicef (le faire manger et l'instruire). En occident nous avons vraiment perdu le sens des priorités et des valeurs quand 1 carte vidéo pour joueur permettrait de sortir de la faim et de la pauvreté 20 gamins... Désolé de ce semi-HS, mais je suis sensible au sujet.


 
Comme tu es très sensible au sujet, j'imagine que tu as vendu tout ce qui ne t'es pas nécessaire pour vivre?
Après tout, pourquoi garder chez toi du confort alors que tu pourrais financer l'éducation de plusieurs milliers d'enfants à travers le monde?
 
Toute autre attitude de ta part me décevrait grandement...


---------------
"Peu importe s'il dit la vérité, ce n'est pas une défense valable" "Il faut interpréter le tweet en se mettant au niveau, à la portée du Français et de l'électeur moyen"
n°11185439
yotaba
Posté le 16-11-2022 à 22:59:50  profilanswer
 


 Il dit aussi que la mauvaise qualité des adaptateurs joue, car sur l'un des cas, ils ont trouvé des traces de débris dû à la fabrication, ce qui a provoqué une bosse sur un contact et du coup ça la fait cramer.
 
Je pense que dans cette histoire tellement de paramètre rentre en compte, et en plus l'erreur utilisateur est moins permissive et surtout le quality check du produit à la fabrication.

n°11185441
- gab
Posté le 16-11-2022 à 23:03:55  profilanswer
 

Bref, tout le monde avait raison sauf ceux qui disaient "y a rien" ? :o


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°11185444
nikoft
Posté le 16-11-2022 à 23:17:20  profilanswer
 

Equipments a écrit :


 
 
Pareil que toi  :jap:  
 
 
 
 
 


 

Equipments a écrit :


 
Voilà tu le dis toi même c'est ton ressenti  


 
Ça a toujours été bien expliquer sur tous les articles concernant la technologie gsync que le réglage optimal était un blocage des FPS et la désactivation de vsync, j'invente rien...

n°11185447
goodspeed4​7
Posté le 16-11-2022 à 23:23:32  profilanswer
 

Tjs du stock pour la 4080,bizarre.

n°11185448
dazouille
ex dazi
Posté le 16-11-2022 à 23:26:25  profilanswer
 

Je vois rupture moi sur les FE


---------------
Ici : http://forum.hardware.fr/hfr/Achat [...] 1291_1.htm
n°11185450
goodspeed4​7
Posté le 16-11-2022 à 23:33:02  profilanswer
 

En custom.

n°11185456
Equipments
Posté le 17-11-2022 à 00:04:33  profilanswer
 

nikoft a écrit :


 
Ça a toujours été bien expliquer sur tous les articles concernant la technologie gsync que le réglage optimal était un blocage des FPS et la désactivation de vsync, j'invente rien...


 
 
Oui oui si tu veux tu as raison. Voilà, next.

mood
Publicité
Posté le 17-11-2022 à 00:04:33  profilanswer
 

n°11185458
zbineulong​time
☱☱☱☱☱☱☱☱☱☱☱☱
Posté le 17-11-2022 à 00:16:58  profilanswer
 

Je confirme qu'avec le dernier driver Ndivia, sur le LG C2 le logo GSync apparait. Il y a même un popup windows juste après l'installation des drivers qui dit avoir détecté un nouvel écran Gsync :)

Message cité 1 fois
Message édité par zbineulongtime le 17-11-2022 à 00:17:18

---------------
.
n°11185462
Fly2thesky
Posté le 17-11-2022 à 01:05:22  profilanswer
 

Equipments a écrit :


 
 
Oui oui si tu veux tu as raison. Voilà, next.


 
 
 
on est bien d'accord , depuis des millénaires
G SYNC on dans les drivers nvidia ( full screen ou full screen fenetré )
V sync on dans les drivers nvidia  
les jeux ( v sync off )
et basta  
( enfin on peut mettre un max FPS si on veut mais c'est tout :o )


Message édité par Fly2thesky le 17-11-2022 à 01:15:12
n°11185463
MSchumache​r
Posté le 17-11-2022 à 01:20:12  profilanswer
 

marijuo a écrit :

l'ampli ne doit pas être compatible vrr/gsync dont comme c'est vers lui qu'est renvoyer le signal vidéo forcement ça ne fonctionne pas.
Ta TV elle doit l'être et donc du coup ça fonctionne ;)


 :jap:  
 
Pour cette partie là, mon ampli Yamaha était bien compatible, il fallait juste que je modifie le paramètre dans l'ampli de la prise HDMI en le mettant sur "Mode 8K" pour pouvoir sortir sur la TV du 4K+120FPS+HDR+VRR et moi j'étais sur le "Mode 4K" qui permet juste le 4K+120FPS ou 4K+60FPS+HDR.  :pt1cable:  
 
J'ai donc pu activer la G-Sync, suite à cette modification de ce paramètre dans l'ampli, en étant de nouveau branché comme ceci :
 
PC > HDMI 2.1 > Ampli > HDMI 2.1 > TV
 
 :love:

n°11185464
Fly2thesky
Posté le 17-11-2022 à 01:27:39  profilanswer
 

MSchumacher a écrit :


 :jap:  
 
Pour cette partie là, mon ampli Yamaha était bien compatible, il fallait juste que je modifie le paramètre dans l'ampli de la prise HDMI en le mettant sur "Mode 8K" pour pouvoir sortir sur la TV du 4K+120FPS+HDR+VRR et moi j'étais sur le "Mode 4K" qui permet juste le 4K+120FPS ou 4K+60FPS+HDR.  :pt1cable:  
 
J'ai donc pu activer la G-Sync, suite à cette modification de ce paramètre dans l'ampli, en étant de nouveau branché comme ceci :
 
PC > HDMI 2.1 > Ampli > HDMI 2.1 > TV
 
 :love:


 
 
fallait demander :o
 
mais effectivement, les amplis Yamaha ou Denon ont une prise  8k :p

Message cité 1 fois
Message édité par Fly2thesky le 17-11-2022 à 01:28:30
n°11185465
MSchumache​r
Posté le 17-11-2022 à 01:38:18  profilanswer
 

:jap: à tout ceux qui m'ont répondu.  ;)  
 

DVN a écrit :

On va le redire.
 
Vsync désactivée dans les jeux, activée dans le panneau nvidia.


 
Ca c'est déjà fait, ok.
 

DVN a écrit :

Limiter de base le nombre de fps au nombre max de ce que peut envoyer l'écran car ça ne sert à rien de pousser plus dans le vent.
 
Avant, on disait de mettre 3fps en moins parce que c'était pas forcément bien géré, aujourd'hui, ça a peut être changé à ce niveau.


Cette limite de FPS on l'applique ici dans le panneau de configuration de Nvidia ? (Exemple ici pour le jeu Cyberpunk)
 
https://zupimages.net/up/22/46/hiai.jpg
 
Et si je veux limité un jeu dit "tranquille/calme" à seulement 60 FPS tout en gardant le G-Sync actif, c'est possible ou pas ?
Le fonctionnement du G-Sync sera toujours bien présent si je mets la limite à 60 FPS sur la capture au-dessus ?
 
 :jap:

n°11185466
MSchumache​r
Posté le 17-11-2022 à 02:16:08  profilanswer
 

trymon a écrit :

A propos de G-syync/V-sync, le driver sorti aujourd'hui règle la question du logo G-sync qui n'apparaît pas. Seules les TV LG Oled sont visées, mais le souci est peut-être réglé aussi pour les possesseurs d'autres écrans. N'hésitez pas à poster vos résultats !


Il ressemble à quoi ce logo (une capture d'écran pour voir.) et il se voit où exactement ?

n°11185467
MSchumache​r
Posté le 17-11-2022 à 02:36:00  profilanswer
 

Fly2thesky a écrit :

fallait demander :o
 
mais effectivement, les amplis Yamaha ou Denon ont une prise  8k :p


4 prises HDMI chez moi sur l'ampli qui peuvent être paramétrées en 8K.
 
J'ai mis au passage les 4 sorties HDMI de mon ampli Yamaha en "Mode 8K" comme ca ca sera fait.


Message édité par MSchumacher le 17-11-2022 à 02:39:34
n°11185468
MSchumache​r
Posté le 17-11-2022 à 03:06:53  profilanswer
 
n°11185472
Aqua-Niki
Posté le 17-11-2022 à 06:03:11  profilanswer
 

MSchumacher a écrit :


Cette limite de FPS on l'applique ici dans le panneau de configuration de Nvidia ? (Exemple ici pour le jeu Cyberpunk)
 
https://zupimages.net/up/22/46/hiai.jpg
 
Et si je veux limité un jeu dit "tranquille/calme" à seulement 60 FPS tout en gardant le G-Sync actif, c'est possible ou pas ?
Le fonctionnement du G-Sync sera toujours bien présent si je mets la limite à 60 FPS sur la capture au-dessus ?
 
 :jap:


Pour la limite de fps, je pense que l'idéal c'est de le faire directement dans le jeu quand c'est possible, sinon dans les drivers oui. Et tu peux mettre la limite que tu veux (y compris 60fps si tu n'as pas besoin de plus), ça ne pose pas de problème pour GSync qui restera actif.

n°11185478
jujuf1
Je suis un chat
Posté le 17-11-2022 à 06:23:49  profilanswer
 

Mais là on parle de réglage soit disant optimal pour le gsync, et non pas que le gsync ne marcherait pas si on ne le règle pas comme le lien plus haut.  
 
Sur Reddit il y a deux écoles.  
Vsync n’empêche pas gsync. Ça apporte d’autres choses, mais peut être au prix d’une latence augmentée, faudrait voir.  


---------------
Du coup du coup …
n°11185484
Dark Schne​iderr
⭐⭐
Posté le 17-11-2022 à 07:38:16  profilanswer
 

max022 a écrit :

Hum bon, vous me conseillez d'annuler ?
Bon j'ai annulé.


 
Ah ouais, t"étais sérieux en plus  [:art_dupond]


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°11185485
Skreamer
Posté le 17-11-2022 à 07:41:18  profilanswer
 

Bon bah 4080 commandé hier soir, j'attends avec impatience de pouvoir partir sur le Simracing 4K <3  
 
Sinon plus sérieusement, sur le papier elle consomme plus que ma 2080 super mais je tourne nickel avec mon Enermax 750W
 
Dans le doute j'ai pris une corsair 1000w, vous pensez que la 1000 est obligatoire où je peux quand même tenter avec ma 750 ?

n°11185486
kalix7
Posté le 17-11-2022 à 07:44:42  profilanswer
 

Les possesseurs de 4080, faites péter vos scores  :whistle:  :whistle:  
 [:iorhael:4]

n°11185490
Monsieur L​ocke
Posté le 17-11-2022 à 07:48:14  profilanswer
 

Ça change quoi de désactiver le vsync dans les drivers et aussi ingame ? Plutôt qu'activer dans les drivers et désactiver ingame ?
Je ne comprend vraiment pas la différence qu'il peut y avoir.


---------------
TU Transport Fever
n°11185491
daty2k1
Posté le 17-11-2022 à 07:51:37  profilanswer
 

C'est parce qu'en général l'implémentation vsync in game est moins bonne que celle des pilotes au niveau de la latence.

n°11185492
zbineulong​time
☱☱☱☱☱☱☱☱☱☱☱☱
Posté le 17-11-2022 à 07:52:01  profilanswer
 

MSchumacher a écrit :


Il ressemble à quoi ce logo (une capture d'écran pour voir.) et il se voit où exactement ?


 
Sur le menu de l'écran pour LG :
https://i.ibb.co/C5YDXJn/IMG-0401.jpg


---------------
.
n°11185493
vegetaleb
Un jour je serai riche!
Posté le 17-11-2022 à 07:57:14  profilanswer
 

Moi en attendant que les 1ers cas de câble fumant apparaissent sur 4080  
 
[:mickay]


---------------
Mon blog pour photographie: https://fujiandstuff.wordpress.com/
n°11185497
DVN
Posté le 17-11-2022 à 08:08:58  profilanswer
 


 
Yep à toutes tes questions.
 
Perso je mets la limitation directement dans les réglages généraux et je me préoccupe pas de la faire pour chaque jeu.

Message cité 1 fois
Message édité par DVN le 17-11-2022 à 08:10:03

---------------
Non, rien...
n°11185499
Mandagor
GAZZzzzzz.......
Posté le 17-11-2022 à 08:20:52  profilanswer
 

bonjour à tous,
En attendant la sortie des RX coté AMD je me renseigne sur les 4080 disponibles.
Le refroidissement de ma tour est primordial et je ne trouve pas de modèle custom qui permette d'extraire une partie de l'air chaud par l’arrière comme le fait la 4080 FE.  
Vous connaissez des modèles qui applique le même principe d'aillettes que la FE permettant d'expulsé l'air chaud dehors ?
 
Les modèles custom :  
https://tpucdn.com/gpu-specs/images/b/9860-i-o.jpg
vs le modèle FE :
https://www.reviews.org/app/uploads/2022/11/PXL_20221111_055416626rtx-4080-768x403.jpg


---------------
Mes ventes vers Grenoble & Gresivaudan
n°11185500
DVN
Posté le 17-11-2022 à 08:25:56  profilanswer
 

Mandagor a écrit :

bonjour à tous,
En attendant la sortie des RX coté AMD je me renseigne sur les 4080 disponibles.
Le refroidissement de ma tour est primordial et je ne trouve pas de modèle custom qui permette d'extraire une partie de l'air chaud par l’arrière comme le fait la 4080 FE.  
Vous connaissez des modèles qui applique le même principe d'aillettes que la FE permettant d'expulsé l'air chaud dehors ?
 
Les modèles custom :  
https://tpucdn.com/gpu-specs/images/b/9860-i-o.jpg
vs le modèle FE :
https://www.reviews.org/app/uploads [...] 68x403.jpg


 
Y'a que la FE qui fait ça depuis les 30XX il me semble. Elle expulse à la fois à l'arrière et au-dessus d'elle à l'avant.

Message cité 1 fois
Message édité par DVN le 17-11-2022 à 08:26:07

---------------
Non, rien...
n°11185509
bardack
Official GRAW member
Posté le 17-11-2022 à 08:46:41  profilanswer
 

Je me disais que c'était pas normal, voila un fix pour le black screen au boot a la 1ère installation :
https://videocardz.com/newz/nvidia- [...] een-issues


---------------
c'est moi babar le roi des elephants/FEED /GamerTag/psn/steam id : bardack01
n°11185511
Mandagor
GAZZzzzzz.......
Posté le 17-11-2022 à 08:53:16  profilanswer
 

DVN a écrit :


 
Y'a que la FE qui fait ça depuis les 30XX il me semble. Elle expulse à la fois à l'arrière et au-dessus d'elle à l'avant.


 
Ah c'est ce que je craignais, merci.
 
C'est quand même dingue que les customs ne fassent pas pareil. Pourtant il est clair que toute calorie expulsée du boitier est un gain qui permet de maintenir plus facilement une température plus faible et donc moins de bruit (ou un OC plus facile pour les custom).
Donc celui qui veut du silence doit forcement prendre de la FE (hors watercooling).


---------------
Mes ventes vers Grenoble & Gresivaudan
n°11185512
Monsieur L​ocke
Posté le 17-11-2022 à 08:53:18  profilanswer
 

daty2k1 a écrit :

C'est parce qu'en général l'implémentation vsync in game est moins bonne que celle des pilotes au niveau de la latence.


C'était pas ça la question ;)


---------------
TU Transport Fever
n°11185515
ze m't
Posté le 17-11-2022 à 09:06:25  profilanswer
 

Skreamer a écrit :

Bon bah 4080 commandé hier soir, j'attends avec impatience de pouvoir partir sur le Simracing 4K <3  
 
Sinon plus sérieusement, sur le papier elle consomme plus que ma 2080 super mais je tourne nickel avec mon Enermax 750W
 
Dans le doute j'ai pris une corsair 1000w, vous pensez que la 1000 est obligatoire où je peux quand même tenter avec ma 750 ?


 
 
 
Ca dépends du CPU, mais avec 750W, pour moi c'est largement ok.


---------------
 Ma gallerie Flickr
n°11185518
darkping
Aka Leojoebar
Posté le 17-11-2022 à 09:16:05  profilanswer
 


 
 
Ah j’ai jamais vue ce logo sur le menu gaming de la c2, par contre j’ai bien écrit gsync en haut à droite quand j’active l’option dans le panneau Nvidia, étrange


---------------
Nouveau pseudo vue que mon LEOJOEBAR et ses 100 feed positifs ont étaient ban!!
n°11185521
cyberfred
Posté le 17-11-2022 à 09:22:38  profilanswer
 

jujuf1 a écrit :

Mais là on parle de réglage soit disant optimal pour le gsync, et non pas que le gsync ne marcherait pas si on ne le règle pas comme le lien plus haut.  
 
Sur Reddit il y a deux écoles.  
Vsync n’empêche pas gsync. Ça apporte d’autres choses, mais peut être au prix d’une latence augmentée, faudrait voir.  


 
je confirme à 200% pour l'avoir déjà testé , le vsync n'a jamais empêché le fonctionnement de gsync , puisque la vsync (qu'elle soit activée en jeu ou dans les drivers) agit tout simplement comme un limiteur de fps :jap:
après oui il y a  des histoires d'input lag augmenté lorsque la vsync entre en jeu (d'où le conseil de bcp d'utiliser un limiteur à 2 ou 3 fps en dessous de la fréquence max)

n°11185527
vegetaleb
Un jour je serai riche!
Posté le 17-11-2022 à 09:32:18  profilanswer
 

cyberfred a écrit :


 
je confirme à 200% pour l'avoir déjà testé , le vsync n'a jamais empêché le fonctionnement de gsync , puisque la vsync (qu'elle soit activée en jeu ou dans les drivers) agit tout simplement comme un limiteur de fps :jap:
après oui il y a  des histoires d'input lag augmenté lorsque la vsync entre en jeu (d'où le conseil de bcp d'utiliser un limiteur à 2 ou 3 fps en dessous de la fréquence max)


 
Bizarrement je n'ai de Gsync qu'en 4k et 120hz, en 1440p c'est limité a 60, a 120 le Gsync est perdu du coup faut activer le vsync
L'avantage des 4080 c'est que je pourrais jouer a tous mes jeux en 4k 120hz, au pire j'active le DLSS pour les jeux les plus exigeants comme Cyberpunk et RDR2


---------------
Mon blog pour photographie: https://fujiandstuff.wordpress.com/
n°11185536
TotalRecal​l
Posté le 17-11-2022 à 09:53:32  profilanswer
 

bonk1 a écrit :

Loi de l'offre et de la demande
 
Tant que des gens sont prets à payer, aucune raison de ne pas augmenter.
 
Paladin préconise de ne pas alimenter cette inflation
Les autres répondent je m'en fous j'ai les moyens, ou je suis pret à faire l'effort
 
Discussion stérile
 
Mais dans ce monde capitaliste ou Jensen veut gagner un max de thune et conserver son poste, mieux vaut avoir un max d'argent... et ceux qui ont les moyens ne se préoccupent pas d'alimenter cette inflation à la hausse et d'augmenter la ségrégation sociale
 
Les fans de hardware  ne sont pas plus solidaires que les autres, après les vrais gamer n'ont pas besoin de RTX 4090 ou 4080 pour s'éclater quand même.


 

bonk1 a écrit :

Ma perception c'est que le bon prix de la 4080 aurait du être de 999€
 
Que nvidia marge sur l'inflation et la parité euro / dollar cela se comprend, et qu'on ai une vraie ségrégation avec la 4090 qui se veut plus "pro" cela s'entend
 
Je trouve vraiment dommage de ne pas laisser le rêve accessible à un gamer "normal"
 
Pour tous ceux qui débattent ici, une STRIX 4090 à 2500€ c'est 1 an de salaire d'un tunisien, et pour 120€ par an vous pouvez parrainer 1 enfant du tiers monde via l'unicef (le faire manger et l'instruire). En occident nous avons vraiment perdu le sens des priorités et des valeurs quand 1 carte vidéo pour joueur permettrait de sortir de la faim et de la pauvreté 20 gamins... Désolé de ce semi-HS, mais je suis sensible au sujet.


 

DVN a écrit :

Ce topic qui devient un vrai PMU...


 

It_Connexion a écrit :

Oui changeons de sujet avant que les modos nous le rappellent


 

nikoft a écrit :


 
Fais donc fais donc,  
Moi perso je préfère faire des corrida, manger de la viande tous les jours, rouler en SUV, et tondre ma pelouse tous les 2 jours, et oui c'est bien le bon topic pour parler de tout ça, on est d'accord


 

uNReaLx77 a écrit :


Quel égoïste tu es...  
 
C'est pour ça le monde part en couille.
 
Bref le gars a 1500 euro tout les 2 jours, vous recrutez dans la boîte ? :o


 
On est d'accord que le prix des CG atteint des sommets délirants, et que le gaming devient un loisir de riche ce qui est très inquiétant (vu que le prix monte à chaque génération), mais à part boycotter les produits (et on n'y est pas), y a pas grand chose à faire, donc ça n'est pas super utile de faire de la moralisation culpabilisante en disant aux gens de plutôt parrainer des gosses en Afrique qu'ils ne verront jamais que profiter de leur propre vie.  
C'est pas comme si il suffisait de s'interroger sur le bon sens de notre civilisation pour résoudre des problèmes concrets, même si c'est bien d'être lucides sur tout ça et d'en discuter en toute transparence.
 
Du coup, en tant que modo faut que je fasse un choix : couper court au débat impopulaire et recentrer sur le hardware lui-même, ou au contraire laisser faire.  
J'opte pour la deuxième option parce qu'il y a un réel problème avec la tarification des CG à chaque nouvelle génération et la façon dont tout ça est orchestré, par contre on va essayer de le faire dans le respect des choix de chacun SVP : pas de troll, pas d'attaque personnelle pour ceux qui ont fait le choix (parfaitement légitime) d'investir dans une RTX4090 plutôt que 20 petits Africains :o, etc).
Vous croyez que c'est possible ? [:cupra]


---------------
Topic .Net - C# @ Prog
n°11185545
brolysan2
Posté le 17-11-2022 à 10:13:42  profilanswer
 

franchement, quand je vois la différence d'options et d'ergonomie entre le panneau de configuration Nvidia et celui de AMD, je me dis que les Verts ont quand même un sacré retard à ce niveau la.
J'ai l'impression que c'est le même depuis les années 2000.

n°11185546
jonas
c'est mon identité
Posté le 17-11-2022 à 10:18:10  profilanswer
 

brolysan2 a écrit :

franchement, quand je vois la différence d'options et d'ergonomie entre le panneau de configuration Nvidia et celui de AMD, je me dis que les Verts ont quand même un sacré retard à ce niveau la.
J'ai l'impression que c'est le même depuis les années 2000.


 
oui sauf que perso le panneau de config j'en ai absolument rien à braire, je le regarde pas, je joue  [:cosmoschtroumpf]


---------------
et voilà
n°11185550
Monsieur L​ocke
Posté le 17-11-2022 à 10:23:34  profilanswer
 

Ça sent quand même l'effondrement prochain à ce rythme, ça devient un peu hors sol niveau tarif, d'ici quelques générations ça sera pire que hors de prix, invendable donc pu rentable.


---------------
TU Transport Fever
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  348  349  350  ..  803  804  805  806  807  808

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)