Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2396 connectés 

 


Usage (semi)pro/création de leur RTX 5090 en plus du jeu?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  357  358  359  ..  583  584  585  586  587  588
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11407312
funtonic
Posté le 19-02-2025 à 09:09:05  profilanswer
 

Reprise du message précédent :
 
Daniel Owen sur PhysX et les RTX5000 avec confirmation Nvidia:
 
https://www.youtube.com/watch?v=YtB9bes26yo

mood
Publicité
Posté le 19-02-2025 à 09:09:05  profilanswer
 

n°11407314
kenshirooo
Posté le 19-02-2025 à 09:14:54  profilanswer
 

jonas a écrit :


Oui et leur sav est excellent aussi, j'ai du y faire appel récemment pour un client. Là où vandenborre m'a purement et simplement volé 2000 euros, coolblue j'ai rempli un truc online en dix secondes, le lendemain ils étaient là avec la nouvelle télé, emporté la précédente, le tout sans la moindre question.


 
Ah oui la saga VdB sur ta TV detruite au deballage... ça m'a vacciné à acheter chez eux  [:remiche35:9]

n°11407315
funtonic
Posté le 19-02-2025 à 09:27:24  profilanswer
 

Eliquis a écrit :


 Je vais lancer Arkham asylum pour voir...


 
https://www.youtube.com/watch?v=mJGf0-tGaf4

n°11407317
ravenloft
Meilleur jeu du 20ème siècle
Posté le 19-02-2025 à 09:29:05  profilanswer
 

funtonic a écrit :


Daniel Owen sur PhysX et les RTX5000 avec confirmation Nvidia:
 
https://www.youtube.com/watch?v=YtB9bes26yo


qu'est-ce qu'il dit de plus ? Si c'est juste pour paraphraser ce qu'on a tous lu hier, ça n'a aucun intérêt.


---------------
Ravenloft
n°11407318
HashKah
It’s dangerous to go alone !
Posté le 19-02-2025 à 09:29:42  profilanswer
 

funtonic a écrit :


Daniel Owen sur PhysX et les RTX5000 avec confirmation Nvidia:
 
https://www.youtube.com/watch?v=YtB9bes26yo


 
Cette loose…
 
PhysX c’était génial et ça aurait dû se bonifier et devenir un standard et maintenant tu ne peux même plus l’utiliser, c’est honteux ! Je voulais justement relancer un run sur Mirror’s Edge.
 
Plus globalement la physique ils en ont plus rien à foutre quand je vois qu’Half-Life 2 met toujours une vitesse à 90% des jeux en termes d’interactions avec l’environnement et de physique.
 
Y’a pourtant pas besoin de ressources formidables mais de se sortir les doigts, il suffit de voir les deux Zelda de la Switch qui ont mis sur le cul l’industrie qui s’est demandée « mais comment ils arrivent à produire de telles interactions physiques organiques avec le hardware d’une Switch ?! ».
 
C’est ça qui me gave, on a des jeux avec toujours plus de géométrie, de textures haute résolution mais tout est statique, ce sont des décors en carton pâte et de ce point de vue le JV n’a pas progressé, il a même régressé..
 

n°11407328
Dark Schne​iderr
⭐⭐
Posté le 19-02-2025 à 09:43:47  profilanswer
 

HashKah a écrit :


 
C’est ça qui me gave, on a des jeux avec toujours plus de géométrie, de textures haute résolution mais tout est statique, ce sont des décors en carton pâte et de ce point de vue le JV n’a pas progressé, il a même régressé..
 


 
Awowed a même des NPC en carton-pâte.


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°11407330
It_Connexi​on
Posté le 19-02-2025 à 09:47:51  profilanswer
 

Dark Schneiderr a écrit :


 
Awowed a même des NPC en carton-pâte.


 
Ha merde, étant fan de Skyrim il me tentait bien


---------------
Galerie Photo Personnelle
n°11407333
syksjel
Posté le 19-02-2025 à 09:48:57  profilanswer
 

It_Connexion a écrit :


 
Ha merde, étant fan de Skyrim il me tentait bien


J’ai joué quelques heures, il est très bon !


---------------
Feedback
n°11407337
It_Connexi​on
Posté le 19-02-2025 à 09:50:26  profilanswer
 

syksjel a écrit :


J’ai joué quelques heures, il est très bon !


 
Ha !!  
 
Tu as autant de liberté que dans Skyrim ? Les premiers retours que j'ai vu sont prometteurs


---------------
Galerie Photo Personnelle
n°11407338
Eife
Juste avant le .G - Topic de
Posté le 19-02-2025 à 09:50:41  profilanswer
 

syksjel a écrit :


J’ai joué quelques heures, il est très bon !


Mais avec des NPC en carton pâte :o


---------------
Topic de vente de trucs divers
mood
Publicité
Posté le 19-02-2025 à 09:50:41  profilanswer
 

n°11407341
jonokuchi
Posté le 19-02-2025 à 09:52:03  profilanswer
 

Dispo: MSI GeForce RTX 5080 16G VANGUARD SOC LAUNCH EDITION
 
https://www.cybertek.fr/carte-graph [...] 50230.aspx

n°11407346
It_Connexi​on
Posté le 19-02-2025 à 09:54:48  profilanswer
 

jonokuchi a écrit :

Dispo: MSI GeForce RTX 5080 16G VANGUARD SOC LAUNCH EDITION
 
https://www.cybertek.fr/carte-graph [...] 50230.aspx


 
1800 balles une 5080, soyons sérieux quand même  :pt1cable:


---------------
Galerie Photo Personnelle
n°11407348
raoulator
Posté le 19-02-2025 à 09:56:12  profilanswer
 

HashKah a écrit :


 
Cette loose…
 
PhysX c’était génial et ça aurait dû se bonifier et devenir un standard et maintenant tu ne peux même plus l’utiliser, c’est honteux ! Je voulais justement relancer un run sur Mirror’s Edge.
 
Plus globalement la physique ils en ont plus rien à foutre quand je vois qu’Half-Life 2 met toujours une vitesse à 90% des jeux en termes d’interactions avec l’environnement et de physique.
 
Y’a pourtant pas besoin de ressources formidables mais de se sortir les doigts, il suffit de voir les deux Zelda de la Switch qui ont mis sur le cul l’industrie qui s’est demandée « mais comment ils arrivent à produire de telles interactions physiques organiques avec le hardware d’une Switch ?! ».
 
C’est ça qui me gave, on a des jeux avec toujours plus de géométrie, de textures haute résolution mais tout est statique, ce sont des décors en carton pâte et de ce point de vue le JV n’a pas progressé, il a même régressé..
 


 
Comme toutes les technologies poussées par nvidia seul  
C'est un argument marketing pour mettre en avant leur gpu.
Maintenant, on est sur le ray tracing. Quand amd ou intel seront au niveau ils passeront à autre chose.
 
 

n°11407349
It_Connexi​on
Posté le 19-02-2025 à 10:00:43  profilanswer
 

raoulator a écrit :


 
Comme toutes les technologies poussées par nvidia seul  
C'est un argument marketing pour mettre en avant leur gpu.
Maintenant, on est sur le ray tracing. Quand amd ou intel seront au niveau ils passeront à autre chose.
 
 


 
C'est ça, ça me rappelle l'époque du GSync avec les écrans hors de prix avec le module intégré


---------------
Galerie Photo Personnelle
n°11407351
jonas
c'est mon identité
Posté le 19-02-2025 à 10:05:28  profilanswer
 

It_Connexion a écrit :


 
C'est ça, ça me rappelle l'époque du GSync avec les écrans hors de prix avec le module intégré


 
cette révolution  [:vapeur_cochonne]  [:vapeur_cochonne]  [:vapeur_cochonne]


---------------
et voilà
n°11407352
syksjel
Posté le 19-02-2025 à 10:07:27  profilanswer
 

It_Connexion a écrit :


 
C'est ça, ça me rappelle l'époque du GSync avec les écrans hors de prix avec le module intégré


Je suis pas d'accord. La gsync est un sacré game changer !


---------------
Feedback
n°11407354
ravenloft
Meilleur jeu du 20ème siècle
Posté le 19-02-2025 à 10:16:13  profilanswer
 

It_Connexion a écrit :


 
C'est ça, ça me rappelle l'époque du GSync avec les écrans hors de prix avec le module intégré


Gsync a changé beaucoup de chose et tout le monde les a copié.


---------------
Ravenloft
n°11407356
ravenloft
Meilleur jeu du 20ème siècle
Posté le 19-02-2025 à 10:19:14  profilanswer
 

HashKah a écrit :

 

Cette loose…

 

PhysX c’était génial et ça aurait dû se bonifier et devenir un standard et maintenant tu ne peux même plus l’utiliser, c’est honteux ! Je voulais justement relancer un run sur Mirror’s Edge.

 

Plus globalement la physique ils en ont plus rien à foutre quand je vois qu’Half-Life 2 met toujours une vitesse à 90% des jeux en termes d’interactions avec l’environnement et de physique.

 

Y’a pourtant pas besoin de ressources formidables mais de se sortir les doigts, il suffit de voir les deux Zelda de la Switch qui ont mis sur le cul l’industrie qui s’est demandée « mais comment ils arrivent à produire de telles interactions physiques organiques avec le hardware d’une Switch ?! ».

 

C’est ça qui me gave, on a des jeux avec toujours plus de géométrie, de textures haute résolution mais tout est statique, ce sont des décors en carton pâte et de ce point de vue le JV n’a pas progressé, il a même régressé..

 



Attention, Physx existe toujours, c'est un moteur physique qui a plus de 20 ans d'existence et date de la fin des années 90 ayant débuté sa carrière sous le nom novodex avant qu'aegia le rachète et le renomme physx et puis qu'nvidia rachète aegia.

 

C'est la version accélérée par gpu de manière propriétaire qui a été abandonnée, pas physx

 

Tu as une liste de jeux utilisant physx ssur PC et il y en a encore en 2025. Tu as des gros jeux comme Alan wake 2 qui utilisent physx mais tout est devenu open source donc plus propriétaire.
https://www.pcgamingwiki.com/wiki/L [...] idia_PhysX

 

Les gens croient que physx a été abandonné juste parce qu'nvidia ne communique plus là dessus au niveau du marketing mais la vie des technologie ne se résume pas à la comm marketing des entreprises.

 

Par contre, oui le hic, c'est que la physique dans les jeux n'a pas progressé car certains jeux accélérés physx par gpu offraient certains éléments de gestion de la physique plus avancée que ce qu'on retrouve dans les jeux d'aujourd'hui malheureusement.


Message édité par ravenloft le 19-02-2025 à 10:21:30

---------------
Ravenloft
n°11407360
It_Connexi​on
Posté le 19-02-2025 à 10:22:05  profilanswer
 

jonas a écrit :


 
cette révolution  [:vapeur_cochonne]  [:vapeur_cochonne]  [:vapeur_cochonne]


 

syksjel a écrit :


Je suis pas d'accord. La gsync est un sacré game changer !


 

ravenloft a écrit :


Gsync a changé beaucoup de chose et tout le monde les a copié.


 
J'ai pas dit que ça n'était pas bien, je disais qu'au début tu payais bien plus cher ton moniteur avec le module intégré, maintenant ce n'est plus le cas depuis longtemps, en grande partie grâce à AMD qui a démocratisé la même solution en full software (reprenez moi si je me trompe)


---------------
Galerie Photo Personnelle
n°11407362
ravenloft
Meilleur jeu du 20ème siècle
Posté le 19-02-2025 à 10:27:01  profilanswer
 

It_Connexion a écrit :

 

J'ai pas dit que ça n'était pas bien, je disais qu'au début tu payais bien plus cher ton moniteur avec le module intégré, maintenant ce n'est plus le cas depuis longtemps, en grande partie grâce à AMD qui a démocratisé la même solution en full software (reprenez moi si je me trompe)


Le module intégré coutait chère car fait fpga donc tu payais pour ce module en plus. Après bien plus chère, c'était pas non plus une fortune mais tu payais. Nvidia avait aussi un cahier des charges très rigoureux contenu pleins de tests à respecter pour avoir une qualité parfaite.

 

Après, AMd n'a rien démocratisé, ils ont juste demandé en urgence à VESA de faire un standard après avoir vu gsync alors qu'amd juste avant ne croyait pas du tout en cette technologie. C'est VESA qui a démocratisé car VESA a fait le standard adaptive sync et AMd a utilisé une appelation marketing sous le nom de freesync qui se base sur le standard. AMd n'a fait que valider les écrans adaptive sync validant leur cahier des charges pour avoir le logo freesync. Avec freesync 1, le cahier des charges était très laxiste donc pas mal d'écrans freesync 1 n'étaient pas très bon. Avec freesync 2, AMd a eu un cahier des charges plus rigoureux. Ce n'est pas une solution full software vu que ça utilise aussi un scaler mais un scaler plus traditionnel et standardisé donc sans les surcouts de celui d'nvidia.

 

Nvidia a par la suite permis de prendre en charge le standard adaptive sync avec le terme marketing gsync compatible quand le nombre décrans adaptive sync devenait de plus en plus important. Nvidia ne pouvait pas s'en passer sinon ça limitait l'offre pour les utilisateurs d'nvidia et donc aurait été un inconvénient.

Message cité 3 fois
Message édité par ravenloft le 19-02-2025 à 10:31:14

---------------
Ravenloft
n°11407363
It_Connexi​on
Posté le 19-02-2025 à 10:29:52  profilanswer
 

ravenloft a écrit :


Le module intégré coutait chère car fait fpga donc tu payais pour ce module en plus. Après bien plus chère, c'était pas non plus une fortune mais tu payais. Nvidia avait aussi un cahier des charges très rigoureux contenu pleins de tests à respecter pour avoir une qualité parfaite.
 
Après, AMd n'a rien démocratisé, ils ont juste demandé en urgence à VESA de faire un standard après avoir vu gsync alors qu'amd juste avant ne croyait pas du tout en cette technologie. C'est VESA qui a démocratisé car VESA a fait le standard adaptive sync et AMd a utilisé une appelation marketing sous le nom de freesync qui se base sur le standard. AMd n'a fait que valider les écrans adaptive sync validant leur cahier des charges pour avoir le logo freesync. Avec freesync 1, le cahier des charges était très laxiste donc pas mal d'écrans freesync 1 n'étaient pas très bon. Avec freesync 2, AMd a eu un cahier des charges plus rigoureux. Ce n'est pas une solution full software vu que ça utilise aussi un scaler mais un scaler plus traditionnel et standardisé donc sans les surcouts de celui d'nvidia.
 


 
Dac, j'avais un doute  :jap:


---------------
Galerie Photo Personnelle
n°11407365
ravenloft
Meilleur jeu du 20ème siècle
Posté le 19-02-2025 à 10:33:33  profilanswer
 

It_Connexion a écrit :


 
Dac, j'avais un doute  :jap:


Pour information supplémentaire, nvidia s'est associé à mediatek pour concevoir désormais les scalers gsync native qui normalement devraient diminuer le surcout pour permettre d'avoir des écrans gsync native sans surcout et avoir la technologie gsync pulsar par exemple.


---------------
Ravenloft
n°11407366
It_Connexi​on
Posté le 19-02-2025 à 10:38:37  profilanswer
 

ravenloft a écrit :


Pour information supplémentaire, nvidia s'est associé à mediatek pour concevoir désormais les scalers gsync native qui normalement devraient diminuer le surcout pour permettre d'avoir des écrans gsync native sans surcout et avoir la technologie gsync pulsar par exemple.


 
Mais la plupart des écrans actuels ne sont pas FreeSync et Gsync compatibles ?


---------------
Galerie Photo Personnelle
n°11407367
Scrabble
Posté le 19-02-2025 à 10:39:13  profilanswer
 

ravenloft a écrit :


Le module intégré coutait chère


Le module intégré coutait cher, c'est au masculin

n°11407368
syksjel
Posté le 19-02-2025 à 10:47:33  profilanswer
 

Scrabble a écrit :


Le module intégré coutait cher, c'est au masculin


Merci captain obvious.


---------------
Feedback
n°11407370
havoc_28
Posté le 19-02-2025 à 10:48:46  profilanswer
 

It_Connexion a écrit :


 
Dac, j'avais un doute  :jap:


 
https://www.hardware.fr/focus/120/a [...] efere.html
 
Citons HFR.  
 

Citation :

Le principe de la FRV pour améliorer la fluidité des jeux vidéo a été rendu public et exploité en premier lieu par Nvidia avec G-Sync, mais il est difficile de savoir qui en est réellement à l'origine. D'un côté Nvidia indique avoir travaillé sur le sujet pendant plusieurs années et d'un autre côté il est apparu par après que le consortium VESA travaillait à peu près en même temps sur une approche similaire, mais standardisée pour le DisplayPort. C'est l'Adaptive-Sync. Un standard poussé par AMD qui le met en avant à travers sa marque FreeSync qui représente son exploitation par l'ensemble composé de ses cartes graphiques et de ses pilotes.
 


 

Citation :

Le timing exact de ces développements est difficile à connaître, AMD et Nvidia faisant en sorte d'en dire le moins possible tout en défendant farouchement leur contribution. Il est évidemment possible qu'AMD ait poussé le consortium VESA à mettre au point un standard après avoir pris connaissance du projet G-Sync. Il est également possible qu'à partir de discussions initiales entre les membres VESA, Nvidia ait vu une opportunité de prendre tout le monde de court en passant par une implémentation propriétaire conçue pour réduire le temps de développement au niveau des fabricants d'écrans.


 
 

n°11407373
olbitset
Posté le 19-02-2025 à 10:55:17  profilanswer
 

xplo a écrit :


Dans MSI afterburner tu click sur curve.
A 850mv y en a qui ont 1600mhz et d autre 1300mhz.


 
Donc je comprends sans reglage utilisateur car j'avais tune cela sans regarder ce que j'avais par defaut. Je ferai ca ce soir!

Message cité 1 fois
Message édité par olbitset le 19-02-2025 à 10:56:04
n°11407377
Phadaiz
Posté le 19-02-2025 à 11:14:08  profilanswer
 

HashKah a écrit :

C’est ça qui me gave, on a des jeux avec toujours plus de géométrie, de textures haute résolution mais tout est statique, ce sont des décors en carton pâte et de ce point de vue le JV n’a pas progressé, il a même régressé..


Suffit de regarder le comparatif Far Cry 2 vs Far Cry 5 pour se rendre compte de la différence entre un bon et un mauvais moteur physique.

 

https://www.youtube.com/watch?v=FCeEvQ68jY8
https://gamerstuff.fr/moteur-physiq [...] far-cry-5/
https://www.cowcotland.com/news/620 [...] cry-5.html

 

Par exemple dans FC2 tu peux tirer a travers les planches ou les tôles et tuer les ennemis derrière, dans FC5 l'ennemi est derrière une petite palissade, même en mitraillant la palissade tu le touches pas et la palissade est intacte.

 

Pareil pour les effets du feu qui se répandent dans la végétation qui sont beaucoup mieux rendus dans FC2
Aussi dans FC2 tu peux dézinguer les arbres et les plantes, branche par branche et faire tomber les feuilles, tout ceci n'existe plus dans FC5.

 

En plus c'est sensé être le même moteur physique (non PhysX), en version différente, mais pas du tout utilisé de la même manière.
https://fr.wikipedia.org/wiki/Dunia_Engine
Je crois que Far Cry 6 a une physique un peu meilleur mais sans égaler Far Cry 2. Et ne parlons pas de l'IA dans certains jeux récents qui est vraiment à chier.

 

Donc oui la physique est essentiel à l'immersion, il ne suffit pas d'avoir 300fps, dommage que Nvidia ait retiré la compatibilité PhysX 32bits. :(


Message édité par Phadaiz le 19-02-2025 à 11:16:26
n°11407378
xplo
Posté le 19-02-2025 à 11:21:54  profilanswer
 

olbitset a écrit :


 
Donc je comprends sans reglage utilisateur car j'avais tune cela sans regarder ce que j'avais par defaut. Je ferai ca ce soir!


la curve par defaut est normalement non modifiable. Et c'est la le problème car on peut pas faire un delta de + de 1000mhz par rapport au défaut.
 
Donc au voltage idéal de 850mv y a des 5090 FE qui tourne a 2600mhz max et des 5090 FE qui tourne à 2300mhz max (je parle pas de stabilité là...). Et ca me semble bien plus problématique que tout le drama depuis 2 semaine sur des prises en plastique qui vont cramé dans 0.000001% du temps :o

n°11407379
mxpx
----
Posté le 19-02-2025 à 11:24:57  profilanswer
 

C'est aujourd'hui les tests des 5070 / TI  ?

n°11407382
Plins86
Posté le 19-02-2025 à 11:29:48  profilanswer
 

mxpx a écrit :

C'est aujourd'hui les tests des 5070 / TI  ?


 
Oui 15h normalement.


---------------
XBL : SuperSeum - PSN : Plins - Steam : Plins - Battletag : Plins#2112 - Code Ami Switch : SW-7598-4223-7211
n°11407383
mxpx
----
Posté le 19-02-2025 à 11:30:05  profilanswer
 

:jap:

n°11407384
marllt2
Posté le 19-02-2025 à 11:31:52  profilanswer
 

It_Connexion a écrit :

Mais la plupart des écrans actuels ne sont pas FreeSync et Gsync compatibles ?


Ils se démocratisent, mais ils ne le sont pas tous, il faut que ce soit spécifié explicitement.
 
Comme dit plus haut, FreeSync et "G-sync compatible" ce sont des labels marketing (avec tests de conformité) pour les écrans à la norme VESA Adaptive-Sync. Intel le supporte aussi d'ailleurs mais n'as pas de label marketing.
 
Après, nVidia a 2 autres variantes de G-sync: https://www.nvidia.com/fr-fr/geforc [...] -monitors/
Le G-sync "historique", et un plus haut de gamme (avec un scaler propriétaire puis maintenant Mediatek), l'ultimate:
 
https://rehost.diberie.com/Picture/Get/f/371766
 
nVidia a une liste/tableau de tous les écrans en fonction de leur certification:
 
https://www.nvidia.com/en-us/geforc [...] ors/specs/

Message cité 2 fois
Message édité par marllt2 le 19-02-2025 à 11:42:48
n°11407385
v-nom
Posté le 19-02-2025 à 11:36:50  profilanswer
 

mxpx a écrit :

C'est aujourd'hui les tests des 5070 / TI  ?


 
 

Plins86 a écrit :


 
Oui 15h normalement.


 
Il me semble que c'est le 20 à 15H  .


Message édité par v-nom le 19-02-2025 à 11:37:11
n°11407386
Xixou2
Posté le 19-02-2025 à 11:44:25  profilanswer
 

It_Connexion a écrit :


 
Ce jeu  :love:
 
Par contre je ne me souvenais pas qu'il gérait le PhysX


 
Si, la fumée qui sortait des pots d'échappements des voitures en hiver.

n°11407387
Xixou2
Posté le 19-02-2025 à 11:47:49  profilanswer
 

Sinon vous pouvez toujours avoir le physx en utilisant une deuxième carte graphique et l'assigner pour physx, ça fonctionne bien j'avais testé à l'époque (il y a 8 ans):
 
https://www.youtube.com/watch?v=hbMLhDJ43JU
 
A confirmer si vous avez une rx 50x0 et une deuxième carte.

Message cité 2 fois
Message édité par Xixou2 le 19-02-2025 à 12:24:04
n°11407388
overhead59
Posté le 19-02-2025 à 11:48:27  profilanswer
 

marllt2 a écrit :


Ils se démocratisent, mais ils ne le sont pas tous, il faut que ce soit spécifié explicitement.
 
Comme dit plus haut, FreeSync et "G-sync compatible" ce sont des labels marketing (avec tests de conformité) pour les écrans à la norme VESA Adaptive-Sync. Intel le supporte aussi d'ailleurs mais n'as pas de label marketing.
 
Après, nVidia a 2 autres variantes de G-sync: https://www.nvidia.com/fr-fr/geforc [...] -monitors/
Le G-sync "historique", et un plus haut de gamme (avec un scaler propriétaire puis maintenant Mediatek), l'ultimate:
 
https://rehost.diberie.com/Picture/Get/f/371766
 
nVidia a une liste/tableau de tous les écrans en fonction de leur certification:
 
https://www.nvidia.com/en-us/geforc [...] ors/specs/


 
Attention, je viens de vérifier mon écran est pas dedans alors qu'il est bien Gsync (DELL AW3225QF 32″ 4K QD OLED)  
https://www.dell.com/fr-fr/shop/%C3 [...] e-moniteur


---------------
Mon blog : https://overhead59.wordpress.com/
n°11407390
petit-tigr​e
miaou
Posté le 19-02-2025 à 11:49:41  profilanswer
 

Ca n'a vraiment aucun intérêt de faire ça.
En plus ça ne concerne que de vieux jeux.


---------------
mIaOuUuUuUuUuUu
n°11407394
brolysan2
Posté le 19-02-2025 à 12:18:55  profilanswer
 

j'ai beau scruté plusieurs fois par jour, impossible de chopper la moindre 5090 de disponible. je vous envie les gars ;)

n°11407397
marllt2
Posté le 19-02-2025 à 12:33:56  profilanswer
 

overhead59 a écrit :

Attention, je viens de vérifier mon écran est pas dedans alors qu'il est bien Gsync (DELL AW3225QF 32″ 4K QD OLED)  
https://www.dell.com/fr-fr/shop/%C3 [...] e-moniteur


Pourtant avec les critères Alienware et 4K il y est  :??:  
 
https://rehost.diberie.com/Picture/Get/f/371782
https://www.nvidia.com/en-us/geforc [...] ors/specs/

Message cité 1 fois
Message édité par marllt2 le 19-02-2025 à 12:37:20
n°11407398
overhead59
Posté le 19-02-2025 à 12:40:24  profilanswer
 


 
quel idiot, j'ai mis DELL en marque et pas alienware, oubliez ce que j'ai dis :D
 
Désolé !


---------------
Mon blog : https://overhead59.wordpress.com/
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  357  358  359  ..  583  584  585  586  587  588

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)