Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2656 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  603  604  605  ..  803  804  805  806  807  808
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11274683
PSX86
ZeroAndOne
Posté le 22-08-2023 à 17:55:20  profilanswer
 

Reprise du message précédent :
Cyberpunk est décidément le jeu des tests du Raytracing, cela témoigne d'une étroite collaboration entre Nvidia et aussi un peu AMD pour cette technologie avec le studio.
 
Je me suis toujours demandé si ça avait un rapport avec les néons que la Pologne possédaient dans ses villes pour égayé un peu le citoyen à l'ère soviétique plus abrupt.


Message édité par PSX86 le 22-08-2023 à 18:00:33
mood
Publicité
Posté le 22-08-2023 à 17:55:20  profilanswer
 

n°11274685
Gunman24
Posté le 22-08-2023 à 17:59:17  profilanswer
 


Le 3.5 compatible avec toutes les rtx ?
Alors que le 3.0 non.
 
Sacré revirement.

n°11274687
havoc_28
Posté le 22-08-2023 à 18:01:46  profilanswer
 

Gunman24 a écrit :


Le 3.5 compatible avec toutes les rtx ?
Alors que le 3.0 non.
 
Sacré revirement.


 
Le DLSS 3.0 fonctionne sur Turing ou Ampère, ce qui ne fonctionne pas c'est la partie "Frame Generation" dont les composantes matériels ne sont pas implémentés ou que partiellement pour Ampère.

Message cité 1 fois
Message édité par havoc_28 le 22-08-2023 à 18:02:23
n°11274692
rz1
Profil sup​primé
Posté le 22-08-2023 à 18:14:52  profilanswer
 

Ca arrive...

 

NVIDIA ACE Enhanced with Dynamic Responses for Virtual Characters
https://www.youtube.com/watch?v=cSSSn10HgZA

 

Integration des IA génératives, via une techno nvidia, dans le domaine videoludique, avec Cyberpunk (ça y ressemble en tout ca) en demo of course :o

 

A l'avenir, on choisira aussi sa CG pour ses capacités en IA

Message cité 1 fois
Message édité par rz1 le 22-08-2023 à 18:18:10

---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°11274693
PSX86
ZeroAndOne
Posté le 22-08-2023 à 18:25:44  profilanswer
 

rz1 a écrit :

Ca arrive...
 
NVIDIA ACE Enhanced with Dynamic Responses for Virtual Characters
https://www.youtube.com/watch?v=cSSSn10HgZA
 
Integration des IA génératives, via une techno nvidia, dans le domaine videoludique, avec Cyberpunk (ça y ressemble en tout ca) en demo of course :o
 
A l'avenir, on choisira aussi sa CG pour ses capacités en IA


 
Il y avais un RPG qui avais tenté l'aventure avec GPT 2 mais c'étais textuelle .. m'en souviens plus du nom. On savais qu'on allais vers ça, à mon avis c'est pour Cyberpunk Orion ce genre de techno, on a quand même pas assez de puissance disponible et de mémoire pour tout les différents calculs en AI qui occupe le GPU. Après ce que je pense, il y aura peut être des soluces pour ce cas particulier avec les processors Intel et AMD avec les jeux d'instructions disponibles dans les extentions de calculs ou bien avec l'iGPU intégré.. à voir.


Message édité par PSX86 le 22-08-2023 à 18:26:36
n°11274701
rz1
Profil sup​primé
Posté le 22-08-2023 à 18:42:30  profilanswer
 

On va voir débarquer des jeux d'instructions dédiés je pense, l'IA générative va s'optimiser, et on craquera tous à grand renfort marketing pour la nouvelle génération RTX 6000 avec la nouvelle techno "AI-generative TX"

 

Quand les technos graphiques arriveront à leur apogée (UE5 - UE6? ), il faudra bien mettre l'accent sur autre chose, l'immersivité grâce à l'AI c'est la prochaine étape AMHA

 

Et nvidia va pas se priver d'avoir une part de gateau, surtout si elle peut lancer les technos de références en la matière.

Message cité 1 fois
Message édité par rz1 le 22-08-2023 à 18:49:25

---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°11274705
PSX86
ZeroAndOne
Posté le 22-08-2023 à 19:01:12  profilanswer
 

rz1 a écrit :

On va voir débarquer des jeux d'instructions dédiés je pense, l'IA générative va s'optimiser, et on craquera tous à grand renfort marketing pour la nouvelle génération RTX 6000 avec la nouvelle techno "AI-generative TX"
 
Quand les technos graphiques arriveront à leur apogée (UE5 - UE6? ), il faudra bien mettre l'accent sur autre chose, l'immersivité grâce à l'AI c'est la prochaine étape AMHA
 
Et nvidia va pas se priver d'avoir une part de gateau, surtout si elle peut lancer les technos de références en la matière.


 
Ou tout simplement plus de Tensor Core et de mémoire dans les prochaines RTX qui seront de plus en plus taillé pour ce nouveau défi en dédiant une partie à cette tâche.

n°11274706
rz1
Profil sup​primé
Posté le 22-08-2023 à 19:03:34  profilanswer
 

PSX86 a écrit :


 
Ou tout simplement plus de Tensor Core et de mémoire dans les prochaines RTX qui seront de plus en plus taillé pour ce nouveau défi en dédiant une partie à cette tâche.


oui possible aussi, on verra bien ce que le bouillonnement actuel des IA génératives va donner dans le domaine vidéoludique


---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°11274710
PSX86
ZeroAndOne
Posté le 22-08-2023 à 19:11:27  profilanswer
 

Je pensais à un truc .. ça peut être déporter sur un cloud AI Nvidia vue que c'est leur spécialité maintenant .. alors là ça serais génial. Sauf pour le hors ligne.

n°11274712
dams86
sed -i 's/windows/linux/g' c:
Posté le 22-08-2023 à 19:14:21  profilanswer
 

havoc_28 a écrit :


 
Le DLSS 3.0 fonctionne sur Turing ou Ampère, ce qui ne fonctionne pas c'est la partie "Frame Generation" dont les composantes matériels ne sont pas implémentés ou que partiellement pour Ampère.


 
Vu que le DLSS3 c'est le 2 + "Frame generation".... Ça fonctionne pas.

mood
Publicité
Posté le 22-08-2023 à 19:14:21  profilanswer
 

n°11274719
havoc_28
Posté le 22-08-2023 à 19:25:42  profilanswer
 

dams86 a écrit :


 
Vu que le DLSS3 c'est le 2 + "Frame generation".... Ça fonctionne pas.


 
Et donc le DLSS 3.5 fonctionne sur Turing et Ampère vu qui a pas besoin des Optical Flow pour le débruitage via apprentissage machine. Le DLSS 3.0 c'est pas juste le FG, c'est aussi reflex inclut de base.
 
Dans les jeux avec DLSS 3.0 y a bien la possibilité d'activé ou non le FG :o.
 
https://pbs.twimg.com/media/F4IyF7EWYAA1P6d?format=jpg&name=medium


Message édité par havoc_28 le 22-08-2023 à 21:22:48
n°11274757
Scalpt0
Posté le 22-08-2023 à 21:30:00  profilanswer
 

Pour le forumeur qui veut plusieurs 4090:
https://www.mifcom.de/big-boss-ryze [...] 90-id20638
7X 4090
2X 2000W
 
Parfait :)

n°11274763
PSX86
ZeroAndOne
Posté le 22-08-2023 à 22:17:42  profilanswer
 

Scalpt0 a écrit :

Pour le forumeur qui veut plusieurs 4090:
https://www.mifcom.de/big-boss-ryze [...] 90-id20638
7X 4090
2X 2000W
 
Parfait :)


 
J'ai comme quelques doutes : dans une salle fortement climatisé comme dans les datacenters : ok ...

n°11274764
azubal
Posté le 22-08-2023 à 22:25:03  profilanswer
 

Scalpt0 a écrit :

Pour le forumeur qui veut plusieurs 4090:
https://www.mifcom.de/big-boss-ryze [...] 90-id20638
7X 4090
2X 2000W
 
Parfait :)


 
Yes, on m'a transmis le lien.
Ils ont un autre modèle moins énervé et plus en adéquation avec ma recherche : https://www.mifcom.de/big-boss-ryze [...] ad-id17685
 
 

n°11274767
Scalpt0
Posté le 22-08-2023 à 22:50:15  profilanswer
 

Citation :

Yes, on m'a transmis le lien.
Ils ont un autre modèle moins énervé et plus en adéquation avec ma recherche : https://www.mifcom.de/big-boss-ryze [...] ad-id17685


 
C'est une belle bête également  :sol:

n°11274771
Space
Profil: Maux des rateurs
Posté le 22-08-2023 à 23:12:19  profilanswer
 

azubal a écrit :

Yes, on m'a transmis le lien.
Ils ont un autre modèle moins énervé et plus en adéquation avec ma recherche : https://www.mifcom.de/big-boss-ryze [...] ad-id17685
 
 

Tu as absolument besoin des 4x4090 ?
 
Tu avais parlé de 3 ou 4x 4090 , avec 3x4090 tu aurais nettement moins de restrictions , tu pourrais pas mal baisser la note , prendre la CM Asus Pro WS SAGE, prendre le bon gros boitier qui va et la bonne grosse alim de ton choix.
Bon après si les 21500€ ne sont pas un problème pour toi tu peux prendre :o


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°11274794
rz1
Profil sup​primé
Posté le 23-08-2023 à 08:01:17  profilanswer
 

tout ça pour faire des boobs avec Stable Diffusion... :o


---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°11274895
rz1
Profil sup​primé
Posté le 23-08-2023 à 15:03:05  profilanswer
 

Alan Wake 2 | 4K NVIDIA DLSS 3.5 World Premiere  
https://www.youtube.com/watch?v=HwGbQwoMCxM


---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°11274898
Xixou2
Posté le 23-08-2023 à 15:04:46  profilanswer
 

J'avais adoré le premier, je vais définitivement jouer au deux avec le DLSS 3.5 !

n°11274902
Xantar_Eoz​enn
Posté le 23-08-2023 à 15:24:27  profilanswer
 

rz1 a écrit :

Alan Wake 2 | 4K NVIDIA DLSS 3.5 World Premiere  
https://www.youtube.com/watch?v=HwGbQwoMCxM


 
 
Le "bruit" dans les grillages avec le DLSS (comme dans cette vidéo d'Alan Wake 2), y en à pleins sur CyberPunk 2077. (par exemple, tu sors de ton appart, tu descend d'1 niveau pour aller vers la petite zone de combat (juste à coté des bancs de muscu), y a des grillages qui font pareil)
 
Bonne nouvelle si le RR permet de l'éliminer.

Message cité 1 fois
Message édité par Xantar_Eozenn le 23-08-2023 à 15:26:31
n°11274906
DVN
Posté le 23-08-2023 à 15:30:08  profilanswer
 

Oué c'est un bon point.
 
Me semble qu'il y avait aussi des problèmes d'aliasing aussi parfois sur des lignes au sol (sur CP aussi), peut être que ça sera réduit aussi.


---------------
Non, rien...
n°11274913
ddlabrague​tte
Posté le 23-08-2023 à 15:44:12  profilanswer
 

Xantar_Eozenn a écrit :


 
 
Le "bruit" dans les grillages avec le DLSS (comme dans cette vidéo d'Alan Wake 2), y en à pleins sur CyberPunk 2077. (par exemple, tu sors de ton appart, tu descend d'1 niveau pour aller vers la petite zone de combat (juste à coté des bancs de muscu), y a des grillages qui font pareil)
 
Bonne nouvelle si le RR permet de l'éliminer.


Sans les Tensor core, c'est toute l'image qui serait bruitée avec le ray tracing  [:skaine:1]  
 

n°11274920
Valaint671​30
Cinquième soleil
Posté le 23-08-2023 à 16:14:56  profilanswer
 

aliss a écrit :


 
Si on exclu la particularité Volta, Turing est sorti il y a 5 ans et depuis nous avons eu Ampere puis Lovelace, ce qui fait déjà quelques architectures.
 
Aujourd'hui nous en sommes toujours à devoir utiliser du supersampling pour quelques effets en RT.
 
Le rhytme de croisière est plutôt bon mais ça va néanmoins bien dans le sens d'une lente évolution.  ;)  


 
Je voyais plutôt ça dans ce genre là perso:
 
Aujourd'hui on a pas la puissance pour faire tourner le RT actuel avec les technologies matérielles actuelles, et ce n'est pas pour demain non plus, mais on a des solutions qui donnent un rendu plus que convainquant malgré cela, et en a peine 4-5 ans :)
 
C'est dur de compter Turing qui n'avait pour ainsi dire quasi aucun jeu pour faire évoluer le DLSS lors de sa gén... Surtout les premières moutures qui n'ont plus rien à voir avec le rendu qualitatif du DLSS actuel... Mais soit.
 
De mon point de vue de geek sans connaissance particulière, il a bien suffit de quelques années pour avoir un résultat probant pour l'utilisation actuelle du RT, dans les résolutions de notre époque, avec des framerates raisonnables.
 
Et c'est bien ça qu'il y à a retenir à mon sens :)

Message cité 1 fois
Message édité par Valaint67130 le 23-08-2023 à 16:22:44

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11274928
havoc_28
Posté le 23-08-2023 à 16:36:13  profilanswer
 

Valaint67130 a écrit :


 
Je voyais plutôt ça dans ce genre là perso:
 
Aujourd'hui on a pas la puissance pour faire tourner le RT actuel avec les technologies matérielles actuelles, et ce n'est pas pour demain non plus, mais on a des solutions qui donnent un rendu plus que convainquant malgré cela, et en a peine 4-5 ans :)
 
C'est dur de compter Turing qui n'avait pour ainsi dire quasi aucun jeu pour faire évoluer le DLSS lors de sa gén... Surtout les premières moutures qui n'ont plus rien à voir avec le rendu qualitatif du DLSS actuel... Mais soit.
 
De mon point de vue de geek sans connaissance particulière, il a bien suffit de quelques années pour avoir un résultat probant pour l'utilisation actuelle du RT, dans les résolutions de notre époque, avec des framerates raisonnables.
 
Et c'est bien ça qu'il y à a retenir à mon sens :)


 
Quand les pixels shaders sont apparus avec la Geforce 3 ça a pas non plus duré beaucoup de temps avant leur emploie effectif et généralisation.
 
Donc même s'il faut saluer le pas en avant qu'a été le rendu via RT de quelques effets, comme déjà dit ici c'est une lente course de fond qui est comparable au passage de la 2D à la 3D et l'évolution de la rastérisation. Pour l'instant on est limite encore à l'air PS1 du RT si on fait la comparaison avec la rastérisation / 3D.
 
Le DLSS c'est amélioré oui, l'apprentissage machine etc a fait son travail, après les unités tensore core et le DLSS 2.x fonctionne bien sur Turing également. Je dirais aussi le 3 et futur 3.5 en enlevant bien entendu le / la "FG".
 
Tout comme les apports graphiques du RT par rapport a ce qui est faisable via rastérisation (même si ça demande beaucoup plus de travail pour avoir un rendu similaire mais pas pour tous bien entendu), y a pour moi toujours pas réellement ce sentiment d'être passé sur une nouvelle gen.  
 
Les effets via RT sont un peu plus, après à chacun de voir si ça vaut le coups ou non, mais pour l'instant ça reste une option à activer ou désactiver mais pas un "game changer" (ou pas encore).

Message cité 1 fois
Message édité par havoc_28 le 23-08-2023 à 16:39:36
n°11274940
Xantar_Eoz​enn
Posté le 23-08-2023 à 16:52:59  profilanswer
 

La différence d'intégration entre le Frame Generator et le Ray Reconstruction, c'est que le RR sera utilisé en natif sur tous les jeux qui auront la DLL du DLSS 3.5 et +, pas de case à cocher, pas de réglage au niveau utilisateur.
 
Le FG, lui restera une option supplémentaire du DLSS 3.x et + (compatible RTX 4000 (et certainement +)) à cocher ou non au choix de l'utilisateur, car son activation peut avoir des effets néfastes sur les latences par exemple.


Message édité par Xantar_Eozenn le 23-08-2023 à 16:55:56
n°11274948
Valaint671​30
Cinquième soleil
Posté le 23-08-2023 à 17:13:32  profilanswer
 

havoc_28 a écrit :


 
Quand les pixels shaders sont apparus avec la Geforce 3 ça a pas non plus duré beaucoup de temps avant leur emploie effectif et généralisation.
 
Donc même s'il faut saluer le pas en avant qu'a été le rendu via RT de quelques effets, comme déjà dit ici c'est une lente course de fond qui est comparable au passage de la 2D à la 3D et l'évolution de la rastérisation. Pour l'instant on est limite encore à l'air PS1 du RT si on fait la comparaison avec la rastérisation / 3D.
 
Le DLSS c'est amélioré oui, l'apprentissage machine etc a fait son travail, après les unités tensore core et le DLSS 2.x fonctionne bien sur Turing également. Je dirais aussi le 3 et futur 3.5 en enlevant bien entendu le / la "FG".
 
Tout comme les apports graphiques du RT par rapport a ce qui est faisable via rastérisation (même si ça demande beaucoup plus de travail pour avoir un rendu similaire mais pas pour tous bien entendu), y a pour moi toujours pas réellement ce sentiment d'être passé sur une nouvelle gen.  
 
Les effets via RT sont un peu plus, après à chacun de voir si ça vaut le coups ou non, mais pour l'instant ça reste une option à activer ou désactiver mais pas un "game changer" (ou pas encore).


 
 
Oui si on se borne a la comparo RT avec ou sans DLSS, mais il y a aussi le pendant de l'utilisation du DLSS sans RT, si on pense globalement.
 
Avec le FG on est quand même sur un sacré gain, qu'il serve actuellement au RT limité ou à avoir plus de fps, le résultat est là, et il est conséquent (Imaginons dans le futur du UE5 sans RT, et sans DLSS FG, ça risque d'être beau mais de ramer...)
 
le FG est un game changer pour moi en tout cas.
 
C'est un peu paradoxal de parler de sensation de nouvelle gén, alors que cela tiens surtout au moteur utilisé avant de parler de full RT partout :jap:
 
Si pour être convainquant le DLSS + FG doit réussir en quelques années à faire tourner des jeux 3D full RT en 2160p et 120hz, je pense qu'il y a méprise avant tout, et qu'il est évident qu'il faudra beaucoup plus de temps, à moins que le caméléon trouve une nouvelle astuce qui repousse encore une fois les limites déjà connues, comme il viens de la faire avec le FG.
 
Toutefois cela n'enlève rien à la prouesse actuelle, qui tourne en ridicule la grande majorité des gens qui pensaient que tout ça n'arriverais pas aussi vite dans tout les cas, c'est un peu là ou je veux en venir, ensuite on peut toujours tempérer ça je ne le reproche pas du moment que ça reste factuel.
 
Dans tout les cas aujourd'hui et maintenant, il n'y a que ça de dispo; le rendu actuel + RT actuel, et on peut dire que le défi est relevé au dessus de toutes attente, et cela auras pris 48 mois à Nvidia :jap:

Message cité 1 fois
Message édité par Valaint67130 le 23-08-2023 à 17:16:06

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11274958
havoc_28
Posté le 23-08-2023 à 17:43:43  profilanswer
 

Valaint67130 a écrit :


 
 
Oui si on se borne a la comparo RT avec ou sans DLSS, mais il y a aussi le pendant de l'utilisation du DLSS sans RT, si on pense globalement.
 
Avec le FG on est quand même sur un sacré gain, qu'il serve actuellement au RT limité ou à avoir plus de fps, le résultat est là, et il est conséquent (Imaginons dans le futur du UE5 sans RT, et sans DLSS FG, ça risque d'être beau mais de ramer...)
 
le FG est un game changer pour moi en tout cas.


 
Le DLSS est universel (et encore que y a parfois quelques petits artefacts sur certains jeux), le FG l'est beaucoup moins, avoir des FPS oui c'est bien, mais si la sensation de fluidité ne correspond pas avec la réactivité des commandes ... Reflex aide mais des fois c'est pas assez, en plus des artefacts propre au FG en plus.  
 
A la limite qu'on considère le DLSS 2.x et évolution comme un "game changer" oui, le FG c'est plus un bonus à tester au cas par cas, il n'a pas l'universalité du DLSS 2.x qui augmente les FPS sans contre partie, parfois pas assez oui, mais au moins y a pas de soucis niveau fluidité apparente et réactivité des commandes qui vont bien ensemble.
 
Après y a des jeux peu nerveux ou que l'on part déjà de suffisant haut pour que le FG fonctionne parfaitement. Mais à nouveau c'est plus au cas par cas que pour le DLSS ou a  moins d'être en 1080p et être super tatillon.?
 

Valaint67130 a écrit :


 
Si pour être convainquant le DLSS + FG doit réussir en quelques années à faire tourner des jeux 3D full RT en 2160p et 120hz, je pense qu'il y a méprise avant tout, et qu'il est évident qu'il faudra beaucoup plus de temps, à moins que le caméléon trouve une nouvelle astuce qui repousse encore une fois les limites déjà connues, comme il viens de la faire avec le FG.


 
C'est avant tout la puissance brute en RT qui doit augmenter, le DLSS + le FG ne sont que des solutions pour pallier au manque de puissance à ce niveau, et le FG  impose plus de contrainte que le DLSS sans FG.

Message cité 2 fois
Message édité par havoc_28 le 23-08-2023 à 17:44:28
n°11274970
ddlabrague​tte
Posté le 23-08-2023 à 18:13:30  profilanswer
 

havoc_28 a écrit :


 
C'est avant tout la puissance brute en RT qui doit augmenter, le DLSS + le FG ne sont que des solutions pour pallier au manque de puissance à ce niveau, et le FG  impose plus de contrainte que le DLSS sans FG.


Pas seulement  
 
Sur la plupart des jeux qui l'exploitent de manière assez lourde on observe une dépendance cpu assez importante  
A l'heure actuelle, difficile de dire si ça vient d'un manque de maturité des développeurs ou d'une limitation induite par les API actuelles ( à la manières des commandes de rendu avant Mantle/Vulkan et DX12 )  
Mais on peut en déduire que la manière dont il est implémenté devra aussi évoluer d'un point de vue software afin d'optimiser le rendement des unités dédiées  
 

n°11274971
Valaint671​30
Cinquième soleil
Posté le 23-08-2023 à 18:14:47  profilanswer
 

havoc_28 a écrit :


 
Le DLSS est universel (et encore que y a parfois quelques petits artefacts sur certains jeux), le FG l'est beaucoup moins, avoir des FPS oui c'est bien, mais si la sensation de fluidité ne correspond pas avec la réactivité des commandes ... Reflex aide mais des fois c'est pas assez, en plus des artefacts propre au FG en plus.  
 
A la limite qu'on considère le DLSS 2.x et évolution comme un "game changer" oui, le FG c'est plus un bonus à tester au cas par cas, il n'a pas l'universalité du DLSS 2.x qui augmente les FPS sans contre partie, parfois pas assez oui, mais au moins y a pas de soucis niveau fluidité apparente et réactivité des commandes qui vont bien ensemble.
 
Après y a des jeux peu nerveux ou que l'on part déjà de suffisant haut pour que le FG fonctionne parfaitement. Mais à nouveau c'est plus au cas par cas que pour le DLSS ou a  moins d'être en 1080p et être super tatillon.?
 


 

havoc_28 a écrit :


 
C'est avant tout la puissance brute en RT qui doit augmenter, le DLSS + le FG ne sont que des solutions pour pallier au manque de puissance à ce niveau, et le FG  impose plus de contrainte que le DLSS sans FG.


 
Ça fait beaucoup de conditionnel pour un truc à peine sorti, mais certes, ça doit encore s'améliorer :)
 
Par contre il ne faut pas non plus faire un argument pour ce qui est des artefacts et de la latence quand on prends pas le meilleur scénario possible à savoir petit fps etc...
 
Oui il y a des limitations et des pré-requis, mais ça personne ne le nie, à contrario ça semble difficile pour toi de reconnaitre l'énorme pas franchi par le FG, même si il est vrai que celui-ci est encore perfectible si on prends tout les cas de figures possibles.
 
Je prends mon exemple: J'attends le DLC de CB2077 pour commencer le jeu, et je sais que dans mon cas ça va bien booster mes fps et que je serais bien content à ce moment là (13700KF/4090), et sans les travers que tu indique, ou du moins il n'auront pas d'effets néfastes palpables sur le ressenti en dehors d'apporter plus de fluidité.
 
Ça me rappelle tellement les débats passés sur l'occlusion ambiante... Et le DLSS... C'est au tour du FG a présent on dirait ;)

Message cité 1 fois
Message édité par Valaint67130 le 23-08-2023 à 18:23:17

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11274972
tamino
master proxy 2 gates
Posté le 23-08-2023 à 18:22:51  profilanswer
 

Dites, dans les cartes Asus c'est quoi la différence entre TUF et Strix ? A part le prix je veux dire :o
 
Par ce que déjà asus c'est cher mais alors la gamme strix c'est pire que tout. C'est justifié ?

n°11274973
Valaint671​30
Cinquième soleil
Posté le 23-08-2023 à 18:25:47  profilanswer
 

tamino a écrit :

Dites, dans les cartes Asus c'est quoi la différence entre TUF et Strix ? A part le prix je veux dire :o
 
Par ce que déjà asus c'est cher mais alors la gamme strix c'est pire que tout. C'est justifié ?


 
En dehors de ce qui est évident et visible, plus gros rad, rgb et design, tu trouveras tout ici: https://zupimages.net/up/23/34/ww8i.jpg
 
https://www.overclock.net/threads/o [...] b.1800847/
 
C'est justifié quand tu veux le plus gros rad et donc la possibilité de consommer le plus possible.
 
Sinon niveau perfs non, j’ai déjà eu une 4090 STRIX qui était moins perf que ma 4090 XLR8...  
 
Sur cette gén il faut un bon tirage, mais dans les faits ça ne feras pas beaucoup plus que 5% de perfs en +, voir un poil + si tu a un bon tirage GPU ET VRAM :o

Message cité 1 fois
Message édité par Valaint67130 le 23-08-2023 à 18:28:14

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11274975
dams86
sed -i 's/windows/linux/g' c:
Posté le 23-08-2023 à 18:27:13  profilanswer
 

tamino a écrit :

Dites, dans les cartes Asus c'est quoi la différence entre TUF et Strix ? A part le prix je veux dire :o
 
Par ce que déjà asus c'est cher mais alors la gamme strix c'est pire que tout. C'est justifié ?


 
C'est plus haut de gamme. Tu peux regarder les tests pour te faire un idée, mais la réponse n'est pas super simple. C'est à toi de voir si le cout supplémentaire est justifié ou pas.
PS: J'ai une Strix 4080 depuis quelques jours et j'en suis vraiment ravis (acquis en occaz). Pour moi, le prix supplémentaire en vaut la peine en occasion (10%). Si ça avait été 30% j'aurai peut être un avis différent.

n°11274981
ddlabrague​tte
Posté le 23-08-2023 à 18:34:00  profilanswer
 

tamino a écrit :

Dites, dans les cartes Asus c'est quoi la différence entre TUF et Strix ? A part le prix je veux dire :o
 
Par ce que déjà asus c'est cher mais alors la gamme strix c'est pire que tout. C'est justifié ?


La TOUFE c'est pour les filles et la STRIX, c'est pour les garçons  [:ex-floodeur:5]  
 
A moins que ce soit l'inverse  [:skaine:1]

n°11274986
tamino
master proxy 2 gates
Posté le 23-08-2023 à 18:43:11  profilanswer
 

Oué je vois à peu prés merci. La strix me semble pas valoir la différence de prix.
 
Sinon plus généralement en terme de marque (et/ou modèle ?), ya un consensus qui se dégage sur le rapport qualité/prix dans les 4070ti/4080 ? Genre Asus je sais que c'est top qualité mais bon vlà le prix, mais quoi favoriser en second, en troisième... ?

n°11274988
ddlabrague​tte
Posté le 23-08-2023 à 18:47:02  profilanswer
 

Du coté de chez Gainward, le rapport Q/P est pas mal il me semble

n°11274991
rz1
Profil sup​primé
Posté le 23-08-2023 à 18:52:00  profilanswer
 

Je cherche un lien valide de Unreal Engine 5 Broadleaf Forest Tech Demo, les liens google drive sont HS
Si qq a ca..


---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°11274997
MSchumache​r
Posté le 23-08-2023 à 19:06:54  profilanswer
 

ddlabraguette a écrit :

La TOUFE c'est pour les filles et la STRIX, c'est pour les garçons  [:ex-floodeur:5]  
 
A moins que ce soit l'inverse  [:skaine:1]


 [:power600]

n°11274998
Valaint671​30
Cinquième soleil
Posté le 23-08-2023 à 19:08:56  profilanswer
 

ddlabraguette a écrit :


La TOUFE c'est pour les filles et la STRIX, c'est pour les garçons  [:ex-floodeur:5]  
 
A moins que ce soit l'inverse  [:skaine:1]


 
[:brutax:3]


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11274999
havoc_28
Posté le 23-08-2023 à 19:09:30  profilanswer
 

ddlabraguette a écrit :


Pas seulement  
 
Sur la plupart des jeux qui l'exploitent de manière assez lourde on observe une dépendance cpu assez importante  
A l'heure actuelle, difficile de dire si ça vient d'un manque de maturité des développeurs ou d'une limitation induite par les API actuelles ( à la manières des commandes de rendu avant Mantle/Vulkan et DX12 )  
Mais on peut en déduire que la manière dont il est implémenté devra aussi évoluer d'un point de vue software afin d'optimiser le rendement des unités dédiées  
 


 
 5 ans que Turing est sortie et les consoles nouvelles générations on est pas non plus si loin de leurs 3 eme année. Après oui faut des années pour maitriser la chose, tout comme la transition vers les API bas niveau est encore plus ou moins problématique malgré le fait qu'on y soit passé depuis des lustres.  
 
Oui y a des marges niveau développeurs / implémentation de la chose, mais c'est avant tout le matériel qui pousse la chose à mon sens.  
 

Valaint67130 a écrit :


 
Ça fait beaucoup de conditionnel pour un truc à peine sorti, mais certes, ça doit encore s'améliorer :)


 
ça va faire bientôt un an que c'est sorti le FG, y a surement des marges de progression et d'amélioration, mais pour l'instant c'est à juger sur pièce et l'avis sera à revisiter avec les évolutions / majs de la tech.  
 

Valaint67130 a écrit :


Par contre il ne faut pas non plus faire un argument pour ce qui est des artefacts et de la latence quand on prends pas le meilleur scénario possible à savoir petit fps etc...
 
Je prends mon exemple: J'attends le DLC de CB2077 pour commencer le jeu, et je sais que dans mon cas ça va bien booster mes fps et que je serais bien content à ce moment là (13700KF/4090), et sans les travers que tu indique, ou du moins il n'auront pas d'effets néfastes palpables sur le ressenti en dehors d'apporter plus de fluidité.


 
D'un coté avec une 4090, c'est un peu les meilleurs conditions possibles pour exploiter la chose hein, sauf que la génération ADA ne se limite pas aux 4090  [:arslan310]. Donc oui c'est sur que pour toi le FG c'est top mais à nouveau je le redis le FG pour l'instant n'est pas aussi universel que le DLSS 2.x qui apporte un gain de la 2060 ou la 3050 jusqu'à la 4090, alors que le FG faut certaines conditions pour pleinement l'exploiter (sans les inconvénients actuels inhérents à la chose).  
 

Valaint67130 a écrit :

Ça me rappelle tellement les débats passés sur l'occlusion ambiante... Et le DLSS... C'est au tour du FG a présent on dirait ;)


 
Mais les tech sont critiquables, le DLSS 1.0 manquait d'aboutissement , mais t'avais à l'époque des gens aussi qui défendaient ça comme un truc quasi parfait. Tout comme le DLSS 1.0 a sa sortie le FG est perfectible et n'est pas exempt de défauts.
Si le FG dans le futur corrige les soucis de latences, surconsommation niveau VRAM (bas oui avec la 4090 0 soucis :o à ce niveau encore une fois  :sarcastic: )  et quelques petits artefacts quand on part de trop bas, là oui je qualifierai le FG de "game changer" comme l'est actuellement le DLSS 2.x mais en l'état actuel non.

Message cité 2 fois
Message édité par havoc_28 le 23-08-2023 à 19:15:41
n°11275000
Valaint671​30
Cinquième soleil
Posté le 23-08-2023 à 19:11:14  profilanswer
 

tamino a écrit :

Oué je vois à peu prés merci. La strix me semble pas valoir la différence de prix.
 
Sinon plus généralement en terme de marque (et/ou modèle ?), ya un consensus qui se dégage sur le rapport qualité/prix dans les 4070ti/4080 ? Genre Asus je sais que c'est top qualité mais bon vlà le prix, mais quoi favoriser en second, en troisième... ?


 
Niveau perfs elles se valent toutes ou presque donc go la moins chère sauf VENTUS :o
 
Et des marques qui garantissent 3 ans minimum c'est mieux
 


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11275001
tamino
master proxy 2 gates
Posté le 23-08-2023 à 19:19:48  profilanswer
 

ddlabraguette a écrit :

Du coté de chez Gainward, le rapport Q/P est pas mal il me semble


 
Je note :jap:  
 

Valaint67130 a écrit :


 
Niveau perfs elles se valent toutes ou presque donc go la moins chère sauf VENTUS :o
 
Et des marques qui garantissent 3 ans minimum c'est mieux
 


 
 :jap:  
 
J'ai une 1080 de chez Zotac actuellement et depuis un long moment, j'en suis content. De plus je crois qu'ils garantissent plus de 5 ans avec un enregistrement (?).
 
C'est une marque digne d'hfr ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  603  604  605  ..  803  804  805  806  807  808

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)