Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1953 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  490  491  492  ..  804  805  806  807  808  809
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11233027
daaadou
o O ° O o Meggy le chat o O °
Posté le 22-03-2023 à 08:06:15  profilanswer
 

Reprise du message précédent :
donc le bon plan, c'est la 4080

mood
Publicité
Posté le 22-03-2023 à 08:06:15  profilanswer
 

n°11233028
jumbaii
Posté le 22-03-2023 à 08:13:26  profilanswer
 

Si tu cherches du RT oui, sinon je pense que la carte la meilleure actuellement en terme de prix perf reste la XTX. A moins que les performances de la 4090 se débloquent à un moment donné car si l'on fait une règle de 3, au regard du graph, elle devrait afficher 180+FPS en moyenne en non 144. Il y a peut-être un bottleneck CPU quelque part, ou comme on l'a dit précédemment, un soucis de manque de cache L2 (on sera fixé lorsqu'une carte full AD102 sortira).

 

A toutes fins utiles, voici ce que devrait sortir la 4090 si l'on suit les performances de ses petites soeurs (pas taper) :

 

https://rehost.diberie.com/Picture/Get/t/157950


Message édité par jumbaii le 22-03-2023 à 08:23:33

---------------
GT : jumbaii7
n°11233035
jln2
Posté le 22-03-2023 à 08:37:24  profilanswer
 

Je regarde le prix des 4070Ti/4080 là, la 4070Ti se trouve pratiquement au prix d'une 4080 à 10-15% près, du coup, c'est quoi l'intérêt de la 4070Ti ?
Fait chier, en geek que je suis, je suis passer de l'étape du "j'ai ceux qu'il faut" à "je revend ma RX 6950XT pour me prendre une 4070Ti/4080" [:siluro:4]

Message cité 1 fois
Message édité par jln2 le 22-03-2023 à 08:38:10
n°11233036
Valaint671​30
Cinquième soleil
Posté le 22-03-2023 à 08:39:03  profilanswer
 

On veut les 5000 !  
 
Pour faire baisser les 4000 :D :o


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11233038
bonk1
Elle te plait ma soeur ?
Posté le 22-03-2023 à 08:42:26  profilanswer
 

jln2 a écrit :

Je regarde le prix des 4070Ti/4080 là, la 4070Ti se trouve pratiquement au prix d'une 4080 à 10-15% près, du coup, c'est quoi l'intérêt de la 4070Ti ?
Fait chier, en geek que je suis, je suis passer de l'étape du "j'ai ceux qu'il faut" à "je revend ma RX 6950XT pour me prendre une 4070Ti/4080" [:siluro:4]


 
T'inciter à prendre un modèle plus cher, pas beaucoup plus onéreux à fabriquer mais avec bien plus de marge
 
La 4070 Ti n'a de sens que pour un besoin d'achat d'une carte neuve si une 3xxx claque, ou si on a sauté la GEN 3xxx
 
Vu les gaps de perfs, mieux vaut attendre 2 ans avec une 3080 ou une 6900xt  que les perfs de la 4xxx devienne du moyen de gamme accessible avec la prochaine GEN
A noter : avec la baisse des prix chez AMD, les 7900xt à moins de 900€ sont à fortement considérer...


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11233044
It_Connexi​on
Posté le 22-03-2023 à 08:50:11  profilanswer
 

bonk1 a écrit :


 
 
Tout ça pour ça...
 
C'est le bitcoin du Gaming : bouffer un max de jus et de puissance du GPU pour... rien
C'est tellement artificiel que c'en est ridicule. Le plus beau et cohérent c'est avec rastérisation... hallucinant...
Si nVidia ré-inventait ROBOCOP en 2023, ce serait un miroir déformant...
 
https://www.tomshardware.fr/content [...] zation.png


 
Mais clair  :D  
 
A croire qu'en rastérisation on n'avait pas de reflets  :lol:  
 
Pour le moment le RT c'est juste quelques ajouts graphiques, quand le RT sera réellement exploité même les 4090 seront à la rue je pense


---------------
Galerie Photo Personnelle
n°11233057
bonk1
Elle te plait ma soeur ?
Posté le 22-03-2023 à 09:20:48  profilanswer
 

It_Connexion a écrit :


 
Mais clair  :D  
 
A croire qu'en rastérisation on n'avait pas de reflets :lol:  
 
Pour le moment le RT c'est juste quelques ajouts graphiques, quand le RT sera réellement exploité même les 4090 seront à la rue je pense


 
C'est tout à fait ça... d'ailleurs leur comapraison fait rigoler car on passe du "mat" en rastérisation (casque, plastron) au brillant en RT.
 
Or le RT gère les reflets, pas le caractère mat ou brillant... mais quand on veut vendre une techno on choisit un test bien bidon où l'on fait gérer la brillance au RT pour donner cet effet mat "sans RT".

Message cité 2 fois
Message édité par bonk1 le 22-03-2023 à 09:23:31

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11233061
chrisleurn
Hardcore Will Never Die !
Posté le 22-03-2023 à 09:24:27  profilanswer
 

bonk1 a écrit :


 
C'est tout à fait ça... d'ailleurs leur comapraison fait rigoler car on passe du "mat" en rastérisation (casque, plastron) au brillant en RT.
 
Or le RT gère les reflets, pas le caractère mat ou brillant... mais quand on veut vendre une techno on choisit un teste bien bidon où l'on fait gérer la brillance au RT pour donner cet effet mat.


C'est le marketing et rien d'autre  [:michel_cymerde:7]

n°11233064
SuperLobo
Vivement les vacances
Posté le 22-03-2023 à 09:26:49  profilanswer
 

bonk1 a écrit :


 
 
Tout ça pour ça...
 
C'est le bitcoin du Gaming : bouffer un max de jus et de puissance du GPU pour... rien
C'est tellement artificiel que c'en est ridicule. Le plus beau et cohérent c'est avec rastérisation... hallucinant...
Si nVidia ré-inventait ROBOCOP en 2023, ce serait un miroir déformant...
 
https://www.tomshardware.fr/content [...] zation.png


Je n'ai pas compris ton message. Qu'est ce qui est artificiel ? Pourquoi dis tu que c'est "cohérent", au sujet de la rasterisation ?

n°11233067
Neji Hyuga
:grut:
Posté le 22-03-2023 à 09:29:49  profilanswer
 

bonk1 a écrit :


 
C'est tout à fait ça... d'ailleurs leur comapraison fait rigoler car on passe du "mat" en rastérisation (casque, plastron) au brillant en RT.
 
Or le RT gère les reflets, pas le caractère mat ou brillant... mais quand on veut vendre une techno on choisit un test bien bidon où l'on fait gérer la brillance au RT pour donner cet effet mat "sans RT".


 
C'est plutôt l'inverse : on désactive le plus d'algorithmes d'éclairage et de gestion des ombres possible sur la scène rastérisée pour la comparaison.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
mood
Publicité
Posté le 22-03-2023 à 09:29:49  profilanswer
 

n°11233081
bonk1
Elle te plait ma soeur ?
Posté le 22-03-2023 à 10:04:50  profilanswer
 

SuperLobo a écrit :


Je n'ai pas compris ton message. Qu'est ce qui est artificiel ? Pourquoi dis tu que c'est "cohérent", au sujet de la rasterisation ?


 
Sauf un jeu "onirique" ou les devs se font plaisir dans une monde imaginaire, on s'attend à ce qu'une image reflète la vraie vie
 
Ce que je voulais dire c'est qu'ils exagèrent tellement pour mettre en avant le RT qu'on se retrouve avec des jeux en rastérisation qui font plus naturels.
 
Par exemple cette image est une caricature... et je ne parle pas de reflets dans un lac ou sur la mer ou l'on croirait un miroir... ce que je ne jamais vu IRL sauf sur des photos !


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11233088
btbw03
Ailurophile plutôt qu'Humain
Posté le 22-03-2023 à 10:18:00  profilanswer
 

bonk1 a écrit :


 
Si demain un gars invente un cordon DP qui double artificiellement les images envoyée à l'écran tout le monde criera au génie d'avoir fait x2 sur les perfs... il aura inventé le frame générator rétro-compatible.


 
C est quoi cette haine du dlss et frame generator ?
 
Les perfs dans l avenir viendront clairement de l’IA …

Message cité 3 fois
Message édité par btbw03 le 22-03-2023 à 10:18:55
n°11233089
- gab
Posté le 22-03-2023 à 10:22:28  profilanswer
 

Ou du cloud.
 
Ah non, ça c'était l'attrape-gogo d'il y a dix ans :o


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°11233091
btbw03
Ailurophile plutôt qu'Humain
Posté le 22-03-2023 à 10:27:23  profilanswer
 

C est bizarre le CA d aws dit autre chose :o

n°11233092
bonk1
Elle te plait ma soeur ?
Posté le 22-03-2023 à 10:31:02  profilanswer
 

btbw03 a écrit :


 
C est quoi cette haine du dlss et frame generator ?
 
Les perfs dans l avenir viendront clairement de l’IA …


 
Aucune haine, le DLSS c'est très bien. Mons seul regret c'est que la version 3 semble limitée aux 4xxx pour avoir un argument marketing... et dans cette voie les RTX 5xxx auront le DLSS 4... que les RTX 4xxx ne pourront pas utiliser. Je range ça au même niveau que le fameux bridage hardware LHR des nvidia... autorisé par les drivers quand la hype du BTC est retombée.
 
Pour le frame generator c'est bidon, pas du vrai IA. Mieux vaut augmenter la puissance de calcul du GPU que prendre une béquille IA en dédiant une part du processeur graphique pour faire des frames artificielles.
Si on va au bout du raisonnement, autant demain ne plus calculer que 20 images par seconde par le GPU et en faire générer 220 par "IA" / FG, on aurait un beau ratio 10/90 qui consommerait bien moins de courant pour un résultat bien plus fluide...


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11233098
btbw03
Ailurophile plutôt qu'Humain
Posté le 22-03-2023 à 10:53:02  profilanswer
 

Je suis preneur des sources du « pas du vrai IA » :D

Message cité 2 fois
Message édité par btbw03 le 22-03-2023 à 10:53:11
n°11233109
uNReaLx77
üNReaL
Posté le 22-03-2023 à 11:41:00  profilanswer
 


Comprend rien a tout ça....ia frame generator machin...moi tant que c'est jolie et fluide... Ils peuvent générer des images par leur trou d' balle que ça m'irait très bien....

n°11233112
Valaint671​30
Cinquième soleil
Posté le 22-03-2023 à 11:42:38  profilanswer
 

A voir l'input lag quand même


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11233114
orion0101
Tuono V4 Factory depuis 2017!
Posté le 22-03-2023 à 11:44:35  profilanswer
 

Reçu ce jour la 4090 commandée Lundi chez LDLC.
Je vais chez mon pote ce soir pour l'installation, on va voir ce que madame a dans le ventre :D


---------------
"Peu importe s'il dit la vérité, ce n'est pas une défense valable" "Il faut interpréter le tweet en se mettant au niveau, à la portée du Français et de l'électeur moyen"
n°11233115
SuperLobo
Vivement les vacances
Posté le 22-03-2023 à 11:48:42  profilanswer
 

bonk1 a écrit :


 
Sauf un jeu "onirique" ou les devs se font plaisir dans une monde imaginaire, on s'attend à ce qu'une image reflète la vraie vie
 
Ce que je voulais dire c'est qu'ils exagèrent tellement pour mettre en avant le RT qu'on se retrouve avec des jeux en rastérisation qui font plus naturels.
 
Par exemple cette image est une caricature... et je ne parle pas de reflets dans un lac ou sur la mer ou l'on croirait un miroir... ce que je ne jamais vu IRL sauf sur des photos !


Je comprends ce que tu veux dire.  :jap:  
 

n°11233119
orion0101
Tuono V4 Factory depuis 2017!
Posté le 22-03-2023 à 11:53:59  profilanswer
 

orion0101 a écrit :

Reçu ce jour la 4090 commandée Lundi chez LDLC.
Je vais chez mon pote ce soir pour l'installation, on va voir ce que madame a dans le ventre :D


 
D'ailleurs je m'auto-quote :o
 
Je dois attendre environ combien en boost sur ce genre de carte?
Et en overclocking GPU, mémoire, y'a du potentiel :D ?


---------------
"Peu importe s'il dit la vérité, ce n'est pas une défense valable" "Il faut interpréter le tweet en se mettant au niveau, à la portée du Français et de l'électeur moyen"
n°11233122
uNReaLx77
üNReaL
Posté le 22-03-2023 à 11:58:20  profilanswer
 

Valaint67130 a écrit :

A voir l'input lag quand même


Si ça coule bien y a pas de raison :o

n°11233123
olioops
Si jeune et déjà mabuse.
Posté le 22-03-2023 à 12:02:49  profilanswer
 

uNReaLx77 a écrit :


Comprend rien a tout ça....ia frame generator machin...moi tant que c'est jolie et fluide... Ils peuvent générer des images par leur trou d' balle que ça m'irait très bien....


Ils devraient, ça serait raccord avec les haters qui se plaignent sans cesse ! des images faites par des trou du cul pour des trou du cul  :o


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11233147
jumbaii
Posté le 22-03-2023 à 13:17:24  profilanswer
 

orion0101 a écrit :


 
D'ailleurs je m'auto-quote :o
 
Je dois attendre environ combien en boost sur ce genre de carte?
Et en overclocking GPU, mémoire, y'a du potentiel :D ?


 
Quel modèle ? Dis toi que l’Oc sur la 4090 n’apporte pas grand chose, voir 3 pages en arrière la courbe de derbauer


---------------
GT : jumbaii7
n°11233150
uNReaLx77
üNReaL
Posté le 22-03-2023 à 13:21:37  profilanswer
 

Modèle oc ou non, le boost par défaut est aléatoire, une non oc peut monter plus haut qu'une oc stock....  
 
Leur truc de fréquence boost ne sert toujours a rien.

Message cité 1 fois
Message édité par uNReaLx77 le 22-03-2023 à 13:26:27
n°11233152
bonk1
Elle te plait ma soeur ?
Posté le 22-03-2023 à 13:27:09  profilanswer
 

btbw03 a écrit :

Je suis preneur des sources du « pas du vrai IA » :D


 
Idem, preneur des sources comme quoi c'est de l'IA
 
Pour les testeurs US que j'ai vu aborder le sujet, ils parlent plus d'intepolation. Cad plus un mécanisme simili hardware réalisé par du software, mais pas basé sur des algos de machine learning.


Message édité par bonk1 le 22-03-2023 à 13:27:32

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11233158
LeMakisar
Posté le 22-03-2023 à 14:04:56  profilanswer
 

daaadou a écrit :

donc le bon plan, c'est la 4080


Qui l'eut cru ? :D
Enfin disons peut-être, le moins mauvais plan?


---------------
Feedback
n°11233163
cedric39
Posté le 22-03-2023 à 14:15:15  profilanswer
 

orion0101 a écrit :


 
D'ailleurs je m'auto-quote :o
 
Je dois attendre environ combien en boost sur ce genre de carte?
Et en overclocking GPU, mémoire, y'a du potentiel :D ?


 
Undevolt plutôt :o
 
J'ai utilisé les même reglages que ce mec sur ma RTX 4090 MSI Gaming X Trio :
 
https://www.youtube.com/watch?v=O8U [...] nyzReviews  ( 2min50 )  
 
Et c'est parfait depuis octobre jamais eu de crash ou je ne sais quoi  ;)  Même performance mais environ 80Watts de moins et 5-6 degrés de moins, parfait selon moi, bien mieux qu'un OC inutile sur une 4090  :hello:

Message cité 1 fois
Message édité par cedric39 le 22-03-2023 à 14:15:33

---------------
''9800X3D // RTX 4090 // 32Go de RAM 6000Mhz CL30 // NVME : Samsung 980 PRO 1To //be quiet! Silent Base 802 // AIO NZXT X62 // Samsung Odyssey Néo G8
n°11233167
havoc_28
Posté le 22-03-2023 à 14:26:08  profilanswer
 

jumbaii a écrit :


 
J'ai positionné la gamme pour voir ce que ça donne... Je me repète, mais ça manque de CUDA à partir de la 4080 et il y a un soucis avec la 4090 (elle sous-performe)
 
En gros  
4070Ti > 3090Ti mais en 4K elle est en dessous...
 
Donc quand on voit  
4070 = 3080
4060Ti = 3070Ti
4060 = 3070
 
Ca laisse imaginer en réel 4070<3080, ect. Mais je peux me tromper.
 
Après la génération Ubuesque, la génération CUDAvare
 
https://rehost.diberie.com/Picture/Get/t/157947


 
Pour la 4070 TI, en haute résolution c'est pas le manque de CUDA, elle compense par une fréquence en nette hausse vs la 3090 et aussi plus y a d'unités moins le gain est proportionnel vu qui a de plus en plus d'éléments pouvant limiter les perfs au sein du GPU etc (ça devient difficile l'alimenter au mieux toutes ces unités), bref coté 4070 Ti en haute résolution c'est avant tout un manque de bande passante mémoire, le bus 192 bits n'est pas compensée par la très petite augmentation de la GDDR6X tout comme le cache même si en augmentation n'est pas non plus suffisant, avec un bus mémoire 256 bits et 16 go de VRAM par exemple, la 4070 Ti aurait moins souffert en 4K, mais ça l'aurait d'avantage rapproché de la 4080 ...
 
La 4070 devrait être dans les aux de la 3080 oui voir un poil plus rapide, elle conserve le même bus 192 bits que la 4070 Ti, le TDP en baisse devrait pas trop trop impacter les perf au final.  
 
Par contre la castration pose question sur la 4060 Ti et surtout la 4060, cette dernière à moins que l'AD107 monte particulièrement haut en fréquence aura beaucoup de mal à venir au niveau d'une 3070, le nombre d'unité est vraiment trop réduit, et l'AD107 n'a rien à faire aussi haut de la gamme, c'est une puce pour la classe 4x50.
 

btbw03 a écrit :


 
C est quoi cette haine du dlss et frame generator ?
 
Les perfs dans l avenir viendront clairement de l’IA …


 
Le DLSS à part quelques artefacts visuels n'est pas un problème en soit, c'est à chacun de tester en fonction de sa sensibilité sur les divers titres.
Le Frame Generation c'est déjà un peu plus problématique, si tu pars de trop bas tu te retrouves avec un Input Lag élevé comparé à la fluidité apparente de l'image ce qui peut être très désagréable en fonction des jeux (sur un jeu "lent" type flight simulator pas de soucis, mais sur quelque chose de plus nerveux ... , à nouveau c'est a testé en fonction de la sensibilité de chacun et des jeux, mais pour moi c'est plus une solution de niche, optionnelle pour le DLSS 2.x, moins versatile que celui ci, sur une 4090 vu qu'en général tu pars d'assez haut ... pas de PB en théorie, mais plus tu descendras dans la gamme  ...

Message cité 1 fois
Message édité par havoc_28 le 22-03-2023 à 14:40:53
n°11233169
Scrabble
Posté le 22-03-2023 à 14:33:06  profilanswer
 

btbw03 a écrit :


 
C est quoi cette haine du dlss et frame generator ?
 
Les perfs dans l avenir viendront clairement de l’IA …


J'ai pas de haine, mais le DLSS 2, je vois tout de suite quand il est en action, et j'aime pas ça du tout
Je préfère jouer à 40 FPS sans qu'à 80 FPS avec

n°11233181
n0zkl3r
Posté le 22-03-2023 à 15:18:13  profilanswer
 

Mais on est d'accord que le DLSS 3 c'est du DLSS 2.x + frame generation + reflex ?
 
Du coup, quand un jeu dispose du DLSS 3, les RTX 2000/3000 peuvent activer le DLSS 2.x + reflex, mais pas la 3e option frame generation?

Message cité 1 fois
Message édité par n0zkl3r le 22-03-2023 à 15:18:39
n°11233183
ddlabrague​tte
Posté le 22-03-2023 à 15:25:42  profilanswer
 

havoc_28 a écrit :


 
Pour la 4070 TI, en haute résolution c'est pas le manque de CUDA, elle compense par une fréquence en nette hausse vs la 3090 et aussi plus y a d'unités moins le gain est proportionnel vu qui a de plus en plus d'éléments pouvant limiter les perfs au sein du GPU etc (ça devient difficile l'alimenter au mieux toutes ces unités), bref coté 4070 Ti en haute résolution c'est avant tout un manque de bande passante mémoire, le bus 192 bits n'est pas compensée par la très petite augmentation de la GDDR6X tout comme le cache même si en augmentation n'est pas non plus suffisant, avec un bus mémoire 256 bits et 16 go de VRAM par exemple, la 4070 Ti aurait moins souffert en 4K, mais ça l'aurait d'avantage rapproché de la 4080 ...
 
La 4070 devrait être dans les aux de la 3080 oui voir un poil plus rapide, elle conserve le même bus 192 bits que la 4070 Ti, le TDP en baisse devrait pas trop trop impacter les perf au final.  
 
Par contre la castration pose question sur la 4060 Ti et surtout la 4060, cette dernière à moins que l'AD107 monte particulièrement haut en fréquence aura beaucoup de mal à venir au niveau d'une 3070, le nombre d'unité est vraiment trop réduit, et l'AD107 n'a rien à faire aussi haut de la gamme, c'est une puce pour la classe 4x50.
 


 
C'est un des éléments, mais  le plus limitant me parait être le nombre de ROPS  
Comparé à la 3070ti, on passe de 96 à 80 ROPS sur le 4070.  
Alors oui, cette coupe est compensée par l'augmentation de la fréquence mais au final on se retrouve avec plus ou moins le même débit de pixel  
 
Pour résumer, la 4070ti dispose de la même puissance de calcul qu'une 3090ti à la louche, mais elle n'est pas capable de cracher plus de pixel qu'une 3070ti  [:kyjja:1]  
 

n°11233188
havoc_28
Posté le 22-03-2023 à 15:35:45  profilanswer
 

n0zkl3r a écrit :

Mais on est d'accord que le DLSS 3 c'est du DLSS 2.x + frame generation + reflex ?
 
Du coup, quand un jeu dispose du DLSS 3, les RTX 2000/3000 peuvent activer le DLSS 2.x + reflex, mais pas la 3e option frame generation?


 
Oui.
 

ddlabraguette a écrit :

Pour résumer, la 4070ti dispose de la même puissance de calcul qu'une 3090ti à la louche, mais elle n'est pas capable de cracher plus de pixel qu'une 3070ti  [:kyjja:1]


 
On va rappeler le nombre de ROPS de tous ce petite monde :D.  
 
4070 Ti : 96 ROPS, : 208.8 GPixel/s (en théorie)
3090     : 110 ROPS : 189.8 GPixel/s
3090 TI : 112 ROPS : 208.3 GPixel/s
3070 Ti  : 96 ROPS  : 169.9 GPixel/s
 
Donc non la fréquence compense largement le petit déficit en ROPS (on est au niveau de la 3090 Ti) , t'as pas confondu avec les 4090 niveau nombre de ROPS ?

Message cité 1 fois
Message édité par havoc_28 le 22-03-2023 à 15:40:00
n°11233193
ddlabrague​tte
Posté le 22-03-2023 à 15:42:40  profilanswer
 

C'est 80 la 4070ti, mais t'as raison
La fréquence compense bien mieux que je le pensais. Tout du moins si on se base sur la théorie

Message cité 1 fois
Message édité par ddlabraguette le 22-03-2023 à 15:43:47
n°11233199
olioops
Si jeune et déjà mabuse.
Posté le 22-03-2023 à 15:44:10  profilanswer
 

Scrabble a écrit :


J'ai pas de haine, mais le DLSS 2, je vois tout de suite quand il est en action, et j'aime pas ça du tout
Je préfère jouer à 40 FPS sans qu'à 80 FPS avec


Ha bon !  [:sleepv] sur quel jeu précisément ?


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11233206
thepilot64
Posté le 22-03-2023 à 16:00:36  profilanswer
 

c'est ce genre de com qui vont me faire hésiter à prendre une 4090 :o
 

n°11233207
havoc_28
Posté le 22-03-2023 à 16:02:03  profilanswer
 

ddlabraguette a écrit :

C'est 80 la 4070ti, mais t'as raison
La fréquence compense bien mieux que je le pensais. Tout du moins si on se base sur la théorie


 
80 ROPS pardon oui, mais la fréquence compense bien la chose (toujours en théorie). Donc je dirais à nouveau que c'est avant tout donc le manque de BP qui fait décrocher un peu la 4070 Ti en 4K. Tout ça doit être voulu par Nvidia pour segmenter au mieux ses gammes :o.


Message édité par havoc_28 le 22-03-2023 à 16:04:54
n°11233208
bonk1
Elle te plait ma soeur ?
Posté le 22-03-2023 à 16:03:06  profilanswer
 


 

havoc_28 a écrit :


 
On va rappeler le nombre de ROPS de tous ce petite monde :D.  
 
4070 Ti : 96 ROPS, : 208.8 GPixel/s (en théorie)
3090     : 110 ROPS : 189.8 GPixel/s
3090 TI : 112 ROPS : 208.3 GPixel/s
3070 Ti  : 96 ROPS  : 169.9 GPixel/s
 
Donc non la fréquence compense largement le petit déficit en ROPS (on est au niveau de la 3090 Ti) , t'as pas confondu avec les 4090 niveau nombre de ROPS ?


 
Pour être précis il manque la quantité de mémoire, sa fréquence et surtout son archi (256 bits, etc...)
 
4070 Ti : 192-bit
3090 :  384-bit
 
Certains jeux comme Horizon down zero sont très sensibles à cela, et l'écart se creuse entre 3090 et 4070 Ti (et encore plus sur le 1% low)... en faveur de la 3090

Message cité 1 fois
Message édité par bonk1 le 22-03-2023 à 16:05:52

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11233214
havoc_28
Posté le 22-03-2023 à 16:10:57  profilanswer
 

bonk1 a écrit :


 
Pour être précis il manque la quantité de mémoire, sa fréquence et surtout son archi (256 bits, etc...)
 
4070 Ti : 192-bit
3090 :  384-bit
 
Certains jeux comme Horizon down zero sont très sensibles à cela, et l'écart se creuse entre 3090 et 4070 Ti (et encore plus sur le 1% low)... en faveur de la 3090


 
On en parle un peu plus haut du manque de bande passante justement ^^ (genre si elle avait un bus 256 bits ça aurait été moins problématique ou encore la vitesse de la GDDR6X et de la taille des caches), la quantité de VRAM c'est encore une autre problématique.

Message cité 1 fois
Message édité par havoc_28 le 22-03-2023 à 16:15:23
n°11233219
olioops
Si jeune et déjà mabuse.
Posté le 22-03-2023 à 16:19:04  profilanswer
 

thepilot64 a écrit :

c'est ce genre de com qui vont me faire hésiter à prendre une 4090 :o
 


Je te rassure, le FSR d'AMD oui c'est bien pourri. Mais le DLSS c'est excellent [:b-rabbit] fait pas gaffe à la production d'usine à trolls  :o  :whistle:


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11233220
havoc_28
Posté le 22-03-2023 à 16:19:12  profilanswer
 

thepilot64 a écrit :

c'est ce genre de com qui vont me faire hésiter à prendre une 4090 :o


 
Tu prends avant tout une RTX 4090 pour sa puissance brute, même si l'écosystème Nvidia est un gros plus, le DLSS + Frame Generation sont à ta discrétion, tu testes dans tes jeux et tu les actives ou non en fonction de tes préférences, il n'y a que toi qui est juge au final.


Message édité par havoc_28 le 22-03-2023 à 16:19:47
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  490  491  492  ..  804  805  806  807  808  809

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)