Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3231 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  896  897  898  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10870880
Durandd
Posté le 03-11-2020 à 20:46:50  profilanswer
 

Reprise du message précédent :
4k oui. Donc faut viser gros et puissant sinon je finis par jouer avec des diapositives...

mood
Publicité
Posté le 03-11-2020 à 20:46:50  profilanswer
 

n°10870882
nikoft
Posté le 03-11-2020 à 20:48:45  profilanswer
 

myzt a écrit :


C'est abusé, c'est comme si on nous vendait un iPhone surpuissant mais avec 64 go de stockage  [:midnaite:3]
Je go AMD sur la 6800 par mesure de précaution et principalement pour la vram
Nvidia a voulu jouer les rapiats  [:shape:5]


Ne pas oublier que c'est 16go de gddr6 vs 10go de gddr6x, ils ont quand même besoin de 6 go de plus et le mode turbo nécessitant un proc AMD dernière gen pour arriver un poil de UC devant NVIDIA, et ce, uniquement en rasterisation...donc bon

n°10870885
nikoft
Posté le 03-11-2020 à 20:51:54  profilanswer
 

astrojojo a écrit :

Beaucoup d'entre vous sont en 4k pour craindre le manque de vram dans un futur proche ?
 
Sinon les derniers bench postés sont toujours avec un zen3 et SMA activé, ça serait pas mal d'avoir un comparatif sans.


 
3080 en QHD pour ma part  

n°10870888
dams86
sed -i 's/windows/linux/g' c:
Posté le 03-11-2020 à 20:53:21  profilanswer
 

nikoft a écrit :


Ne pas oublier que c'est 16go de gddr6 vs 10go de gddr6x, ils ont quand même besoin de 6 go de plus et le mode turbo nécessitant un proc AMD dernière gen pour arriver un poil de UC devant NVIDIA, et ce, uniquement en rasterisation...donc bon


 
Et Nvidia à besoin de +14GB de ram pour faire +8% avec la 3090  :sarcastic:

n°10870890
lecas
Posté le 03-11-2020 à 20:55:21  profilanswer
 

astrojojo a écrit :

Beaucoup d'entre vous sont en 4k pour craindre le manque de vram dans un futur proche ?
 
Sinon les derniers bench postés sont toujours avec un zen3 et SMA activé, ça serait pas mal d'avoir un comparatif sans.


 
J'ai deux écrans 4k, donc oui mettre 800€ dans une carte avec 10 Go ça me reste en travers.

n°10870894
sardhaukar
Posté le 03-11-2020 à 20:56:13  profilanswer
 

nikoft a écrit :


Ne pas oublier que c'est 16go de gddr6 vs 10go de gddr6x, ils ont quand même besoin de 6 go de plus et le mode turbo nécessitant un proc AMD dernière gen pour arriver un poil de UC devant NVIDIA, et ce, uniquement en rasterisation...donc bon


On mélange tout là rien à voir. L'AMD en a sous le capot elle rivalise maintenant, si elle n'avait que 8Go ce serait pareil. C'est plus tard quand le besoin de RAM se fera sentir qu'une 3080 sera vraiment larguée.  [:joce]
 
Elle est comparativement encore plus devant en QHD qu'en 4K, je vois pas de raison de se priver.

Message cité 1 fois
Message édité par sardhaukar le 03-11-2020 à 20:57:32
n°10870902
btbw03
Ailurophile plutôt qu'Humain
Posté le 03-11-2020 à 21:07:51  profilanswer
 


 
ça manque de câble management  [:max evans]

n°10870903
btbw03
Ailurophile plutôt qu'Humain
Posté le 03-11-2020 à 21:08:52  profilanswer
 

vous avez tous pris des écrans 4k à 900e pour avoir plus de 60hz ?!

n°10870904
zeitoon
http://nanteshardware.1fr1.net
Posté le 03-11-2020 à 21:09:50  profilanswer
 

Merci Nvidia de me permettre d'attendre l'arrivée de la 6800XT !
 
Je pense que la 3080 sera overkill


---------------
https://nanteshardware.1fr1.net/
n°10870912
Durandd
Posté le 03-11-2020 à 21:15:17  profilanswer
 

btbw03 a écrit :

vous avez tous pris des écrans 4k à 900e pour avoir plus de 60hz ?!


Ma config totale c’est 6k... t’es sur hfr quand meme.

mood
Publicité
Posté le 03-11-2020 à 21:15:17  profilanswer
 

n°10870920
tomcat8390
BF1
Posté le 03-11-2020 à 21:21:31  profilanswer
 

btbw03 a écrit :

vous avez tous pris des écrans 4k à 900e pour avoir plus de 60hz ?!


 
J'ai le G9 en ligne de mire  [:cyd125:5]

n°10870923
chaced
Posté le 03-11-2020 à 21:24:02  profilanswer
 

astrojojo a écrit :

Beaucoup d'entre vous sont en 4k pour craindre le manque de vram dans un futur proche ?

 

Sinon les derniers bench postés sont toujours avec un zen3 et SMA activé, ça serait pas mal d'avoir un comparatif sans.

 

Quand je vois qu'un jeu d'aujourd'hui me bouffe 7go de vram en 2k, les futurs jeux vont prendre combien ?


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°10870926
myzt
Posté le 03-11-2020 à 21:24:37  profilanswer
 

btbw03 a écrit :

vous avez tous pris des écrans 4k à 900e pour avoir plus de 60hz ?!


Ça dépend de la taille de l'écran, le ratio (16:9 ou 21:9 voire plus ultrawide), le recul que tu peux avoir (profondeur de ton bureau), le type de jeux que tu joues (jeux solo, en 60 hz, ça me dérange pas du tout alors que j'ai eu des écrans 120/144 hz depuis que c'est sorti), le type de techno de dalle (IPS, TN, VA)
Le meilleur compromis c'est de l'IPS, 1440p, 27 pouces, 144 hz avec une techno de VRR (G-Sync/Freesync)
 


---------------
Topic Unique | Matos PC Joueurs PC
n°10870934
nikoft
Posté le 03-11-2020 à 21:28:49  profilanswer
 

dams86 a écrit :


 
Et Nvidia à besoin de +14GB de ram pour faire +8% avec la 3090  :sarcastic:


 
La 3090 est clairement pas a rentrer ligne de compte, c'est pas une carte destiné au gaming au jour d'aujourd'hui

n°10870938
nikoft
Posté le 03-11-2020 à 21:31:18  profilanswer
 

sardhaukar a écrit :


On mélange tout là rien à voir. L'AMD en a sous le capot elle rivalise maintenant, si elle n'avait que 8Go ce serait pareil. C'est plus tard quand le besoin de RAM se fera sentir qu'une 3080 sera vraiment larguée.  [:joce]
 
Elle est comparativement encore plus devant en QHD qu'en 4K, je vois pas de raison de se priver.


 
Et pourtant il y en a, mais j'ai la flemme de relancer un débat qui s'est déjà tenu a de nombreuses reprise, le seul avantage que j'y vois aujourd'hui c'est l'éventuel, peut être, probable bénéfice d'avoir à nouveau une concurrence pour le consommateur final, je suis passer chez les rouge pour le proc récemment, je risque de prendre un 5800x day one, mais la CG je conserve la 3080, j'ai clairement 0 hype pour passer le cap

n°10870947
Pipould's
Posté le 03-11-2020 à 21:45:02  profilanswer
 
n°10870948
the_fennec
f3nn3cUs z3rd4
Posté le 03-11-2020 à 21:45:05  profilanswer
 

Rayaki a écrit :


 
j'ai pas envie de cliquer dessus pour lui filer +1 vue mais j'imagine que c'est encore ce TORCHON de comparatifs PC Mark ?...


Tout a fait!
Tu peux cliquer, Youtube compte une vue que si tu regardes plus de 30s.


---------------
Faudra que je teste un jour :o
n°10870949
btbw03
Ailurophile plutôt qu'Humain
Posté le 03-11-2020 à 21:46:54  profilanswer
 

tomcat8390 a écrit :


 
J'ai le G9 en ligne de mire  [:cyd125:5]


 
C est pas du 4K :o

n°10870964
nono2005
Posté le 03-11-2020 à 22:02:11  profilanswer
 

globule a écrit :

https://www.tomshardware.fr/les-10- [...] u-godfall/
 
depuis le début je le dis que le coup des 10go de vram j'adhère pas


 
c'est la raison pour laquelle je vais surement prendre une 6800XT

n°10870970
olioops
Si jeune et déjà mabuse.
Posté le 03-11-2020 à 22:09:09  profilanswer
 

chaced a écrit :

 

Quand je vois qu'un jeu d'aujourd'hui me bouffe 7go de vram en 2k, les futurs jeux vont prendre combien ?


Non mais OÙ le vois-tu ? quel jeu, quel logiciel l'indique en précisant si c'est la quantité de mémoire allouée ou nécessaire et indispensable pour faire tourner le jeu !???

 

Dans certains on a les trois, la mémoire dispo, la mémoire allouée et la mémoire utilisé ! dans FFXV on voit par exemple en 4K TAF ( variable selon les scènes ) 6,5go alloué mais 4,3go UTILISÉ !!!

 


Cette fronde vis à vis de la taille mémoire me paraît d'une crétinerie absolue [:t3xla] ( c'est pas contre toi ) ! à quel moment on voit un jeu AAA ou autre refuser de fonctionner normalement à cause du manque de VRAM ??? à quel moment les développeurs vont sortir un jeu incapable de tourner sur une RTX 3080 10go en 4K même avec un pack de texture HD !?

 

De plus on le répète, mais le GPU de la carte sera à genoux en terme de FPS avant que la quantité max de VRAM dispo soit atteinte. Que la question se pose avec un ou des exemples concrets, par sur des spéculations alacon basées sur rien. Si quelqu'un veut plus de VRam, qu'il prennent une carte en fonction 16,20,24go mais dire que les modèles 10go vont rencontrer des problèmes me paraît très arbitraire et nuisible au marché.

Message cité 2 fois
Message édité par olioops le 04-11-2020 à 00:20:23

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°10870971
Darkneo95
Posté le 03-11-2020 à 22:09:16  profilanswer
 

btbw03 a écrit :

vous avez tous pris des écrans 4k à 900e pour avoir plus de 60hz ?!


 
 
Je suis sur un LG 48 CX.

n°10870975
Rayaki
Posté le 03-11-2020 à 22:13:10  profilanswer
 

the_fennec a écrit :


Tout a fait!
Tu peux cliquer, Youtube compte une vue que si tu regardes plus de 30s.


 
merci pour l'info :)
ah ben ouais... :o PC Mark... donc 0 crédibilité :D
 


Message édité par Rayaki le 03-11-2020 à 22:14:03

---------------
Clan Torysss.
n°10870978
Eife
Juste avant le .G - Topic de
Posté le 03-11-2020 à 22:14:17  profilanswer
 

olioops a écrit :


Non mais OÙ le vois-tu ? quel jeu, quel logiciel l'indique en précisant si la quantité de mémoire alloué ou nécessaire et indispensable pour faire tourner le jeu !???
 
Dans certains on a les trois, la mémoire dispo, la mémoire allouée et la mémoire utilisé ! dans FFXV on voit par exemple en 4K TAF ( variable selon les scènes ) 6,5go alloué mais 4,3go UTILISÉ !!!
 
 
Cette fronde vis à vis de la taille mémoire me paraît d'une crétinerie absolue [:t3xla] ( c'est pas contre toi ) ! à quel moment on voit un jeu AAA ou autre refuser de fonctionner normalement à cause du manque de RAM ??? à quel moment les développeurs vont sortir un jeu incapable de tourner sur une RTX 3080 en 4K même avec un pack de texture HD !?  
 
De plus on le répète, mais le GPU de la carte sera à genoux en terme de FPS avant que la quantité de RAM utile soit atteinte. Que la question se pose avec un ou des exemples concrets, par sur des spéculations alacon basées sur rien. Si quelqu'un veut plus de VRam, qu'il prennent une carte en fonction 16,20,24go mais dire que les modèles 10go vont rencontrer des problèmes me paraît très arbitraire et nuisible au marché.


 
Nan mais vu la gueule du jeu en plus, s'il demande réellement 16Go, c'est pas les vendeurs de carte que j'vais blamer hein, c'est les développeurs du jeu...


---------------
Topic de vente de trucs divers
n°10870981
btbw03
Ailurophile plutôt qu'Humain
Posté le 03-11-2020 à 22:16:33  profilanswer
 

Darkneo95 a écrit :


 
 
Je suis sur un LG 48 CX.


 
un oled comme moniteur  [:max evans]

n°10870988
Darkneo95
Posté le 03-11-2020 à 22:27:56  profilanswer
 

btbw03 a écrit :


 
un oled comme moniteur  [:max evans]


 
Un oled de 2020 c'est plus comme les oled de 2017, y a des sécurité pour éviter le burn, puis le bon sens fait le reste en évitant de le laisser en image fixe sur le bureau pendant xx heures.

n°10870989
btbw03
Ailurophile plutôt qu'Humain
Posté le 03-11-2020 à 22:28:58  profilanswer
 

moué :o

n°10870995
myzt
Posté le 03-11-2020 à 22:33:53  profilanswer
 

Y a de l'IA dans ces téléviseurs, dans le logiciel anti burn-in

 

Le souci de ces téléviseurs OLED:

 

[:judgedredd:2] 48 pouces ça reste encore beaucoup trop grand

 

[:judgedredd:2] L'input lag d'une TV, on est encore en deça de l'input lag des écrans PC, pour les ayatollah de la réactivité et de l'e-sport, c'est encore un poil juste

 

[:judgedredd:2] Écran glossy mais jamais de la vie, l'écran glossy, plus c'est petit et mieux je le supporte, plus c'est grand et moins je le supporte à cause des reflets

 

Message cité 3 fois
Message édité par myzt le 03-11-2020 à 22:34:26

---------------
Topic Unique | Matos PC Joueurs PC
n°10870996
Kenshineuh
Posté le 03-11-2020 à 22:35:31  profilanswer
 

Darkneo95 a écrit :


 
Un oled de 2020 c'est plus comme les oled de 2017, y a des sécurité pour éviter le burn, puis le bon sens fait le reste en évitant de le laisser en image fixe sur le bureau pendant xx heures.


 
J'ai une C8 et c'était déjà le cas, mais laisse croire encore les gens que l'Oled ca burn à 100%. :o

n°10870998
ben shinob​i
Posté le 03-11-2020 à 22:36:19  profilanswer
 

olioops a écrit :


Non mais OÙ le vois-tu ? quel jeu, quel logiciel l'indique en précisant si la quantité de mémoire alloué ou nécessaire et indispensable pour faire tourner le jeu !???
 
Dans certains on a les trois, la mémoire dispo, la mémoire allouée et la mémoire utilisé ! dans FFXV on voit par exemple en 4K TAF ( variable selon les scènes ) 6,5go alloué mais 4,3go UTILISÉ !!!
 
 
Cette fronde vis à vis de la taille mémoire me paraît d'une crétinerie absolue [:t3xla] ( c'est pas contre toi ) ! à quel moment on voit un jeu AAA ou autre refuser de fonctionner normalement à cause du manque de RAM ??? à quel moment les développeurs vont sortir un jeu incapable de tourner sur une RTX 3080 en 4K même avec un pack de texture HD !?  
 
De plus on le répète, mais le GPU de la carte sera à genoux en terme de FPS avant que la quantité de RAM utile soit atteinte. Que la question se pose avec un ou des exemples concrets, par sur des spéculations alacon basées sur rien. Si quelqu'un veut plus de VRam, qu'il prennent une carte en fonction 16,20,24go mais dire que les modèles 10go vont rencontrer des problèmes me paraît très arbitraire et nuisible au marché.


 
C'est un peu comme les 32 go de ram...ça ne sert absolument à rien pour du jeu mais tout le monde se rue sur ces kits en ululant "futureproof", "futureproof" !!...En revanche dès que tu ne fais pas que jouer, 16 go de vram et 32 go de ram c'est le minimum syndical 2020, dès que tu fais un peu de création numérique, de la virtualisation etc...
 
A ce titre l'abandon des 3080 20go de vram est une totale aberration marketing, et offre un boulevard à AMD.


Message édité par ben shinobi le 03-11-2020 à 22:39:33
n°10871000
Kenshineuh
Posté le 03-11-2020 à 22:36:40  profilanswer
 

myzt a écrit :


 [:judgedredd:2] L'input lag d'une TV, on est encore en deça de l'input lag des écrans PC, pour les ayatollah de la réactivité et de l'e-sport, c'est encore un poil juste

 


 

Toutes façon les joueurs E-sport joue en 1080p pour la plupart et et tout en low, donc la "qualité" d'un écran c'est le dernier de leur soucis hein. :D


Message édité par Kenshineuh le 03-11-2020 à 22:37:08
n°10871001
btbw03
Ailurophile plutôt qu'Humain
Posté le 03-11-2020 à 22:37:29  profilanswer
 

myzt a écrit :

Y a de l'IA dans ces téléviseurs, dans le logiciel anti burn-in
 
 


 
je tenterais pas sur mon 65 :D

n°10871005
Rayaki
Posté le 03-11-2020 à 22:43:21  profilanswer
 

Darkneo95 a écrit :


 
Un oled de 2020 c'est plus comme les oled de 2017, y a des sécurité pour éviter le burn, puis le bon sens fait le reste en évitant de le laisser en image fixe sur le bureau pendant xx heures.


 
Y en avait déjà en 2016 :o mais les fameuses sécurités ont été améliorées (ou alors c'est la qualité des DELO...)

Message cité 1 fois
Message édité par Rayaki le 03-11-2020 à 22:48:41

---------------
Clan Torysss.
n°10871009
HashKah
It’s dangerous to go alone !
Posté le 03-11-2020 à 22:44:07  profilanswer
 

Darkneo95 a écrit :


 
Un oled de 2020 c'est plus comme les oled de 2017, y a des sécurité pour éviter le burn, puis le bon sens fait le reste en évitant de le laisser en image fixe sur le bureau pendant xx heures.


 
Toit au fait, ainsi au CES les 47" oled étaient uniquement dédiés au gaming c'est qu'ils sont plutôt confiant.
 
Un test de burn in a été mené sur des oled d'il y a deux générations et pour obtenir un marquage il,passer plusieurs milliers d'heures d'affilées (sans éteindre la TV ou changer de chaîne), sur une chaîne tv comme CNN avec deux gros bandeaux bien rouges ou des jeux avec des hud fixes de type scores dans Fifa.
 
J'ai un C9 et y'a tout un pannel de protection contre le burn in, dès qu'un élément fixe est détecté, l'écran assombrit cette zone pour limiter les risques (ça me le fait sur les logos Cnews ou BFM), et à chaque mise en veille de l'écran il y a un protocole de rafraîchissement de l'écran, et j'en passe.
 
Sur un modèle haut de gamme de 2020 les risques de burn in existent mais pour en arriver là faut tellement abusé que c'est limite virtuellement impossible dans une utilisation normale.
 
Je joue sur mon C9 et j'ai juste un bureau clean sans icônes (mais ça c'est de toujours, même pas ma corbeille), la barre de tâches qui disparaît et surtout j'utilise Wallapaper engine et mon fond d'écran c'est un trou noir à la interstellar en action.
Donc quand je suis sur mon bureau, mon écran est majoritairement noir donc aucun risque de burn in, et la partie disque d'acretion du trou noir est animée et donc les pixel bougent.
 
En étant un peu prudents, il n'y a absolument aucun risque à utiliser un Oled pour jouer en 2020, tout comme les plasma ne
présentaient plus aucun risque après quelques années d'évolution de la technologie.
 

myzt a écrit :

Y a de l'IA dans ces téléviseurs, dans le logiciel anti burn-in
 
Le souci de ces téléviseurs OLED:
 
 [:judgedredd:2] 48 pouces ça reste encore beaucoup trop grand
 
 [:judgedredd:2] L'input lag d'une TV, on est encore en deça de l'input lag des écrans PC, pour les ayatollah de la réactivité et de l'e-sport, c'est encore un poil juste
 
 [:judgedredd:2] Écran glossy mais jamais de la vie, l'écran glossy, plus c'est petit et mieux je le supporte, plus c'est grand et moins je le supporte à cause des reflets
 


 
48 pouces, ça dépend de ton bureau, du recul et de ton installation, si tu l'installes en mural déjà c'est beaucoup plus confortable.
 
L'input lag sur un C9 c'est 13 ms, et il peut monter à 120hz, donc les mec qui peuvent être emmerdés parc cet input lag représentent une infime minorité qui de toutes façons ne se contenteraient pas d'un écran 120hz et doivent jouer avec des lunettes anti lumière bleue  :o  
 
Et glossy non pas vraiment, si tu te positionne sur les côté tu vois les reflets, mais de face le filtre anti reflets est vraiment de très bonne facture et ma TV est dans mon salon à côté de la baie votre orienté plein sud et elle ne reflète même pas le couloir lumineux derrière elle.
 
Après avoir joué en Oled, HDR, je reviens plus jamais en arrière, c'est juste magnifique, à côté tous les moniteurs me paraissent fades avec un contraste dégueulasse.


Message édité par HashKah le 03-11-2020 à 22:50:06
n°10871010
btbw03
Ailurophile plutôt qu'Humain
Posté le 03-11-2020 à 22:45:02  profilanswer
 

Rayaki a écrit :


 
Y en avait déjà en 2016 :o mais les fameuses sécurités ont été améliorées (ou alors c'est la qualité des LEDS...)


 
error :o

n°10871014
Rayaki
Posté le 03-11-2020 à 22:48:52  profilanswer
 

j'ai corrigé :o


---------------
Clan Torysss.
n°10871020
Rayaki
Posté le 03-11-2020 à 22:59:27  profilanswer
 

Pour la quantité de VRAM réellement nécessaire pour un jeu, c'est quand même bigrement compliqué pour la différencier de l'allocation...
 
Je me sert de Process Explorer et parfois on devine le besoin réel, mais souvent c'est quand même plus compliqué...
 
Exemple fait y a 5 minutes:
 
Demo de X Rebirth
 
System Commit (SC) / Physical Memory
https://zupimages.net/up/20/45/np9i.png
 
 
GPU Usage / GPU Dedicated Memory (DC)
https://zupimages.net/up/20/45/s9fi.png
 
 
Testé dans l'ordre 8K MSAAx8, 8K, 4K et 4K MSAAx8
On passe sur le fait que la 1080Ti est en mode survie :D
 
Une fois les valeurs remises dans l'ordre, on a :
 
8K MSAAx8 : 20.0Go (SC) --> 19.5Go (DC)
4K MSAAx8 : 13.5Go (SC) --> 6.8Go (DC)
 
8K NoMSAA : 15.9Go (SC) --> 9.5Go (DC)
4K NoMSAA : 12.3Go (SC) --> 4.4Go (DC)
 
 
Le besoin de VRAM est évident en passant de 4K à 8K
Il est aussi évident en activant le MSAAx8
Mais peux t'on réellement savoir si c'est de l'allocation par défaut ou une quantité complète nécessaire ?!...
 
Par contre, 8K MSAA, ca explose easy les 11Go de ram et donc le system Commit décole bien pour compenser.
Et vu comment ca saccade méchamment dans le plus haut mode de fonctionnement, oui là clairement les 11Go sont noyés  [:haha dead]  
Là même visuellement on voit que la VRAM manque cruellement...


Message édité par Rayaki le 03-11-2020 à 23:07:27

---------------
Clan Torysss.
n°10871036
olioops
Si jeune et déjà mabuse.
Posté le 03-11-2020 à 23:22:22  profilanswer
 

Déjà faut avoir un grain pour mettre MSAAx8 en jeu  :o et en 8K à 15fps c'est pas la VRam le problème.


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°10871037
dams86
sed -i 's/windows/linux/g' c:
Posté le 03-11-2020 à 23:26:16  profilanswer
 

olioops a écrit :

Déjà faut avoir un grain pour mettre MSAAx8 en jeu  :o et en 8K à 15fps c'est pas la VRam le problème.


 
+1, c'est + un test pour démontrer qu'on est capable de dépasser les 11GB de VRAM en théorie, un bench "pour la remplir", pas que celle-ci est insuffisante.

n°10871040
alffir
Posté le 03-11-2020 à 23:30:19  profilanswer
 

nikoft a écrit :

La 3090 est clairement pas a rentrer ligne de compte, c'est pas une carte destiné au gaming au jour d'aujourd'hui


Ton raisonnement sur le fait qu'AMD ait besoin de 16 Go pour battre 10 Go est faux, la RAM en rab, ça n'apporte pas de FPS... sauf quand la version avec moins de RAM est saturée et dont performances s'effondre.

 

J'ai le point de vue inverse à toi, grâce à son Infinite Cache et Smart Access Memory, AMD arrive à se contenter d'un bus 256 bits et de GDDR6 pour égaler les performances d'une carte Nvidia avec un bus 384 bits GDRR6X.

 

Ça permet à AMD de mettre 16 Go pour pas cher.


---------------
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes.
n°10871041
Valaint671​30
Cinquième soleil
Posté le 03-11-2020 à 23:31:41  profilanswer
 

Merci à ceux qui n'abandonnent pas la quête de la vérité :jap:


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°10871042
chaced
Posté le 03-11-2020 à 23:33:26  profilanswer
 

ils auraient pu réduire la quantité de ram par contre pour gratter du prix, style 12go sur la 6800 et 6800xt et laisser 16go sur la 6900...


---------------
CPU-Z | Timespy | Mes bd | Mon blog
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  896  897  898  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)