Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3706 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1207  1208  1209  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10920748
abs0
Posté le 30-12-2020 à 14:10:32  profilanswer
 

Reprise du message précédent :

squallz a écrit :

La Fnac qui vend une 3090 TUF (OC) à 2159 € :sweat: : https://www.fnac.com/Carte-graphiqu [...] earchpos=1


 
J'ai mieux ! 7602 euros la asus 3070 tuf ! :o  
 
https://www.amazon.fr/gp/product/B0 [...] NB96&psc=1

mood
Publicité
Posté le 30-12-2020 à 14:10:32  profilanswer
 

n°10920750
davesorco6​9
HFR_NoR
Posté le 30-12-2020 à 14:13:22  profilanswer
 

abs0 a écrit :


 
J'ai mieux ! 7602 euros la asus 3070 tuf ! :o  
 
https://www.amazon.fr/gp/product/B0 [...] NB96&psc=1


 
Faut passer chez le notaire ou un chèque de banque suffit? :lol:


---------------
[Feed-Back] http://forum.hardware.fr/hfr/Achat [...] 7275_1.htm
n°10920753
mat33000
Posté le 30-12-2020 à 14:15:46  profilanswer
 


 
 
C'est abusé de voir ca pendant que beaucoup galèrent pour en avoir une .

n°10920754
TheTroll
Posté le 30-12-2020 à 14:22:27  profilanswer
 

Rayaki a écrit :


 
Actuellement, je passe en HDMI2.1 soit en 8K/60 soit en 4K/120... les 2 en HDR :)
Le Gsync à 120, ca dépend uniquement si le firmware de ta TV a été mis à jour pour Ampère.


 
Mais le du coup , ou bien je passe en direct 2.1 sur la tele en zappant l ampli, et donc j ai le Gsync, ou bien je vise de passer par un ampli 4k120 (la generation qui paraitra en 2021 du coup vus les problemes de l actuelle), et je perds le gsync j imagine.
 
Ca apporte vraiment qqchose le GSYNC ? Deja le VSYNC permet d eviter le tearing, donc le gsync serait pour "fluidifier" l affichage quand on n'est pas pile a 60 ou 120 FPS ?

n°10920755
TheTroll
Posté le 30-12-2020 à 14:23:30  profilanswer
 

abs0 a écrit :


 
J'ai mieux ! 7602 euros la asus 3070 tuf ! :o  
 
https://www.amazon.fr/gp/product/B0 [...] NB96&psc=1


 
on trouve souvent la rog strix 3090 a 1845.. ca pique mais c est deja plus proche du vrai prix!
Apres 3090 ou pas ... l eternel debat :) (enfin quand on peut se le permettre)

n°10920757
Hansaplast
Hello.
Posté le 30-12-2020 à 14:28:16  profilanswer
 

TheTroll a écrit :


 
Mais le du coup , ou bien je passe en direct 2.1 sur la tele en zappant l ampli, et donc j ai le Gsync, ou bien je vise de passer par un ampli 4k120 (la generation qui paraitra en 2021 du coup vus les problemes de l actuelle), et je perds le gsync j imagine.
 
Ca apporte vraiment qqchose le GSYNC ? Deja le VSYNC permet d eviter le tearing, donc le gsync serait pour "fluidifier" l affichage quand on n'est pas pile a 60 ou 120 FPS ?


Oui, G-Sync, FreeSync ou adaptative sync c'est obligatoire pour moi.

n°10920759
TheTroll
Posté le 30-12-2020 à 14:29:39  profilanswer
 

Mais a quel niveau ? J'ai joué sans sur ma lg 4k GX6 en 4kp60 donc et je trouvais ca tres fluide deja

n°10920760
Rayaki
Posté le 30-12-2020 à 14:29:45  profilanswer
 

TheTroll a écrit :


 
Mais le du coup , ou bien je passe en direct 2.1 sur la tele en zappant l ampli, et donc j ai le Gsync, ou bien je vise de passer par un ampli 4k120 (la generation qui paraitra en 2021 du coup vus les problemes de l actuelle), et je perds le gsync j imagine.
 
Ca apporte vraiment qqchose le GSYNC ? Deja le VSYNC permet d eviter le tearing, donc le gsync serait pour "fluidifier" l affichage quand on n'est pas pile a 60 ou 120 FPS ?


 
J'ai du renoncer à une barre de son Nakamishi Shockwafe à cause du passthrough qui ne gère pas le HDMI 2.1 ...
Un pote aux US l'a et c'est le méga bordel avec sa 3090... il a fini en direct et une carte son interne avec sortie optique pour la barre de son.
 
Je lorgne sur la LG SN11RG qui dispose de HDMI 2.1 mais reste à savoir comment ca se comporte avec les Ampères :)


---------------
Clan Torysss.
n°10920762
Rayaki
Posté le 30-12-2020 à 14:30:56  profilanswer
 

TheTroll a écrit :

Mais a quel niveau ? J'ai joué sans sur ma lg 4k GX6 en 4kp60 donc et je trouvais ca tres fluide deja


 
Certains jeux ont des framerates qui peuvent descendre à 40 fps et là le G/Free-Sync aide bien à conserver une fluidité visuelle sans hachurage.


Message édité par Rayaki le 30-12-2020 à 14:31:07

---------------
Clan Torysss.
n°10920763
Aqua-Niki
Posté le 30-12-2020 à 14:32:57  profilanswer
 

TheTroll a écrit :

Mais a quel niveau ? J'ai joué sans sur ma lg 4k GX6 en 4kp60 donc et je trouvais ca tres fluide deja


Ben si tu ne remarques pas la différence c'est que tu peux t'en passer ^^

mood
Publicité
Posté le 30-12-2020 à 14:32:57  profilanswer
 

n°10920764
kenshirooo
Posté le 30-12-2020 à 14:33:15  profilanswer
 

Une fois que tu as goûté au Gsync impossible de s'en passer...
Surtout sur les jeux récents très gourmands (ACV, Cyberpunk...) qui tiendront difficilement 60 fps en 4K (et encore moins 100+) le Gsync gomme totalement les variations de framerate et laisse un sentiment de fluidité quasi totale...
Franchement je pense que je ne pourrais pas jouer sur ma LG OLED si elle n'était pas Gsync car en 4K ultra (ou pas d'ailleurs) la 3080 souffre pas mal :/

Message cité 2 fois
Message édité par kenshirooo le 30-12-2020 à 14:33:31
n°10920765
TheTroll
Posté le 30-12-2020 à 14:33:52  profilanswer
 

Rayaki a écrit :


 
J'ai du renoncer à une barre de son Nakamishi Shockwafe à cause du passthrough qui ne gère pas le HDMI 2.1 ...
Un pote aux US l'a et c'est le méga bordel avec sa 3090... il a fini en direct et une carte son interne avec sortie optique pour la barre de son.
 
Je lorgne sur la LG SN11RG qui dispose de HDMI 2.1 mais reste à savoir comment ca se comporte avec les Ampères :)


 
Et dans ce cas le HDMI E-arc peut pas aider ? le son peut revenir à l ampli ou la barre de son quand il arrive d un autre port hdmi ?
 
Edit: on est un peu HS mais je précise que la source est une 3080/3090 :)


Message édité par TheTroll le 30-12-2020 à 14:34:48
n°10920771
Aqua-Niki
Posté le 30-12-2020 à 14:44:11  profilanswer
 

kenshirooo a écrit :

Une fois que tu as goûté au Gsync impossible de s'en passer...
Surtout sur les jeux récents très gourmands (ACV, Cyberpunk...) qui tiendront difficilement 60 fps en 4K (et encore moins 100+) le Gsync gomme totalement les variations de framerate et laisse un sentiment de fluidité quasi totale...
Franchement je pense que je ne pourrais pas jouer sur ma LG OLED si elle n'était pas Gsync car en 4K ultra (ou pas d'ailleurs) la 3080 souffre pas mal :/


Perso je savais avant même d'y gouter que j'allais adorer : je supportais pas le tearing et je devais faire avec les drops bien visibles dûs à la VSync et à ma CG qui sortait pas les 60fps constants.
Je ne vois pas comment il fait pour trouver ça fluide en VSync, mais bon si ça lui convient pourquoi s'emmerder ^^

n°10920772
Rayaki
Posté le 30-12-2020 à 14:45:15  profilanswer
 

Le soucis est que le HDMI Earc des barres gère les HDMI 2.0a... Mon pote a essayé pas mal de choses mais au final:
 
-> 8K tu oublies (lui OSEF, moi pas)
-> 4K > 60Hz tu oublies (lui pas OSEF du tout, il aime le 4K 100Hz)
-> une seule sortie HDMI Earc sur sa barre et comme c'est un musicien, faire le switch entre ses sources sur la seule prise, ca l'a VITE gonflé :D
 
Ca + les black screens de son écran dont le firmware se fait attendre pour gérer correctement les Ampères, ca a fini en mode: Bon je prend une carte son et coté PC on fera du 5.1 sur l'entrée fibre et pour mon 7.1 (enfin 9.2.4) Home Studio, je squatte la prise unique Earc.
 
De mon coté, je me suis rendu compte que sur ma TV, si je désactive le son HDMI par le panneau Nvidia, je perd le signal vidéo :o
C'est tordu !!!!  :pt1cable:  
Du coup, j'ai le son HDMI ET le son de la carte son et je précise dans mes applis ma source sonore de prédilection.


Message édité par Rayaki le 30-12-2020 à 14:46:44

---------------
Clan Torysss.
n°10920773
TheTroll
Posté le 30-12-2020 à 14:49:57  profilanswer
 

kenshirooo a écrit :

Une fois que tu as goûté au Gsync impossible de s'en passer...
Surtout sur les jeux récents très gourmands (ACV, Cyberpunk...) qui tiendront difficilement 60 fps en 4K (et encore moins 100+) le Gsync gomme totalement les variations de framerate et laisse un sentiment de fluidité quasi totale...
Franchement je pense que je ne pourrais pas jouer sur ma LG OLED si elle n'était pas Gsync car en 4K ultra (ou pas d'ailleurs) la 3080 souffre pas mal :/


 
Alors perso Cyber punk j ai essayé un peu et ça me parraissait pas mal, mais en effet peut être pas 60fps..
Par contre j ai essayé Death Stranding et j ai trouvé ça top

n°10920776
HashKah
It’s dangerous to go alone !
Posté le 30-12-2020 à 14:59:22  profilanswer
 

Aqua-Niki a écrit :


Tu te plains qu'il faudrait pas que Lovelace sorte trop tôt pour pas froisser les acheteurs d'Ampere, mais si Lovelace sort trop tôt tu dis toi même que tu claqueras plus de 1000€ dans une 4090. Tu la vois pas l'incohérence ?
C'est exactement grâce à des gens comme toi que nV pourrait se permettre de lancer Lovelace dans un an si elle est prête en fait.


 
J'ai pas dit pour autant que je le ferai de gaieté de cœur hein  :non:  
 
Plus mon matos reste au top niveau longtemps, plus j'en suis ravis, après si le gap est minime, je peux sauter une génération de GPU, mais si Lovelace représente un gros gap, j'en passerai par là.
 
Je n'y vois aucune incohérence.
 

n0name a écrit :


 
 
Je ne parle pas de nombre de pixel et de nombre d'images. Je parle de beauté, du travail sur les détails etc.  
 
Et des exclus comme GoW ou LoU sont d'un niveau bien supérieur à ce triste cyberpunk, don't pourtant beaucoup ici vante l'aspect technique.
 
Après je m'en fou je joue sur les deux support. Mais c'est quand même dommage que les dev PC soient autant à la traîne par rapports aux studios PlayStation


 
Triste Cyberpunk ? Ha ouais quand même, ben on va dire que c'est subjectif hein.
 
Pour info j'ai fait Gow (j'ai adoré sur le moment et là je n'en ai presque aucun souvenir sauf le début et la fin) et TLOU 2 plusieurs fois, que j'ai trouvé exceptionnel.
 
Le problème ne vient pas du PC, il vient qu'aucun développeur ne fait ce type de jeux en exclusivité sur PC parce qu'ils s'imaginent que ce ne sera jamais rentable (Cyberpunk devrait leur prouver le contraire avec ses 60% de ventes sur PC).
 
Qu'est ce qui caractérise Gow ou TLOU 2 ? Une grande durée de développement et une attention aux détails les plus infimes.
Ce sont des jeux ultra optimisés qui tirent partie à 100% de leur hardware.
 
Maintenant tu prends Naughty Dog et tu leur dis "les gars, carte blanche exclusivité PC, on veut une gifle technique ne prenez pas de gants, et prenez votre temps", ils vont te sortir un truc d'un autre monde.
 
Horizon sur PC est déjà bien plus beau que sur PS4 et PS4 pro, pas sûr que la PS5 puisse afficher le même rendu que sur un pc qui peut tout foutre en ultra.
 
Si demain TLOU2 est annoncé en portage PC et que c'est Naughty Dog qui le fait, le jeu sera transfiguré.
 
Tout ça pour dire que le seul avantage des consoles c'est leur masse critique qui attire le développement de projets ambitieux qui pourront être rentabilisés sur le parc, encore que TLOU2.
 
Mais c'est un calcul qui n'est plus forcément vrai maintenant que tous les jeux Xbox sortent sur PC, que l'architecture consoles ben c'est du PC et que la digue entre les deux mondes s'efface peu à peu.
Cyberpunk fera ou a déjà fait plus de ventes sur PC que TLOU 2 qui paradoxalement souffre de son statut d'exclusivité.
 
L'avenir du jeu PC n'a jamais été aussi radieux et les possibilités de jouer aussi grandes.
 
Je n'attends plus qu'une surcouche Gamer sur Windows de type Xbox Serie qui permettrait d'avoir la simplicité d'utilisation d'une console malgré la multitude de launcher en arrière plan et surtout l'intégration du Quick Résume qui est une sacrée belle feature.  
 

Message cité 1 fois
Message édité par HashKah le 30-12-2020 à 15:12:54
n°10920782
swysen
Posté le 30-12-2020 à 15:27:39  profilanswer
 

Une config avec 3070 FE à pas cher ici :
 
https://forum.hardware.fr/forum2.ph [...] #t26116326
 
 
 
 ;)


---------------
MON TOPIC VDS/ACH/ECH - OLD FEEDBACK
n°10920788
n0name
Etat nounou, Etat soeur.
Posté le 30-12-2020 à 15:42:21  profilanswer
 

HashKah a écrit :


 
J'ai pas dit pour autant que je le ferai de gaieté de cœur hein  :non:  
 
Plus mon matos reste au top niveau longtemps, plus j'en suis ravis, après si le gap est minime, je peux sauter une génération de GPU, mais si Lovelace représente un gros gap, j'en passerai par là.
 
Je n'y vois aucune incohérence.
 


 

HashKah a écrit :


 
Triste Cyberpunk ? Ha ouais quand même, ben on va dire que c'est subjectif hein.
 
Pour info j'ai fait Gow (j'ai adoré sur le moment et là je n'en ai presque aucun souvenir sauf le début et la fin) et TLOU 2 plusieurs fois, que j'ai trouvé exceptionnel.
 
Le problème ne vient pas du PC, il vient qu'aucun développeur ne fait ce type de jeux en exclusivité sur PC parce qu'ils s'imaginent que ce ne sera jamais rentable (Cyberpunk devrait leur prouver le contraire avec ses 60% de ventes sur PC).
 
Qu'est ce qui caractérise Gow ou TLOU 2 ? Une grande durée de développement et une attention aux détails les plus infimes.
Ce sont des jeux ultra optimisés qui tirent partie à 100% de leur hardware.
 
Maintenant tu prends Naughty Dog et tu leur dis "les gars, carte blanche exclusivité PC, on veut une gifle technique ne prenez pas de gants, et prenez votre temps", ils vont te sortir un truc d'un autre monde.
 
Horizon sur PC est déjà bien plus beau que sur PS4 et PS4 pro, pas sûr que la PS5 puisse afficher le même rendu que sur un pc qui peut tout foutre en ultra.
 
Si demain TLOU2 est annoncé en portage PC et que c'est Naughty Dog qui le fait, le jeu sera transfiguré.
 
Tout ça pour dire que le seul avantage des consoles c'est leur masse critique qui attire le développement de projets ambitieux qui pourront être rentabilisés sur le parc, encore que TLOU2.
 
Mais c'est un calcul qui n'est plus forcément vrai maintenant que tous les jeux Xbox sortent sur PC, que l'architecture consoles ben c'est du PC et que la digue entre les deux mondes s'efface peu à peu.
Cyberpunk fera ou a déjà fait plus de ventes sur PC que TLOU 2 qui paradoxalement souffre de son statut d'exclusivité.
 
L'avenir du jeu PC n'a jamais été aussi radieux et les possibilités de jouer aussi grandes.
 
Je n'attends plus qu'une surcouche Gamer sur Windows de type Xbox Serie qui permettrait d'avoir la simplicité d'utilisation d'une console malgré la multitude de launcher en arrière plan et surtout l'intégration du Quick Résume qui est une sacrée belle feature.  
 


 
Bien sûr je grossis le trait, mais disons qu'après 3 mois d'attente de ma 3080, CP77 est mon premier jeux PC depuis bien longtemps, donc c'est ma grosse déception qui s'exprime :o
 
 
 
 

n°10920789
supersym
ouh Pinèz
Posté le 30-12-2020 à 15:43:55  profilanswer
 

Notification d'expédition de ma 3090 kingpin


---------------
Mon feed back http://forum.hardware.fr/hfr/Achat [...] 3815_1.htm  http://hwbot.org/submission/2269750_
n°10920814
marko9
Posté le 30-12-2020 à 16:13:37  profilanswer
 

Bonjour tout le monde j’ai une petite question rapide
J’ai pu commander une rog strix 3080 oc pour 980 qui doit arriver dans 2 semaines
Et la un ami me propose sa aorus waterforce avec wb 2080ti par contre (620€)
 
Est ce que les 2 carte sont comparables ? La différence est elle si énorme sue ça  
Je sais que la waterforce était quand même une super carte et elle a des bonnes performances  

n°10920823
cyberfred
Posté le 30-12-2020 à 16:22:54  profilanswer
 

Aqua-Niki a écrit :


Perso je savais avant même d'y gouter que j'allais adorer : je supportais pas le tearing et je devais faire avec les drops bien visibles dûs à la VSync et à ma CG qui sortait pas les 60fps constants.
Je ne vois pas comment il fait pour trouver ça fluide en VSync, mais bon si ça lui convient pourquoi s'emmerder ^^


 
pareil !
d'ailleurs si on me demandait de choisir 2 évolutions qui m'ont vraiment convaincu ces 10 dernières années , je répondrai sans hésiter le gsync (avec le freesync compatible gsync bien entendu)   ainsi que les SSDs :jap:

n°10920842
reflex69
Posté le 30-12-2020 à 16:55:32  profilanswer
 

supersym a écrit :

Notification d'expédition de ma 3090 kingpin


C'est bon ça  :sol:  
On attend ton retour !

n°10920850
Winpoks
Posté le 30-12-2020 à 17:05:02  profilanswer
 

cyberfred a écrit :

 

pareil !
d'ailleurs si on me demandait de choisir 2 évolutions qui m'ont vraiment convaincu ces 10 dernières années , je répondrai sans hésiter le gsync (avec le freesync compatible gsync bien entendu) ainsi que les SSDs :jap:

 

Les SSD sont biens au dessus du lot même.  :D

n°10920872
Profil sup​primé
Posté le 30-12-2020 à 18:03:41  answer
 

Moi pour cyberpunk 2077 c'est le contraire je suis agreablement surpris ^^

n°10920874
supersym
ouh Pinèz
Posté le 30-12-2020 à 18:07:38  profilanswer
 
n°10920877
supersym
ouh Pinèz
Posté le 30-12-2020 à 18:09:09  profilanswer
 
n°10920879
TheTroll
Posté le 30-12-2020 à 18:09:52  profilanswer
 

Bon et j'imagine que ca a ete debattu  X fois ici mais.. quid des 10Go de la 3080, vous pensez que c'est trop peu en 4k pour les annees a venir?

n°10920882
olioops
Si jeune et déjà mabuse.
Posté le 30-12-2020 à 18:13:10  profilanswer
 

Cela n'a aucun sens de présenter les choses comme ça ! c'est une question de puissance de calcul avant tout. Les cartes " à venir " auront la quantité de VRam adaptée à ce qu'elles peuvent "brassées" comme informations.


Message édité par olioops le 30-12-2020 à 18:13:29

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°10920884
TheTroll
Posté le 30-12-2020 à 18:14:37  profilanswer
 

Mouais, alors pourquoi sortir une 3080ti ave 2x plus de VRAM ?

n°10920885
Profil sup​primé
Posté le 30-12-2020 à 18:15:52  answer
 

TheTroll a écrit :

Bon et j'imagine que ca a ete debattu  X fois ici mais.. quid des 10Go de la 3080, vous pensez que c'est trop peu en 4k pour les annees a venir?


 
C'est une vrai bétise les 20 go pour moi la 3080ti devrai avoir max 12 go

n°10920886
olioops
Si jeune et déjà mabuse.
Posté le 30-12-2020 à 18:15:59  profilanswer
 

TheTroll a écrit :

Mouais, alors pourquoi sortir une 3080ti ave 2x plus de VRAM ?


 
Parce qu'AMD a sortie une carte avec + de VRam, c'est une riposte commercial/marketing. Rien à voir avec des impératifs techniques.

Message cité 2 fois
Message édité par olioops le 30-12-2020 à 18:16:48

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°10920888
Profil sup​primé
Posté le 30-12-2020 à 18:17:21  answer
 

olioops a écrit :


 
Parce qu'AMD a sortie une carte avec + de VRam, c'est une riposte commercial/marketing. Rien à voir avec des impératifs techniques.


 
Exactement  :jap:

n°10920890
simracingp​assion
Posté le 30-12-2020 à 18:24:17  profilanswer
 

TheTroll a écrit :

Mouais, alors pourquoi sortir une 3080ti ave 2x plus de VRAM ?


 
 
 
Il a même été dit sur le topic que ca serait aussi une bêtise voir même impossible que Nvidia sorte une 3080ti... :sarcastic:  

n°10920891
patouille7​3
Le ptit prince du rail
Posté le 30-12-2020 à 18:24:39  profilanswer
 

abs0 a écrit :


 
J'ai mieux ! 7602 euros la asus 3070 tuf ! :o  
 
https://www.amazon.fr/gp/product/B0 [...] NB96&psc=1


 
Et dire qu'on m'avait traité de pigeon parce que ce modèle m'a coûté 680 €  :o

n°10920892
Miky 2001
N'y pense même pas !!!
Posté le 30-12-2020 à 18:25:24  profilanswer
 

https://www.dsogaming.com/articles/ [...] ra-gaming/
 
En résumé, au jours d’aujourd’hui, aucun des jeux les plus lourds du moment n’a besoin de plus de 10go en 4K.
 
La question c’est : et demain ?
 
On en sait rien, mais difficile d’imaginer les développeurs demander plus de 10go ! Sinon c’est réservé leur développement aux  0,1 % des joueurs qui seront équipés de cette quantité.
 
Et au pire tu baisseras un paramètre et ce sera bon...
 

n°10920897
TheTroll
Posté le 30-12-2020 à 18:32:58  profilanswer
 

En fait il faudrait un developeur de jeu pour repondre a cette question...
On voit certains jeu pre-allouer 10Go mais n'en n'utiliser vraiment que 3 ou 4 etc...

n°10920915
olioops
Si jeune et déjà mabuse.
Posté le 30-12-2020 à 18:45:40  profilanswer
 

TheTroll a écrit :

En fait il faudrait un developeur de jeu pour repondre a cette question...
On voit certains jeu pre-allouer 10Go mais n'en n'utiliser vraiment que 3 ou 4 etc...


Pas vraiment ! on a le recul sur des décennies de CG. Par exemple une GTX980, est-ce qu'elle est bridée par ses 4go de VRam !? ... non c'est sa puissance qui la bride sur les jeux récents, mais on peut jouer à tout avec.

Message cité 1 fois
Message édité par olioops le 30-12-2020 à 18:46:12

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°10920918
Lemartien7​5
Posté le 30-12-2020 à 18:47:26  profilanswer
 

marko9 a écrit :

Bonjour tout le monde j’ai une petite question rapide
J’ai pu commander une rog strix 3080 oc pour 980 qui doit arriver dans 2 semaines
Et la un ami me propose sa aorus waterforce avec wb 2080ti par contre (620€)
 
Est ce que les 2 carte sont comparables ? La différence est elle si énorme sue ça  
Je sais que la waterforce était quand même une super carte et elle a des bonnes performances  


 
Hello, pour moi, y'a pas photo
La 2080ti c'est l'équivalent d'un 3070
Donc garde ta 3080
Ce n'est que mon opinion de débutant ;)

n°10920921
TheTroll
Posté le 30-12-2020 à 18:51:15  profilanswer
 

olioops a écrit :


Pas vraiment ! on a le recul sur des décennies de CG. Par exemple une GTX980, est-ce qu'elle est bridée par ses 4go de VRam !? ... non c'est sa puissance qui la bride sur les jeux récents, mais on peut jouer à tout avec.


 
C'est ce que je me dis aussi..

n°10920924
mukumi
RATATATA
Posté le 30-12-2020 à 18:57:07  profilanswer
 

Oubliez pas que direct storage devrait arriver dans l'année (ptet en bêta d'abord) et ça aidera aussi au niveau du remplissage de la mémoire vidéo.
Bon maintenant rien ne dit que ce sera utilisé par les devs.

n°10920927
Eldem
Ultima ratio regum
Posté le 30-12-2020 à 19:01:37  profilanswer
 

Question bête mais comment font les miners pour choper autant de cartes ?  :??: Sérieux ça me déprime. J'ai pas le temps pour les F5, discord et compagnie, j'ai fait le choix de faire un job utile pour la communauté mais qui me laisse peu de temps libre, et j'aimerais juste une carte graphique pour jouer quand j'en ai envie. C'est ahurissant cette situation.


---------------
"It's not the size of the dog in the fight. It's the size of the fight in the dog."
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1207  1208  1209  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)