Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2666 connectés 

 


Pensez-vous que les RTX 5090 à + de 4000 euro se vendent?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  19  20  21  ..  608  609  610  611  612  613
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11339715
oliviermdv​y
Posté le 10-05-2024 à 09:15:40  profilanswer
 

Reprise du message précédent :
et NVidia qui se veut prendre la tête de la réduction de taille des cartes graphiques et autres éléments du PC, ils vont encore nous pondre une brique ?


---------------
i5 13600K|32Go GSkill DDR4 3600Mhz|MSI Shadow OC RTX 5080|Meta Quest 3
mood
Publicité
Posté le 10-05-2024 à 09:15:40  profilanswer
 

n°11339716
Snev
Posté le 10-05-2024 à 09:18:38  profilanswer
 

Lisez l'article avant de vous enflammer [:dileste4:5]

n°11339717
Scrabble
Posté le 10-05-2024 à 09:24:10  profilanswer
 

oliviermdvy a écrit :

et NVidia qui se veut prendre la tête de la réduction de taille des cartes graphiques et autres éléments du PC, ils vont encore nous pondre une brique ?


Si les gamers veulent acheter des briques, Nvidia vendra des briques

n°11339723
petit-tigr​e
miaou
Posté le 10-05-2024 à 10:46:20  profilanswer
 

Snev a écrit :

Lisez l'article avant de vous enflammer [:dileste4:5]


Je crois que c'est peine perdue :lol:


---------------
mIaOuUuUuUuUuUu
n°11339750
$k-flown
Posté le 10-05-2024 à 14:25:06  profilanswer
 

Même s'ils améliorent la conso la 5090 ne va pas consommer 300W et 300W je crois qu'on s'en rend même plus compte mais c'est déjà n'importe quoi uniquement pour une carte graphique... :sarcastic:

n°11339751
petit-tigr​e
miaou
Posté le 10-05-2024 à 14:55:03  profilanswer
 

C'est pour ça que t'as acheté une 7900 XT du coup, par geste écolo :D


---------------
mIaOuUuUuUuUuUu
n°11339752
ravenloft
Meilleur jeu du 20ème siècle
Posté le 10-05-2024 à 15:41:43  profilanswer
 

Autre rumeur: annonce en même temps des 5080 et 5090 mais dispo séparées de plusieurs semaines
https://wccftech.com/nvidia-geforce [...] eks-apart/

 

https://twitter.com/XpeaGPU/status/ [...] s-apart%2F

 

Si c'est vrai, C'est comme les 4080 et 4090.


Message édité par ravenloft le 10-05-2024 à 15:42:11

---------------
Ravenloft
n°11339758
PSX86
ZeroAndOne
Posté le 10-05-2024 à 16:07:27  profilanswer
 

Depuis les RTX 4000 j'aime pas trop les nouveaux positionnement de performance des xx80 et xx70. J'espère sincèrement que la 5080 est un GB202 tronqué avec une interface 384 bit. Et que le GB203 c'est la 5070.

n°11339759
petit-tigr​e
miaou
Posté le 10-05-2024 à 16:18:40  profilanswer
 

PSX86 a écrit :

Depuis les RTX 4000 j'aime pas trop les nouveaux positionnement de performance des xx80 et xx70. J'espère sincèrement que la 5080 est un GB202 tronqué avec une interface 384 bit. Et que le GB203 c'est la 5070.


Vrai qu'on est très loin du temps où les 70 pouvaient approcher les 80.
L'écart de la gen 1000/2000 était pertinent.
Maintenant, c'est presque une nouvelle gen entre deux (60% entre 4070 et 4080).


---------------
mIaOuUuUuUuUuUu
n°11339768
gundamx81
Nicorrabouk
Posté le 10-05-2024 à 17:32:36  profilanswer
 

Ouai avant  les 70 c’était milieu haut. On était minimum en 256 bit
Les 60 c’était le milieu se gamme ….
Aujourd’hui la 70 c’est du milieu la ti la remplacer
 
Mais si il font une 5080 20 24gb je prend 16 c’est trop juste.  
 
Côté prix vous pensez que y aura une grosse augmentation ?

mood
Publicité
Posté le 10-05-2024 à 17:32:36  profilanswer
 

n°11339772
ravenloft
Meilleur jeu du 20ème siècle
Posté le 10-05-2024 à 17:54:28  profilanswer
 

gundamx81 a écrit :

Ouai avant  les 70 c’était milieu haut. On était minimum en 256 bit
Les 60 c’était le milieu se gamme ….
Aujourd’hui la 70 c’est du milieu la ti la remplacer
 
Mais si il font une 5080 20 24gb je prend 16 c’est trop juste.  
 
Côté prix vous pensez que y aura une grosse augmentation ?


Perso je pense que les prix seront similaires.


---------------
Ravenloft
n°11339773
gundamx81
Nicorrabouk
Posté le 10-05-2024 à 18:01:09  profilanswer
 

J’espère les prix sont sacrément haut.

n°11339781
ravenloft
Meilleur jeu du 20ème siècle
Posté le 10-05-2024 à 19:40:36  profilanswer
 

gundamx81 a écrit :

J’espère les prix sont sacrément haut.


oui, c'est pour ça que je doute qu'ils puissent les augmenter encore car à un moment, il y aura bien une limite.
Une fois ils avaient tenté une titan à 3000€, ça avait fait un flop.


---------------
Ravenloft
n°11339792
ElMago31
Posté le 10-05-2024 à 21:45:56  profilanswer
 

petit-tigre a écrit :


Je crois que c'est peine perdue :lol:


 :lol: :lol: :lol:
 
Allez le même en français chez les coupains d’Hardwareandco : https://hardwareand.co/actualites/b [...] -blackwell

n°11339793
gundamx81
Nicorrabouk
Posté le 10-05-2024 à 21:47:45  profilanswer
 

ravenloft a écrit :


oui, c'est pour ça que je doute qu'ils puissent les augmenter encore car à un moment, il y aura bien une limite.
Une fois ils avaient tenté une titan à 3000€, ça avait fait un flop.


 
Bah quand je vois Apple ils ont aucune limite, nvidia c’est une marque un peu à la Apple ( moi je trouve ) .
J’ai peur d’un 2000€  pour une founder

n°11339797
cyberfred
Posté le 10-05-2024 à 22:44:09  profilanswer
 

si je ne me trompe pas , c 'était déjà le cas de la 4090 Fe , au lancement elle était à 1949€  :sweat:  
A voir ce que donnera la future 5090 , j'aimerai que soit en dessous bien entendu mais j'y crois pas trop malheureusement.


Message édité par cyberfred le 10-05-2024 à 22:44:59
n°11339804
$k-flown
Posté le 11-05-2024 à 01:01:46  profilanswer
 

petit-tigre a écrit :

C'est pour ça que t'as acheté une 7900 XT du coup, par geste écolo :D


 
Ça m'a permis de m'en rendre compte par moi-même.  :jap:

n°11339813
Miky 2001
N'y pense même pas !!!
Posté le 11-05-2024 à 08:21:20  profilanswer
 

$k-flown a écrit :


 
Ça m'a permis de m'en rendre compte par moi-même.  :jap:


Un gros UV, quit à perdre en perfs par rapport aux perfs d’origine… jap:

n°11339840
ravenloft
Meilleur jeu du 20ème siècle
Posté le 11-05-2024 à 13:15:23  profilanswer
 

gundamx81 a écrit :


 
Bah quand je vois Apple ils ont aucune limite, nvidia c’est une marque un peu à la Apple ( moi je trouve ) .
J’ai peur d’un 2000€  pour une founder


Pour le moment on est encore très loin d'apple et son marketing. :lol:  
 
 


---------------
Ravenloft
n°11339845
gundamx81
Nicorrabouk
Posté le 11-05-2024 à 14:34:01  profilanswer
 

C’est plus tôt l’aura qu’elle a. Y a beaucoup de fanboy, le PDG… ect ect.  
Mais côté prix on est pas loin de Apple même coté marketing les techno qui sont pas rétro compatible (genre dls).  
On te balance des des up to 200%, des Titan à 3000€ , crée des pénurie…

n°11339847
ravenloft
Meilleur jeu du 20ème siècle
Posté le 11-05-2024 à 15:09:26  profilanswer
 

gundamx81 a écrit :

C’est plus tôt l’aura qu’elle a. Y a beaucoup de fanboy, le PDG… ect ect.
Mais côté prix on est pas loin de Apple même coté marketing les techno qui sont pas rétro compatible (genre dls).

 



Je ne suis pas d'accord. Elle n'a pas l'aura d'apple.

 

Des fanboys, AMd en a autant, suffit de voir le bashing anti nvidia qui a sévit ici sur plusieurs topics depuis 20 ans pour voir que si on juge sur les fanboys, AMd est aussi du apple like ce qui est évidemment faux.

 

Le pdg? Quel rapport avec Apple ? Jensen huang, c'est pas du steve jobs ou son remplaçant où faut tout racheter et qui te vend des produits hors de prix depuis des lustres. Certes Nvidia augmente ses prix mais ils ont pas de concurrence sur le haut de gamme depuis tant d'année.

 

Les technos pas rétro compatibles, ça existe depuis que les cartes graphiques existent et pas que chez nvidia. Te souviens tu du trueform d'ati? du mantle d'amd ? des api proprio des fabricants comme le glide de 3dfx, le CIF d'ati etc? Pourtant nvidia à l'époque n'a pas fait d'api propio car à part le nv1, ils se sont basés directement sur les standards direct3d et opengl.

 

Nvidia profite de sa part de marché très grande pour faire des technos proprios mais nvidia innove car le dlss, il y avait pas de comparable avant. idem pour le gsync. Tout le monde les a copié depuis. C'est pas comme Apple qui fait du propio sans innovation juste pour gagner des sous et de la rétention de client. Alors le proprio c'est pas top pour le consommateur mais ùmalheureusement, le proprio si c'est pour innover, c'est pas la même chose que juste pour rendre captif les clients.
De plus, nvidia ne met pas des bâtons dans les roues des autres pour faire des technos similaires (nvidia n'a jamais empêché l'adaptive sync ni les concurrents du dlss) alors qu'apple fait tout pour que son apple store reste le seul store viable et essaie de contourner les lois de l'UE pour éviter qu'il y ait de la concurrence dans son écosystème. Suffit de voir ce qu'ils ont fait avec epic, juste parce qu'epic voulait passer en dehors de l'apple store.
Nvidia ne fait pas ça.
Or Intel l'a fait dans les années 2000 face à AMd avec les oem et ils ont été puni par la justice.

 

Nvidia utilise les api standards comme directx et opengl/vulkan, ils n'en sont pas à créer leur écosystème fermé sur le marché du particulier et à tout verrouiller comme le fait apple.

 


Citation :

On te balance des des up to 200%, des Titan à 3000€ , crée des pénurie…


Comme beaucoup d'entreprises sur les prix. Intel a bien fait ça pendant une décennie sur les cpus quand amd n'offrait plus rien en face.
Les prix des gpus amd sont proches de ceux d'nvidia à perf similaires.

 

Alors nvidia est bien critiquable sur bien des points comme toute entreprise côté en bourse mais on est très loin d'apple. Quand tu auras une armada de clients qui passeront toute la nuit devant un mag pour être le premier à acheter le dernier gpu comme il se passe pour un iphone ou qui changera de gpu chaque année pour quasi aucune nouveauté comme ceux que font les fans d'apple et qu'nvidia obligera de tout changer, là on pourra en reparler. Pour le moment, on en est très très loin.

 

Message cité 1 fois
Message édité par ravenloft le 11-05-2024 à 15:11:54

---------------
Ravenloft
n°11339850
swissknife​18
Posté le 11-05-2024 à 15:48:43  profilanswer
 

ravenloft a écrit :


Alors nvidia est bien critiquable sur bien des points comme toute entreprise côté en bourse mais on est très loin d'apple.
 
1- Quand tu auras une armada de clients qui passeront toute la nuit devant un mag pour être le premier à acheter le dernier gpu comme il se passe pour un iphone
 
2- qui changera de gpu chaque année pour quasi aucune nouveauté comme ceux que font les fans d'apple
 
3- qu'nvidia obligera de tout changer, là on pourra en reparler.


1- https://www.techradar.com/news/life [...] oss-the-us
 
2- Ce n'est pas encore vraiment le cas mais vu que les gains entre chaque génération sont de plus en plus faibles on n'en est plus très loin :o
 
3- Apparition du DLSS et RTX à partir de la gen 20X0 (seul argument comparé à la gen précédente tellement l'écart de perfs était faible), maintenant le DLSS Frame Generation non compatible avec les cartes de gen inférieure à 40X0 sans raison valable, et ce n'est probablement que le début de ce genre de pratique.
 
J'ajouterai également que même si dans 90% des cas les GPUs AMD sont un meilleur rapport qualité / prix une grande majorité préfère acheter Nvidia juste pour la marque [:spamafote]
 
Bref on se rapproche dangereusement d'Apple.
 
Edit : j'ai également oublié de mentionner la tonne de technos propriétaires Nvidia que la concurrence reprend et améliore par la suite avant de les proposer à tout le monde sans restrictions, même si pour je ne sais quelle raison tu penses que ça n'a rien à voir avec Apple ils font factuellement la même chose :o

Message cité 2 fois
Message édité par swissknife18 le 11-05-2024 à 15:51:23
n°11339851
Amonchakai
Posté le 11-05-2024 à 15:52:06  profilanswer
 


Il y a quand même prescription pour la gen 3000 a cause des mineurs et scalpeurs

n°11339859
ravenloft
Meilleur jeu du 20ème siècle
Posté le 11-05-2024 à 16:52:19  profilanswer
 

swissknife18 a écrit :


1- https://www.techradar.com/news/life [...] oss-the-us

 

2- Ce n'est pas encore vraiment le cas mais vu que les gains entre chaque génération sont de plus en plus faibles on n'en est plus très loin :o

 

3- Apparition du DLSS et RTX à partir de la gen 20X0 (seul argument comparé à la gen précédente tellement l'écart de perfs était faible), maintenant le DLSS Frame Generation non compatible avec les cartes de gen inférieure à 40X0 sans raison valable, et ce n'est probablement que le début de ce genre de pratique.

  



1. Faut pas prendre une exception pour une généralité  :lol:
Si tu me trouves la même chose pour la 4080 et 4090 dans tous les pays du monde parce qu'apple c'est quasi ça du moins dans les gros pays.

 

2. La 4090 démontre le contraire

 

3. RTX ça utilise le standard DXR donc c'est pas une technologie propriétaire. RTX n'est juste qu'un terme marketing mais en aucun cas une techno propriétaire.
Le DLSS est une techno propriétaire mais ça fait déjà 3 générations que ça existe. Pour le dlss 2 et le dlss 3.5 il n'y a pas eu besoin de tout changer alors que chez apple tu aurais du changer depuis bien longtemps.
Concernant le frame generation, le sans raison valable de la limitation arbitraire (les experts comme digital fundry ne sont pas d'accords avec toi par exemple et je préfère les croire qu'un individu lambda qui avance ça sans preuve sauf à ressortir les complots des haters du net), à moins que tu aies des preuves concrètes comme les rumeurs venant des haters anti nvidia, on en reparle.

 
Citation :

J'ajouterai également que même si dans 90% des cas les GPUs AMD sont un meilleur rapport qualité / prix une grande majorité préfère acheter Nvidia juste pour la marque [:spamafote]


Alors c'est ton avis mais pas une réalité si on est factuel.

 
Citation :


Bref on se rapproche dangereusement d'Apple.

 

Edit : j'ai également oublié de mentionner la tonne de technos propriétaires Nvidia que la concurrence reprend et améliore par la suite avant de les proposer à tout le monde sans restrictions, même si pour je ne sais quelle raison tu penses que ça n'a rien à voir avec Apple ils font factuellement la même chose :o


On pourrait parler de la distinction david contre goliath dans le domaine de l’industrie que tu ne maitrises pas visiblement mais, on ne va pas en finir donc je vais éviter et puis ce n'est pas le lieu.

 

Ah des tonnes, pourquoi pas des mégatonnes pendant qu'on y est. :lol:

 

Dis plutôt que tu n'aimes pas nvidia et que tu veux que ça ressemble à apple car tu donnes beaucoup d'arguments de mauvaise foi.

 

On est très loin d'apple factuellement parlant. Je n'aime pas apple depuis que c'est devenu une usine à marketing et à mouton alors qu'à l'époque des premiers powerpc au milieu des années 90, et bien j'étais pas loin de passer sur MAC. J'aime bien AMD et Nvidia même si chacun a ses défauts. On est très loin même pour nvidia d'apple. Même pour intel et pourtant intel a des côtés très détestables. Pour le reste, chacun a le droit d'aimer telle ou telle marque mais c'est pas le lieu. Ici c'est pour parler des prochaines carte d'nvidia, pas pour faire du fanboyisme ou de la guéguerre de cours de récré.

 

Merci de se recentrer sur le sujet. :jap:

Message cité 1 fois
Message édité par ravenloft le 11-05-2024 à 16:53:25

---------------
Ravenloft
n°11339861
$k-flown
Posté le 11-05-2024 à 17:18:21  profilanswer
 

Juste comme ça en passant, mais on peut critiquer certaines pratiques de Nvidia sans être un hater...   :)

n°11339862
havoc_28
Posté le 11-05-2024 à 17:28:05  profilanswer
 

ravenloft a écrit :

Concernant le frame generation, le sans raison valable de la limitation arbitraire (les experts comme digital fundry ne sont pas d'accords avec toi par exemple et je préfère les croire qu'un individu lambda qui avance ça sans preuve sauf à ressortir les complots des haters du net), à moins que tu aies des preuves concrètes comme les rumeurs venant des haters anti nvidia, on en reparle.


 
Nvidia invoque le fait que l'accélération de "l'optical flow" sur Ampère et Turing est trop lent pour être utilisé de manière fiable pour le FG (trop d'artefacts et compagnie). Après AMD a plus ou moins démontré même si pas aussi abouti qu'on pouvait faire du FG sans "optical flow" accéléré. Donc c'est un choix de Nvidia de ne pas fournir le FG sur Turing / Ampere, une version dégradée était tout à fait possible, le gain en perf aurait été moins marqué (histoire de pas engendré trop d'artefact), mais possible.
 
https://developer.download.nvidia.com/images/frame-interpolation-time-1920x1080.jpg
 
https://developer.nvidia.com/optical-flow-sdk


Message édité par havoc_28 le 11-05-2024 à 17:43:37
n°11339865
ravenloft
Meilleur jeu du 20ème siècle
Posté le 11-05-2024 à 18:06:55  profilanswer
 

$k-flown a écrit :

Juste comme ça en passant, mais on peut critiquer certaines pratiques de Nvidia sans être un hater...   :)


Tout à fait mais il y a critiques et critiques. :D

havoc_28 a écrit :

 

Nvidia invoque le fait que l'accélération de "l'optical flow" sur Ampère et Turing est trop lent pour être utilisé de manière fiable pour le FG (trop d'artefacts et compagnie). Après AMD a plus ou moins démontré même si pas aussi abouti qu'on pouvait faire du FG sans "optical flow" accéléré. Donc c'est un choix de Nvidia de ne pas fournir le FG sur Turing / Ampere, une version dégradée était tout à fait possible, le gain en perf aurait été moins marqué (histoire de pas engendré trop d'artefact), mais possible.

 

https://developer.download.nvidia.c [...] 0x1080.jpg

 

https://developer.nvidia.com/optical-flow-sdk


Possible oui mais est-ce que ça aurait fourni un bon résultat? Pas forcément vu les perfs bien meilleurs des parties concernées avec Ada vs turing et ampère. En tout cas affirmer le contraire comme si c'était un fait, ça n'a pas de sens car on ne le sait pas. En tout cas pas moi et je pense personne ici. Je préfère me fier sur les avis de ceux qui s'y connaissent mieux sur ce genre de point technique.

 

Vu le plein de haine qui s'est déversée sur le frame generation lorsque nvidia l'a annoncé avec des fakes frames, c'est de la merde, on nous arnaque avec des faux trucs et tout le toutim, pas certain que ça aurait été mieux avec une version qui aurait potentiellement apporté des petits gains et avec des problèmes de latences et problèmes graphiques.

 

J'aurai bien aimé avoir le frame generation avec ma 2060 mais pas certain que ça aurait fonctionné comme nvidia l'a conçu. J'ai essayé le frame generation d'amd et c'était pas génial mais bon AMD conseille 60 fps au mini donc pas facile avec ma CG pour les jeux l'incorporant.

 


sur internet, le gros problème est que les critiques posées, mesurées avec de vrais arguments appuyant les critiques sont presque toujours submergés par les trolls. C'est triste.

 

Hâte de voir ce que va donner ce qu'a annoncé MS pour rendre standard l'utilisation des upscalers comme le fsr, dlss et xeSS. J'espère que ça va être utilisé et que ça prendra aussi en compte le frame generation d'amd, d'nvidia et celui futur d'intel.

Message cité 1 fois
Message édité par ravenloft le 11-05-2024 à 18:21:53

---------------
Ravenloft
n°11339868
Winpoks
Posté le 11-05-2024 à 18:47:07  profilanswer
 

gundamx81 a écrit :

C’est plus tôt l’aura qu’elle a. Y a beaucoup de fanboy, le PDG… ect ect.  
Mais côté prix on est pas loin de Apple même coté marketing les techno qui sont pas rétro compatible (genre dls).  
On te balance des des up to 200%, des Titan à 3000€ , crée des pénurie…


 
Le coup du DLSS pas totalement compatible avec les générations précédentes, alors qu’AMD le fait bien avec toutes les cartes. Ça va pas me faire forcément passer sur AMD, mais j’y jetterai un œil, surtout que c’est pris en charge pour les produits Adobe depuis quelques temps maintenant.

n°11339872
Snev
Posté le 11-05-2024 à 20:01:05  profilanswer
 

$k-flown a écrit :

Juste comme ça en passant, mais on peut critiquer certaines pratiques de Nvidia sans être un hater...   :)


Ou dire du bien d'Apple sans être fanboy.
 
ça escalade vite ici dis donc...

n°11339875
gundamx81
Nicorrabouk
Posté le 11-05-2024 à 20:22:06  profilanswer
 

$k-flown a écrit :

Juste comme ça en passant, mais on peut critiquer certaines pratiques de Nvidia sans être un hater...   :)


 
Je crois pas .  Les gens défendent corps et âme une entreprise milliardaire qui nous chie dessus. C’est valable pour amd ce que je dis …

Message cité 2 fois
Message édité par gundamx81 le 11-05-2024 à 20:26:17
n°11339876
havoc_28
Posté le 11-05-2024 à 20:22:09  profilanswer
 

ravenloft a écrit :


Possible oui mais est-ce que ça aurait fourni un bon résultat? Pas forcément vu les perfs bien meilleurs des parties concernées avec Ada vs turing et ampère. En tout cas affirmer le contraire comme si c'était un fait, ça n'a pas de sens car on ne le sait pas. En tout cas pas moi et je pense personne ici. Je préfère me fier sur les avis de ceux qui s'y connaissent mieux sur ce genre de point technique.


 
Le DLSS 1.0 quand il est sortie était clairement perfectible (on peut même dire qu'il y a encore de la marge de progression avec les variantes actuelles, même si c'est clairement plus abouti). Donc par le passé Nvidia a déjà sorti des techs pas spécialement abouti donc le FG à la limite ça aurait pu également sortir sur RTX 2000/3000 avec un petit "warning" en disant que c'est moins bien sur Turing / Ampère pour des raisons techniques.  
 

ravenloft a écrit :


Vu le plein de haine qui s'est déversée sur le frame generation lorsque nvidia l'a annoncé avec des fakes frames, c'est de la merde, on nous arnaque avec des faux trucs et tout le toutim, pas certain que ça aurait été mieux avec une version qui aurait potentiellement apporté des petits gains et avec des problèmes de latences et problèmes graphiques.


 
Le FG c'est clairement pas pour tout le monde, c'est bien plus clivant que le DLSS (2.x), bref ça reste une option pour les gens qui disposent du matériel compatible, ils testent et ils voient s'ils aiment ou pas (comme pour n'importe quel tech de la famille DLSS en soit). Donc oui y a des gens qui ont clairement pas aimé, le DLSS 2.x a apporté ce que le DLSS devait être à la base, le RayReconstruction (DLSS 3.5), globalement aussi est bénéfique, mais à nouveau le FG c'est pas universel, sur une 4060 ... mouais, alors que le DLSS 2.x ou le RR 4060 ou 4090 c'est en général positif.  
 

ravenloft a écrit :


J'aurai bien aimé avoir le frame generation avec ma 2060 mais pas certain que ça aurait fonctionné comme nvidia l'a conçu. J'ai essayé le frame generation d'amd et c'était pas génial mais bon AMD conseille 60 fps au mini donc pas facile avec ma CG pour les jeux l'incorporant.


 
Sur certains jeux le FG d'AMD fonctionne assez correctement, pas le cas de tous, mais des fois il fait illusion, après le FG de Nvidia, si t'as pas 60 FPS mini, c'est pas non plus top en fonction de la sensibilité à l'input lag etc.
 

ravenloft a écrit :

sur internet, le gros problème est que les critiques posées, mesurées avec de vrais arguments appuyant les critiques sont presque toujours submergés par les trolls. C'est triste.


 
C'est des deux cotés, entre les trolls qui bashent une tech, ou la glorifient sans aucune critique possible ...
 

ravenloft a écrit :


Hâte de voir ce que va donner ce qu'a annoncé MS pour rendre standard l'utilisation des upscalers comme le fsr, dlss et xeSS. J'espère que ça va être utilisé et que ça prendra aussi en compte le frame generation d'amd, d'nvidia et celui futur d'intel.


 
MS ? ... Je ne sais pas, si c'est bien tant mieux, mais perso je préfère ne rien attendre d'eux, ces dernières années, les promesses sont très loin d'être tenues.  Les merveilles de DX12 ? "C'est la faute aux dev" savent pas l'utiliser :o. Le direct storage ? Toujours rien de très très convainquant. Ok pour tous ça M$ est pas tout seul mais globalement c'est pas trop trop ça ses dernières années.  

n°11339879
ravenloft
Meilleur jeu du 20ème siècle
Posté le 11-05-2024 à 21:02:58  profilanswer
 

gundamx81 a écrit :


 
Je crois pas .  Les gens défendent corps et âme une entreprise milliardaire qui nous chie dessus. C’est valable pour amd ce que je dis …


 :??:  
 
 
Tout le monde n'est pas juste un hater primaire, certains sont réfléchis. Oui ça existe :D


---------------
Ravenloft
n°11339882
Scrabble
Posté le 11-05-2024 à 21:19:53  profilanswer
 

gundamx81 a écrit :

C’est plus tôt l’aura qu’elle a. Y a beaucoup de fanboy, le PDG… ect ect.  
Mais côté prix on est pas loin de Apple même coté marketing les techno qui sont pas rétro compatible (genre dls).  
On te balance des des up to 200%, des Titan à 3000€ , crée des pénurie…


Sur le haut de gamme GPU gamer, Nvidia est en situation de monopole, donc ils peuvent presque tout se permettre
Mais même eux ils vont tôt ou tard être victimes du rétrécissement du marché du hardware PC
Pour l'instant ils sont sur un nuage avec la bulle de l'I.A., mais ca va pas durer

n°11339883
ravenloft
Meilleur jeu du 20ème siècle
Posté le 11-05-2024 à 21:23:55  profilanswer
 

havoc_28 a écrit :


 
Le DLSS 1.0 quand il est sortie était clairement perfectible (on peut même dire qu'il y a encore de la marge de progression avec les variantes actuelles, même si c'est clairement plus abouti). Donc par le passé Nvidia a déjà sorti des techs pas spécialement abouti donc le FG à la limite ça aurait pu également sortir sur RTX 2000/3000 avec un petit "warning" en disant que c'est moins bien sur Turing / Ampère pour des raisons techniques.  


Nvidia s'est fait fortement moqué avec le dlss 1 entre le fait que ça soit pas dispo sur les pascal et la mauvaise qualité avec du flou. ils avaient pas forcément envie de reproduire la même chose.
 

havoc_28 a écrit :


 
Le FG c'est clairement pas pour tout le monde, c'est bien plus clivant que le DLSS (2.x), bref ça reste une option pour les gens qui disposent du matériel compatible, ils testent et ils voient s'ils aiment ou pas (comme pour n'importe quel tech de la famille DLSS en soit). Donc oui y a des gens qui ont clairement pas aimé, le DLSS 2.x a apporté ce que le DLSS devait être à la base, le RayReconstruction (DLSS 3.5), globalement aussi est bénéfique, mais à nouveau le FG c'est pas universel, sur une 4060 ... mouais, alors que le DLSS 2.x ou le RR 4060 ou 4090 c'est en général positif.  


Comme le dlss 2 sur 2060, ça apporte pas forcément beaucoup. La 4060 est peut être pas forcément la plus adaptée au frame generation.
 
 

havoc_28 a écrit :


 
Sur certains jeux le FG d'AMD fonctionne assez correctement, pas le cas de tous, mais des fois il fait illusion, après le FG de Nvidia, si t'as pas 60 FPS mini, c'est pas non plus top en fonction de la sensibilité à l'input lag etc.


Nvidia a reflex alors qu'amd n'a pas d'équivalent sauf pour ceux qui ont une rdna 3, la aussi AMD a limité sa meilleure solution aux dernière cartes. Pour quelle raison? Je ne sais pas.
 
Je n'ai pas dit que le FG d'amd était nul. C'est comme le FSR 2, c'est bien mais pas au même niveau. Peut être que les rumeurs d'utilisation d'une solution hardware à base de tensor cores like pour le FSR 4 avec rdna 4 permettra à AMD de revenir au niveau.
 

havoc_28 a écrit :


 
C'est des deux cotés, entre les trolls qui bashent une tech, ou la glorifient sans aucune critique possible ...
 


Les trolls c'est dans les 2 sens malheureusement. Entre les haters et les fanboys, on n'est pas sortit de l'auberge. :(  
 
 

havoc_28 a écrit :


MS ? ... Je ne sais pas, si c'est bien tant mieux, mais perso je préfère ne rien attendre d'eux, ces dernières années, les promesses sont très loin d'être tenues.  Les merveilles de DX12 ? "C'est la faute aux dev" savent pas l'utiliser :o. Le direct storage ? Toujours rien de très très convainquant. Ok pour tous ça M$ est pas tout seul mais globalement c'est pas trop trop ça ses dernières années.  


MS fait beaucoup de conneries depuis très longtemps que ce soit avec ses studios de jeux (Access software (links et tex murphy), Lionhead (Balck&white, the movies et Fable), Ensemble (age of empires), Aces game studio (les FS entre 1999 et 2010)) , directx (qui se souvient des directx 1,2 et 3 absolument nuls?), windows (ME, vista, 8, les interfaces qui changent au gré du vent etc). Par contre, standardiser notamment avec une api standard ça peut qu'aller dans le bon sens.
 


---------------
Ravenloft
n°11339888
havoc_28
Posté le 11-05-2024 à 21:44:31  profilanswer
 

ravenloft a écrit :

Nvidia s'est fait fortement moqué avec le dlss 1 entre le fait que ça soit pas dispo sur les pascal et la mauvaise qualité avec du flou. ils avaient pas forcément envie de reproduire la même chose.


 
C'est un choix, pas de FG du tout pour Turing / Ampère, ou utiliser le FG sauce AMD ou rien après Nvidia a jugé que cette fois pour avoir une expérience homogène, uniquement dispos sur ADA et ultérieur, y a une logique derrière oui après à chacun de juger de la pertinence ou non de ce choix.  
 

ravenloft a écrit :

Comme le dlss 2 sur 2060, ça apporte pas forcément beaucoup. La 4060 est peut être pas forcément la plus adaptée au frame generation.


 
Genre le DLSS ne sert à rien sur une 2060, 20/25 % de perf en plus (un peu moins parfois), plus d'autres, mais le DLSS 2.x que ce soit sur le bas de gamme ou le haut de gamme ça apporte des gains exploitables, le FG si tu pars de trop bas, c'est désagréable au possible. Le DLSS 2.x même si tu pars d'assez bas, tu te retrouves pas avec un un input lag dégueulasse, t'as des FPS en plus et c'est tout. Après si suffisant ou non ça dépendra de chacun.  
 

ravenloft a écrit :


Nvidia a reflex alors qu'amd n'a pas d'équivalent sauf pour ceux qui ont une rdna 3, la aussi AMD a limité sa meilleure solution aux dernière cartes. Pour quelle raison? Je ne sais pas.


 
Si ? Anti Lag et Anti Lag +, c'est cette dernière qui n'est disponible que sur RNDA 3. Après on peut dire qu'Anti Lag classique n'est pas aussi bien que Reflex, mais c'est mieux que rien du tout, y a pas de contre partie.  
 

ravenloft a écrit :

Je n'ai pas dit que le FG d'amd était nul. C'est comme le FSR 2, c'est bien mais pas au même niveau. Peut être que les rumeurs d'utilisation d'une solution hardware à base de tensor cores like pour le FSR 4 avec rdna 4 permettra à AMD de revenir au niveau.


 
Quand le FG est sortie sur  forspoken c'était de la merde, après comme pour le FSR, souvent c'est relativement distant du DLSS, mais sur certains titres ça fait illusion genre le Ubisoft avec les géants bleus la.  
 

ravenloft a écrit :


Les trolls c'est dans les 2 sens malheureusement. Entre les haters et les fanboys, on n'est pas sortit de l'auberge. :(


 
ça fait parti du jeu :o. ça peut être assez comique des fois.  
 

ravenloft a écrit :


MS fait beaucoup de conneries depuis très longtemps que ce soit avec ses studios de jeux (Access software (links et tex murphy), Lionhead (Balck&white, the movies et Fable), Ensemble (age of empires), Aces game studio (les FS entre 1999 et 2010)) , directx (qui se souvient des directx 1,2 et 3 absolument nuls?), windows (ME, vista, 8, les interfaces qui changent au gré du vent etc). Par contre, standardiser notamment avec une api standard ça peut qu'aller dans le bon sens.


 
Vista a eut des début difficiles, juste trop gourmand pour son époque, mais après le SP1/SP2 et avec une machine un minimum musclé c'était très exploitable, après tout Windows 7 n'est qu'un SP3 de Vista si on veut. Après récemment la gestion des studios est assez calamiteuses etc. Les premiers Directx X n'étaient clairement pas à a hauteur, mais MS a bien progressé de coté, mais maintenant je préfère attendre que me faire un quelconque espoir.

n°11339889
ravenloft
Meilleur jeu du 20ème siècle
Posté le 11-05-2024 à 21:55:23  profilanswer
 

havoc_28 a écrit :


 
C'est un choix, pas de FG du tout pour Turing / Ampère, ou utiliser le FG sauce AMD ou rien après Nvidia a jugé que cette fois pour avoir une expérience homogène, uniquement dispos sur ADA et ultérieur, y a une logique derrière oui après à chacun de juger de la pertinence ou non de ce choix.  
 


Peut être qu'nvidia aurait pu dev un FG basé sur les cores classiques mais leur but était d'utiliser les puces destinées à l'accélération de ce type de calculs.
Ils auraient pu faire comme intel mais on voit que sur intel pour le xess, la qualité est meilleure avec l'accélération dédiée que par les cores classiques.
 

havoc_28 a écrit :


 
Genre le DLSS ne sert à rien sur une 2060, 20/25 % de perf en plus (un peu moins parfois), plus d'autres, mais le DLSS 2.x que ce soit sur le bas de gamme ou le haut de gamme ça apporte des gains exploitables, le FG si tu pars de trop bas, c'est désagréable au possible. Le DLSS 2.x même si tu pars d'assez bas, tu te retrouves pas avec un un input lag dégueulasse, t'as des FPS en plus et c'est tout. Après si suffisant ou non ça dépendra de chacun.  


J'ai une 2060 et parfois ça apporte pas beaucoup. En tout cas ça rend pas un jeu limite bien plus jouable mais faut dire que je la pousse ma petite 2060 ayant un écran 1440p.
 

havoc_28 a écrit :


 
Si ? Anti Lag et Anti Lag +, c'est cette dernière qui n'est disponible que sur RNDA 3. Après on peut dire qu'Anti Lag classique n'est pas aussi bien que Reflex, mais c'est mieux que rien du tout, y a pas de contre partie.  


Anti lag pour avoir vu des tests, c'est loin de reflex niveau gain en latence. Seul antilag + peut concurrencer reflex.
 

havoc_28 a écrit :


 
Quand le FG est sortie sur  forspoken c'était de la merde, après comme pour le FSR, souvent c'est relativement distant du DLSS, mais sur certains titres ça fait illusion genre le Ubisoft avec les géants bleus la.  
 


 

havoc_28 a écrit :


 
ça fait parti du jeu :o. ça peut être assez comique des fois.  


Mais c'est souvent désolant car ça pourrit les débats et les topics
 

havoc_28 a écrit :


 
Vista a eut des début difficiles, juste trop gourmand pour son époque, mais après le SP1/SP2 et avec une machine un minimum musclé c'était très exploitable, après tout Windows 7 n'est qu'un SP3 de Vista si on veut. Après récemment la gestion des studios est assez calamiteuses etc. Les premiers Directx X n'étaient clairement pas à a hauteur, mais MS a bien progressé de coté, mais maintenant je préfère attendre que me faire un quelconque espoir.


Pour avoir un pc portable de 2008 avec vista sp2, je peux te dire que c'est pas génial surtout avec un disque dur. Tu dois attendre un certain temps avant d'avoir vraiment la main ce qui n'était pas le cas avec xp.
Sous windows 7 comme je suis passé au SSD, il y avait plus ce problème.
L'UAC dans vista c'est une horreur si tu le désactives pas. Dans windows 7, c'est moins intrusif.
 
Vista pour jouer, avec l'interface aero, ça posait des problèmes avec certains anciens jeux de l'époque xp. Pareil avec win 7 aussi. Limite c'est bien qu'aero ait disparu car win10 n'a plus ce problème.
 
 
Au passage même si c'est hors sujet, une rumeur est que rdna 5 partirait sur une toute nouvelle archi donc peut être qu'amd va se mettre à quelque chose de plus proche de ce que fait nvidia et intel
https://wccftech.com/amd-rdna-5-com [...] y-tracing/
 
Cela pourrait expliquer aussi pourquoi rdna 4 a été sacrifié et vu que rdna 5 devrait être utilisé sur la ps6 et xbox 5, amd semble tout mettre là dessus. J'espère qu'ils réussiront à concurrencer nvidia sur le plan des perfs RT et raster et sur les ajouts (dlss like, denoiser like etc) et pas que cette puce soit faite juste pour les consoles.

Message cité 1 fois
Message édité par ravenloft le 11-05-2024 à 22:08:09

---------------
Ravenloft
n°11339903
ddlabrague​tte
Posté le 12-05-2024 à 03:17:57  profilanswer
 

gundamx81 a écrit :


 
Je crois pas . Les gens défendent corps et âme une entreprise milliardaire qui nous chie dessus. C’est valable pour amd ce que je dis …


Certains oui, mais " les gens " non  [:michel_cymerde:7]

n°11339913
john_tgv
#LaurentCambon2027 ♥♥♥
Posté le 12-05-2024 à 10:05:56  profilanswer
 

Amonchakai a écrit :


Il y a quand même prescription pour la gen 3000 a cause des mineurs et scalpeurs


Qui seront remplacé par les besoins en IA et les limitations douanières pour les 50X0. [:spamafoote]


---------------
P'tit tigrou déguisé en Quasi-modo => kiM.arc toulousaine en cours d'orga <= "Elton john du 13/9/1980" dixit zephiel...
n°11339940
havoc_28
Posté le 12-05-2024 à 15:43:56  profilanswer
 

ravenloft a écrit :


Peut être qu'nvidia aurait pu dev un FG basé sur les cores classiques mais leur but était d'utiliser les puces destinées à l'accélération de ce type de calculs.
Ils auraient pu faire comme intel mais on voit que sur intel pour le xess, la qualité est meilleure avec l'accélération dédiée que par les cores classiques.


 
Comme il y a eut une variante du DLSS non accéléré via les Tensore Core. Nvidia a surement expérimenté un FG sans les optimisations du "optical flow" mais a jugé qu'Ampère et Turing ne donnait pas satisfaction à ce niveau.  
 

ravenloft a écrit :

J'ai une 2060 et parfois ça apporte pas beaucoup. En tout cas ça rend pas un jeu limite bien plus jouable mais faut dire que je la pousse ma petite 2060 ayant un écran 1440p.


 
Le DLSS 2.x ne sauve pas forcément la situation, mais y a pas de "contre indication" comme partir d'un nombre de FPS suffisamment élevé (plus ou moins en fonction du jeu et de la sensibilité du joueur à l'input lag).  
 

ravenloft a écrit :

Anti lag pour avoir vu des tests, c'est loin de reflex niveau gain en latence. Seul antilag + peut concurrencer reflex.


 
Oui, mais Anti Lag existe et c'est mieux que rien du tout. Tu as un petit gain niveau temps de réponse tout de même, antilag + lui peut se targuer d'être dans les eaux de Reflex, et même si Anti Lag n'est pas au niveau il apporte un petit quelque chose.
 
 

ravenloft a écrit :


Pour avoir un pc portable de 2008 avec vista sp2, je peux te dire que c'est pas génial surtout avec un disque dur. Tu dois attendre un certain temps avant d'avoir vraiment la main ce qui n'était pas le cas avec xp.
Sous windows 7 comme je suis passé au SSD, il y avait plus ce problème.
L'UAC dans vista c'est une horreur si tu le désactives pas. Dans windows 7, c'est moins intrusif.
 
Vista pour jouer, avec l'interface aero, ça posait des problèmes avec certains anciens jeux de l'époque xp. Pareil avec win 7 aussi. Limite c'est bien qu'aero ait disparu car win10 n'a plus ce problème.


 
AERO pouvait se désactiver si problématique, sur une machine type Core 2 avec suffisamment de ram (8 go de ram sur ma machine de l'époque) et avec un SSD c'était plaisant, l'UAC un peu trop agressif mais passable (enfin pour moi à l'époque :o). Windows 7 est venu parfaire la chose, mais à nouveau windows 7 a énormément bénéficié du travail fait sur Vista et 7 pour moi à nouveau est plus un SP3 qu'un nouvel OS. Certains diront le meilleur OS de MS, mais c'est un peu grâce à Vista.  
 

ravenloft a écrit :


Au passage même si c'est hors sujet, une rumeur est que rdna 5 partirait sur une toute nouvelle archi donc peut être qu'amd va se mettre à quelque chose de plus proche de ce que fait nvidia et intel
https://wccftech.com/amd-rdna-5-com [...] y-tracing/
 
Cela pourrait expliquer aussi pourquoi rdna 4 a été sacrifié et vu que rdna 5 devrait être utilisé sur la ps6 et xbox 5, amd semble tout mettre là dessus. J'espère qu'ils réussiront à concurrencer nvidia sur le plan des perfs RT et raster et sur les ajouts (dlss like, denoiser like etc) et pas que cette puce soit faite juste pour les consoles.


 
Je suis pas spécialement convaincu.
Ils ont déjà XDN2 de prêt, y a le PSSR de Sony pour la PS5 PRO qui semble impliqué déjà un upscaler accéléré via apprentissage machine, donc attendre encore 2 ans et demi pour RDNA 5, et RDNA 4 c'est juste un correctif de RNDA 3 + RT amélioré ? Y a déjà une architecture RNDA 3 + qui répondrait à ça.  
A nouveau RDNA 4, je pense que la rumeur de l'architecture à Chiplet posant problème est plus logique.  

n°11339945
PSX86
ZeroAndOne
Posté le 12-05-2024 à 16:44:02  profilanswer
 

Si Nvidia n'avais pas Cuda je serais retourner chez les Rouges. Si le support en général de ROCm s'améliore je pourrais tout aussi bien retourner chez AMD. Donc Nvidia a un soft power assez fort quand même avec l'IA. Par certains côtés personnellement j'admet qu'il y a une approche à la Apple avec genre produits 'smart' et 'chères' chez Nvidia même si c'est pas autant clivant que Apple. Nvidia a bien fait de miser sur le software (pour eux hein, pas pour le consommateur), ils ont des milliers d'ingénieurs qui pondent du code.

Message cité 1 fois
Message édité par PSX86 le 12-05-2024 à 17:01:54
n°11339946
gundamx81
Nicorrabouk
Posté le 12-05-2024 à 17:09:55  profilanswer
 

PSX86 a écrit :

Si Nvidia n'avais pas Cuda je serais retourner chez les Rouges. Si le support en général de ROCm s'améliore je pourrais tout aussi bien retourner chez AMD. Donc Nvidia a un soft power assez fort quand même avec l'IA. Par certains côtés personnellement j'admet qu'il y a une approche à la Apple avec genre produits 'smart' et 'chères' chez Nvidia même si c'est pas autant clivant que Apple. Nvidia a bien fait de miser sur le software (pour eux hein, pas pour le consommateur), ils ont des milliers d'ingénieurs qui pondent du code.


 
Attention a ce que tu dis sur nvidia , vas y doucement.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  19  20  21  ..  608  609  610  611  612  613

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)