Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2192 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  74  75  76  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10793137
ben shinob​i
Posté le 16-07-2020 à 17:48:14  profilanswer
 

Reprise du message précédent :

cyberfred a écrit :


 
je viens de voir  aussi , ils sont sérieux là avec leur nouveau connecteur 12 broches  :(  
il faut espérer qu'il y ait des adaptateurs fournis avec la carte si c'est pas un fake.


 
tu peux brancher 2x6 dessus...c'est écrit dans l'article.

mood
Publicité
Posté le 16-07-2020 à 17:48:14  profilanswer
 

n°10793150
zouaf
Posté le 16-07-2020 à 18:00:18  profilanswer
 

ben shinobi a écrit :


 
tu peux brancher 2x6 dessus...c'est écrit dans l'article.


 
Avec un adaptateur..
Dans le cadre maj de l'article, il est dit: "Un adaptateur sera indispensable pour relier deux câbles 6 broches et ainsi former un câble 12 broches"
 
J'ai pensé la même chose que toi avant de tomber sur l'encart.


Message édité par zouaf le 16-07-2020 à 18:03:44
n°10793155
Tolrahc
Posté le 16-07-2020 à 18:10:25  profilanswer
 

ben shinobi a écrit :


 
tu peux brancher 2x6 dessus...c'est écrit dans l'article.


 
Ca se voit bien à la tronche du 12broches que c'est absolument pas le même que ceux des 6 broches.
Aucune chance qu'un cable d'alim classique 2x6 rentre là dedans.

n°10793158
Feitan21
Posté le 16-07-2020 à 18:18:52  profilanswer
 

Dans l'article de TPU c'est expliqué clairement :
 

Citation :

Looking at the keying, we can see that it will not be possible to connect two classic six-pins to it. For example pin 1 is square on the PCIe 6-pin, but on NVIDIA's 12-pin is has one corner angled. It also won't be possible to use weird combinations like 8-pin + EPS 4 pin, or similar—NVIDIA made sure people won't be able to connect their cables the wrong way.


 
Après si il est inclus avec le GPU c'est correct. Je vois peu de raison de le perdre, et sa durée de vie sera supérieur à celui du GPU

n°10793161
Invite_Sur​prise
Racaille de Shanghaï
Posté le 16-07-2020 à 18:33:31  profilanswer
 

ppn7 a écrit :

Dernier point concernant le DLSS, je suis dubitatif avec Death Stranding, les 2 articles que j'ai lu, parlaient du Fixdelity FX et CAS de AMD, qui soi-disant ferait des miracles en terme de rendu performance, à n'en pas rougir face au DLSS.
Je suis curieux de voir les tests, et l'implantation du dispositif (le résultat serait-il aussi constant que le DLSS ?)


 

Citation :

Unlike DLSS 2.0, FidelityFX works on an AMD and an Nvidia graphics card regardless of the manufacturer. The end result delivers decent results, but looks consistently worse than the native resolution. In particular, the geometry is less smoothed, which visibly increases the restlessness in the image. In addition, the graphics become minimally blurred, which can be changed by sharpening more, but the graphics flicker accordingly even more afterwards. When hunting for more FPS, the use of FidelityFX makes more sense than reducing the graphics presets. However, the technology in the game cannot match the high level of DLSS.


 

Citation :

Nvidia's AI upscaling, which is only available on GeForce RTX, delivers a better image than the native resolution in the quality setting without generating annoying graphics errors. There is also a decent performance boost.
 
AMD's FidelityFX, which is also integrated in the game, brings a comparable FPS gain, but cannot keep up with the quality of DLSS. Should DLSS 2.0 perform similarly well in other games - be it with or without ray tracing - AMD will have to react in order to remain competitive. It remains to be seen how the technology and its implementation in games will develop in the short, medium and long term.


 
http://www.computerbase.de/2020-07 [...] s_20_heran

n°10793178
cyberfred
Posté le 16-07-2020 à 19:02:06  profilanswer
 

ben shinobi a écrit :


 
tu peux brancher 2x6 dessus...c'est écrit dans l'article.


 
+1 avec Zouaf , moi aussi sur le moment je me suis dit qu'on pourrait brancher diretement du 2*6 broches mais apparement il faut bien un adaptateur si on regarde le schéma  (comme le dit la citation de Feitan21).
j'espère aussi que l'adaptateur sera fourni ; enfin logiquement je me dis que ca devrait être le cas car il n'y a de toute façon aucune alim actuelle qui propose un tel connecteur.


Message édité par cyberfred le 16-07-2020 à 19:06:10
n°10793395
obduction
Posté le 17-07-2020 à 11:41:56  profilanswer
 


Qu'est-ce qui est casse couille? :heink:  
 
C'est un nouveau connecteur mais il y aura un adaptateur inclus avec les cartes.
 
Tu crois sérieusement qu'nvidia va vendre des gpus que personne pourra utiliser faute d'alim ayant ce connecteur ? Evidemment que non.
 
Ce connecteur semble nécessaire pour alimenter les nouvelles cartes graphiques mais les alims du marché seront toutes compatibles avec ces cartes, tu peux en être plus que certain.

n°10793397
obduction
Posté le 17-07-2020 à 11:44:19  profilanswer
 

ppn7 a écrit :


Dernier point concernant le DLSS, je suis dubitatif avec Death Stranding, les 2 articles que j'ai lu, parlaient du Fixdelity FX et CAS de AMD, qui soi-disant ferait des miracles en terme de rendu performance, à n'en pas rougir face au DLSS.
Je suis curieux de voir les tests, et l'implantation du dispositif (le résultat serait-il aussi constant que le DLSS ?)


En terme de perf oui, il semble que l'apport soit similaire mais en terme de rendu non. Tous les tests qui ont testé la qualité graphique disent que le fidelity FX provoque des artefacts contrairement au dlss 2.

lecas a écrit :

 

Peut-être, mais ça sera vraisemblablement une version aboutie qui torche en 5 nm.


Et tu diras la même chose avec le successeur de hopper qui poutrera en 3nm. :D

 
Citation :

Mon but de toute façon c'est une carte compatible au max avec le HDMI 2.1...


Il y aura ampère et RDNA 2 pour ça, pas besoin d'attendre hopper.

Message cité 1 fois
Message édité par obduction le 17-07-2020 à 11:47:03
n°10793417
ppn7
Posté le 17-07-2020 à 12:49:29  profilanswer
 

obduction a écrit :


En terme de perf oui, il semble que l'apport soit similaire mais en terme de rendu non. Tous les tests qui ont testé la qualité graphique disent que le fidelity FX provoque des artefacts contrairement au dlss 2.


 
Je sais pas pourquoi mais lui dans sa vidéo il a des artefacts avec le DLSS en 1440p. Je sais pas ce que ça donne avec le fidelity FX mais aucun test n’en a fait mention. Apparemment en 4K ça doit pas être le cas mais j’avoue que pour du 1440p ou 1080p j’aurais bien aimé des tests plus poussés.  
 
 
https://youtu.be/OEAh3hU00s4

n°10793419
Invite_Sur​prise
Racaille de Shanghaï
Posté le 17-07-2020 à 12:55:19  profilanswer
 

Dans le test de ComputerBase, le rendu de Fidelity FX est particulièrement dégueulasse comparé au DLSS et même au rendu original.

mood
Publicité
Posté le 17-07-2020 à 12:55:19  profilanswer
 

n°10793430
obduction
Posté le 17-07-2020 à 13:28:28  profilanswer
 

ppn7 a écrit :

 

Je sais pas pourquoi mais lui dans sa vidéo il a des artefacts avec le DLSS en 1440p. Je sais pas ce que ça donne avec le fidelity FX mais aucun test n’en a fait mention. Apparemment en 4K ça doit pas être le cas mais j’avoue que pour du 1440p ou 1080p j’aurais bien aimé des tests plus poussés.

 


https://youtu.be/OEAh3hU00s4


Si j'étais toi, je me concentrerais sur des tests sérieux comme ceux de Techpowerup, guru3d ou digital fundry et pas des vidéos issus de random sur youtube qui peuvent t'arnaquer facilement et raconter n'importe quoi juste pour faire du click. Sur youtube, tu en as qui ont rien à faire de leur vie que truquer des vidéos ou faire croire que les problèmes viennent de quelque chose pour dénigrer ce quelque chose alors qu'ils viennent d'autre chose. Du coup, niveau crédibilité, ça reste très variable et vaut mieux se concentrer sur des sites sérieux dont tu sais qu'ils ne tricheront pas.
Je me souviens encore de la sortie de windows 10 avec des vidéos de random qui te montraient que sur windows 10, tu gagnais 20 ou 30 fps dans certains jeux connus et évidemment, ce fut un mensonge total. C'est qu'un exemple parmi les centaines au minimum que tu peux trouver.

 


Citation :

Je sais pas ce que ça donne avec le fidelity FX mais aucun test n’en a fait mention


Pourtant si, la plupart des tests que j'ai vu en parlent et ont comparé le dlss et l'upscaling d'AMD. Tu as sans doute mal cherché car pas au bon endroit. Faut vraiment que tu bannisses youtube au départ si c'est là que tu vas chercher des infos en premier ou alors faut immédiatement recouper ça avec des tests sérieux.

Message cité 2 fois
Message édité par obduction le 17-07-2020 à 13:31:37
n°10793457
Invite_Sur​prise
Racaille de Shanghaï
Posté le 17-07-2020 à 14:21:40  profilanswer
 

40% de perfs en + pour un rendu supérieur à celui d'origine, c'est plutôt impressionnant, ça commence à causer.

n°10793463
Xixou2
Posté le 17-07-2020 à 14:38:44  profilanswer
 

obduction a écrit :


Qu'est-ce qui est casse couille? :heink:  
 
C'est un nouveau connecteur mais il y aura un adaptateur inclus avec les cartes.
 
Tu crois sérieusement qu'nvidia va vendre des gpus que personne pourra utiliser faute d'alim ayant ce connecteur ? Evidemment que non.
 
Ce connecteur semble nécessaire pour alimenter les nouvelles cartes graphiques mais les alims du marché seront toutes compatibles avec ces cartes, tu peux en être plus que certain.


 
Tout à fait, mais pourquoi Nvidia demandes ça? Une paire de 8x ou 6x ferait exactement la même chose ..

n°10793464
obduction
Posté le 17-07-2020 à 14:44:12  profilanswer
 

Xixou2 a écrit :

 

Tout à fait, mais pourquoi Nvidia demandes ça? Une paire de 8x ou 6x ferait exactement la même chose ..


Parce qu'il y a surement plusieurs raisons:
-être future proof pour les nouvelles alims embarquant ce futur peut être standard. quel intérêt de ne pas l'être si tu es rétrocompatible. C'est comme les gpus qui ont exploité en premier le pcie3, le pcie2, le pcie1, cela ne leur servait à rien mais c'était future proof tout simplement.
- peut être avoir besoin de plus de watts et ce connecteur peut être essentiel
- raison de cout car peut être que ça coute moins chère que 2 connecteurs 8 et 6
- d'autres raisons qu'on ne connait pas.

 

En tout cas, cela ne sert à rien de critiquer pour rien. La critique n'aurait de valeur uniquement si c'était incompatible avec les alims actuelles mais ça ne sera pas le cas car nvidia n'est pas suicidaire à ce point. Nouveau connecteur ou pas, tant que c'est compatible avec nos alims actuelles, il n'y aucune raison de s'en soucier et de critiquer.

Message cité 1 fois
Message édité par obduction le 17-07-2020 à 14:45:50
n°10793475
ppn7
Posté le 17-07-2020 à 15:38:55  profilanswer
 

obduction a écrit :


Si j'étais toi, je me concentrerais sur des tests sérieux comme ceux de Techpowerup, guru3d ou digital fundry et pas des vidéos issus de random sur youtube qui peuvent t'arnaquer facilement et raconter n'importe quoi juste pour faire du click. Sur youtube, tu en as qui ont rien à faire de leur vie que truquer des vidéos ou faire croire que les problèmes viennent de quelque chose pour dénigrer ce quelque chose alors qu'ils viennent d'autre chose. Du coup, niveau crédibilité, ça reste très variable et vaut mieux se concentrer sur des sites sérieux dont tu sais qu'ils ne tricheront pas.
Je me souviens encore de la sortie de windows 10 avec des vidéos de random qui te montraient que sur windows 10, tu gagnais 20 ou 30 fps dans certains jeux connus et évidemment, ce fut un mensonge total. C'est qu'un exemple parmi les centaines au minimum que tu peux trouver.
 
 

Citation :

Je sais pas ce que ça donne avec le fidelity FX mais aucun test n’en a fait mention


Pourtant si, la plupart des tests que j'ai vu en parlent et ont comparé le dlss et l'upscaling d'AMD. Tu as sans doute mal cherché car pas au bon endroit. Faut vraiment que tu bannisses youtube au départ si c'est là que tu vas chercher des infos en premier ou alors faut immédiatement recouper ça avec des tests sérieux.


 
J’attends la nouvelle vidéo de Digital Foundry qui devrait rentrer plus en détail sur le sujet du DLSS.
 
Je me suis mal exprimé pour le fidelity FX je voulais pas dire que personne n’a parlé du fidelity mais que personne n’a évoqué ce genre d’artefact avec le DLSS. Ça ressemble à ce qu’on trouve sur Control en basse résolution DLSS (1080p).  
 
La vidéo n’a rien a gagné à montrer ce genre de défaut si ce n’est trouver une solution à son problème. Ça n’a rien à voir avec des chaînes YouTube qui veulent faire des vues.  
 
D’ailleurs ArsTechnical a montré des photos ou le fidelity FX fait mieux que le DLSS. Certaines particules par exemple. Mais dans l’ensemble le DLSS donne un meilleur rendu de manière générale.  
 
Après je vais pas rentrer dans un débat mais justement même si Digital Foundry sont sérieux rien ne les empêche d’avoir de conflits d’intérêt avec les boites de hardware/jv donc même dans ce cas il faut pas tout prendre pour argent comptant.  
 
 

n°10793480
Yopiyep
Posté le 17-07-2020 à 15:59:54  profilanswer
 

obduction a écrit :


Je me souviens encore de la sortie de windows 10 avec des vidéos de random qui te montraient que sur windows 10, tu gagnais 20 ou 30 fps dans certains jeux connus et évidemment, ce fut un mensonge total. C'est qu'un exemple parmi les centaines au minimum que tu peux trouver.


 
 [:moundir] 20 ou 30 fps ça fait beaucoup, mais y'avait quand même un gain sur la plupart des jeux, et la gestion de Directx 12 est bien mieux gérée sur Windows 10. Le mensonge est partiel.

n°10793481
bob64
Insérez votre citation ici
Posté le 17-07-2020 à 16:06:09  profilanswer
 

roland899 a écrit :

Des fois, je me demande si ça va pas finir avec une alimentation externe fournie avec la carte......


C'est déjà arrivé... Mais ils ont finalement abandonné...
http://www.x86-secret.com/pics/divers/v56k/finalv5-6000.jpg

Message cité 1 fois
Message édité par bob64 le 17-07-2020 à 16:08:07
n°10793485
Tolrahc
Posté le 17-07-2020 à 16:14:47  profilanswer
 

Yopiyep a écrit :

 

[:moundir] 20 ou 30 fps ça fait beaucoup, mais y'avait quand même un gain sur la plupart des jeux, et la gestion de Directx 12 est bien mieux gérée sur Windows 10. Le mensonge est partiel.


Heu  [:otan beauval]   y a jamais eu de support pour les autres OS donc forcément  :o
Il a fallu attendre la mort de Windows 7 pour qu'ils se décident à y réfléchir. (je ne sais même pas où  ça en est cette histoire)

 
obduction a écrit :


Qu'est-ce qui est casse couille? :heink:

 

Qu'un fabricant nous sorte une connectique propriétaire à la con et essaye de nous l'imposer comme un standard. (j'irais pas jusqu'à dire que c'est l'histoire du GSync / Freesync qui se répète mais bon)
Comme si la fiche avait besoin de changer de forme pour justifier leur adaptateur à 2 balles. (Fourni avec ou pas, je m'en cogne, on aurait pu brancher nos 2x6 dessus mais ces messieurs de NVIDIA aiment faire dans l'exotisme :o )

Message cité 2 fois
Message édité par Tolrahc le 17-07-2020 à 16:21:41
n°10793487
Xixou2
Posté le 17-07-2020 à 16:29:52  profilanswer
 

obduction a écrit :


Parce qu'il y a surement plusieurs raisons:
-être future proof pour les nouvelles alims embarquant ce futur peut être standard. quel intérêt de ne pas l'être si tu es rétrocompatible. C'est comme les gpus qui ont exploité en premier le pcie3, le pcie2, le pcie1, cela ne leur servait à rien mais c'était future proof tout simplement.
- peut être avoir besoin de plus de watts et ce connecteur peut être essentiel
- raison de cout car peut être que ça coute moins chère que 2 connecteurs 8 et 6
- d'autres raisons qu'on ne connait pas.
 
En tout cas, cela ne sert à rien de critiquer pour rien. La critique n'aurait de valeur uniquement si c'était incompatible avec les alims actuelles mais ça ne sera pas le cas car nvidia n'est pas suicidaire à ce point. Nouveau connecteur ou pas, tant que c'est compatible avec nos alims actuelles, il n'y aucune raison de s'en soucier et de critiquer.


 
Rajouter un adaptateur ne fera qu'augmenter la résistance, je vois pas pourquoi tu pourrais tirer plus de watts.

n°10793488
Xixou2
Posté le 17-07-2020 à 16:30:48  profilanswer
 

Tolrahc a écrit :


Heu  [:otan beauval]   y a jamais eu de support pour les autres OS donc forcément  :o  
Il a fallu attendre la mort de Windows 7 pour qu'ils se décident à y réfléchir. (je ne sais même pas où  ça en est cette histoire)
 


 

Tolrahc a écrit :


 
Qu'un fabricant nous sorte une connectique propriétaire à la con et essaye de nous l'imposer comme un standard. (j'irais pas jusqu'à dire que c'est l'histoire du GSync / Freesync qui se répète mais bon)  
Comme si la fiche avait besoin de changer de forme pour justifier leur adaptateur à 2 balles. (Fourni avec ou pas, je m'en cogne, on aurait pu brancher nos 2x6 dessus mais ces messieurs de NVIDIA aiment faire dans l'exotisme :o )


+1

n°10793496
roland899
Posté le 17-07-2020 à 16:50:17  profilanswer
 

bob64 a écrit :


C'est déjà arrivé... Mais ils ont finalement abandonné...
http://www.x86-secret.com/pics/div [...] 5-6000.jpg


 
Exact, j'avait oublié le chant du cygne 3dfx...  :pt1cable:  :pt1cable:  :pt1cable:


Message édité par roland899 le 17-07-2020 à 17:04:14
n°10793501
obduction
Posté le 17-07-2020 à 17:13:29  profilanswer
 

Yopiyep a écrit :


 
 [:moundir] 20 ou 30 fps ça fait beaucoup, mais y'avait quand même un gain sur la plupart des jeux, et la gestion de Directx 12 est bien mieux gérée sur Windows 10. Le mensonge est partiel.


Sur la quasi totalité des jeux, le nombre de fps windows 10 vs windows 7 est similaire à directx identique. Quand ça varie c'est sur 2-3 fps dans u nsens ou dans l'autre selon les jeux.

n°10793502
obduction
Posté le 17-07-2020 à 17:15:36  profilanswer
 

Xixou2 a écrit :

 

Rajouter un adaptateur ne fera qu'augmenter la résistance, je vois pas pourquoi tu pourrais tirer plus de watts.


https://www.techpowerup.com/269957/ [...] mpere-gpus

 
Tolrahc a écrit :

 

Qu'un fabricant nous sorte une connectique propriétaire à la con et essaye de nous l'imposer comme un standard. (j'irais pas jusqu'à dire que c'est l'histoire du GSync / Freesync qui se répète mais bon)
Comme si la fiche avait besoin de changer de forme pour justifier leur adaptateur à 2 balles. (Fourni avec ou pas, je m'en cogne, on aurait pu brancher nos 2x6 dessus mais ces messieurs de NVIDIA aiment faire dans l'exotisme :o )


Au passage, Freesync, tu ne l'aurais as eu s'il n'y avait pas eu Gsync et non ça n'a strictement rien à voir avec cette histoire de connecteur.

 

Si nvidia incorpore ce connecteur, c'est qu'il va y avoir un intérêt donc attends de le connaitre avant de te plaindre. Tu crois sérieusement qu'nvidia incorpore ce connecteur juste pour le plaisir de t'emmerder? Vu ta réaction, cela me tenterait comme réponse qu'ils le fassent pour emmerder les emmerdeurs mais non s'ils le font, c'est qu'il y a surement une vraie raison technique. Que tu ne la connaisses pas maintenant, c'est normal vu que ce n'est pas officiel et donc ne venant pas d'nvidia. Faudrait apprendre un peu à être patient. En plus, l'adaptateur, tu l'auras sans payer.
Tu te plains juste pour le plaisir de se plaindre.

Message cité 3 fois
Message édité par obduction le 17-07-2020 à 17:25:31
n°10793505
Feitan21
Posté le 17-07-2020 à 17:22:05  profilanswer
 

Xixou2 a écrit :


 
Rajouter un adaptateur ne fera qu'augmenter la résistance, je vois pas pourquoi tu pourrais tirer plus de watts.


 
Oui et non puisque cet adaptateur pourra monter jusqu'à 600W contre les habituels 75+150 du 6+8

n°10793512
obduction
Posté le 17-07-2020 à 17:29:20  profilanswer
 

ppn7 a écrit :


 
Après je vais pas rentrer dans un débat mais justement même si Digital Foundry sont sérieux rien ne les empêche d’avoir de conflits d’intérêt avec les boites de hardware/jv donc même dans ce cas il faut pas tout prendre pour argent comptant.  


Non parce que dans ce cas, leur crédibilité serait mis à mal. Ils ne peuvent pas se le permettre et ils sont maintenant assez vieux pour qu'on sache qu'on peut leur faire confiance aveuglément sur ce genre de chose. Ils font référence en la matière.  
 
C'est pas le cas de tous ces randoms sur youtube même si ça ne veut pas dire qu'ils mentent tous. Faut juste vérifier sur des sources plus sérieuses si c'est confirmé ou pas et pas prendre pour argent comptant.

n°10793513
aliss
Rhyme the Rhyme Well
Posté le 17-07-2020 à 17:33:15  profilanswer
 

obduction a écrit :


Non parce que dans ce cas, leur crédibilité serait mis à mal. Ils ne peuvent pas se le permettre et ils sont maintenant assez vieux pour qu'on sache qu'on peut leur faire confiance aveuglément sur ce genre de chose. Ils font référence en la matière.  
 
C'est pas le cas de tous ces randoms sur youtube même si ça ne veut pas dire qu'ils mentent tous. Faut juste vérifier sur des sources plus sérieuses si c'est confirmé ou pas et pas prendre pour argent comptant.


 
Tom's, Guru, TPU et d'autres relaient pas mal de conneries depuis quelques années.
 
Générer du clic semble aujourd'hui bien plus important qu'acquérir (ou conserver) de la fiabilité.

n°10793515
ben shinob​i
Posté le 17-07-2020 à 17:40:48  profilanswer
 

aliss a écrit :


 
Tom's, Guru, TPU et d'autres relaient pas mal de conneries depuis quelques années.
 
Générer du clic semble aujourd'hui bien plus important qu'acquérir (ou conserver) de la fiabilité.


 
Ils relaient des conneries, c'est vrai, mais ils le précisent ou avertissent dans ce cas.

n°10793518
Xixou2
Posté le 17-07-2020 à 17:46:23  profilanswer
 

 
obduction a écrit :


Au passage, Freesync, tu ne l'aurais as eu s'il n'y avait pas eu Gsync et non ça n'a strictement rien à voir avec cette histoire de connecteur.

 

Si nvidia incorpore ce connecteur, c'est qu'il va y avoir un intérêt donc attends de le connaitre avant de te plaindre. Tu crois sérieusement qu'nvidia incorpore ce connecteur juste pour le plaisir de t'emmerder? Vu ta réaction, cela me tenterait comme réponse qu'ils le fassent pour emmerder les emmerdeurs mais non s'ils le font, c'est qu'il y a surement une vraie raison technique. Que tu ne la connaisses pas maintenant, c'est normal vu que ce n'est pas officiel et donc ne venant pas d'nvidia. Faudrait apprendre un peu à être patient. En plus, l'adaptateur, tu l'auras sans payer.
Tu te plains juste pour le plaisir de se plaindre.


Pour la transition avec l'adaptateur je maintiens mes dires.

n°10793523
aliss
Rhyme the Rhyme Well
Posté le 17-07-2020 à 17:47:53  profilanswer
 

ben shinobi a écrit :

 

Ils relaient des conneries, c'est vrai, mais ils le précisent ou avertissent dans ce cas.

 

Et ça change quoi au final ? Que tu le précises ou non, tu n'informes pas le lecteur et l'intérêt est proche du néant.

 

Anand n'est jamais tombé là dedans, HFR ne l'a jamais fait.

Message cité 1 fois
Message édité par aliss le 17-07-2020 à 17:48:10
n°10793525
Tolrahc
Posté le 17-07-2020 à 17:51:08  profilanswer
 

 
obduction a écrit :


Au passage, Freesync, tu ne l'aurais as eu s'il n'y avait pas eu Gsync et non ça n'a strictement rien à voir avec cette histoire de connecteur.

 

Si nvidia incorpore ce connecteur, c'est qu'il va y avoir un intérêt donc attends de le connaitre avant de te plaindre. Tu crois sérieusement qu'nvidia incorpore ce connecteur juste pour le plaisir de t'emmerder? Vu ta réaction, cela me tenterait comme réponse qu'ils le fassent pour emmerder les emmerdeurs mais non s'ils le font, c'est qu'il y a surement une vraie raison technique. Que tu ne la connaisses pas maintenant, c'est normal vu que ce n'est pas officiel et donc ne venant pas d'nvidia. Faudrait apprendre un peu à être patient. En plus, l'adaptateur, tu l'auras sans payer.
Tu te plains juste pour le plaisir de se plaindre.

 

Dixit le mec qui veut jouer au flic et rectifier tout le monde en permanence [:vc4fun:3]
En tous cas tu te décris bien là.
Moi, j'ai fait que relayer un article. Toi par contre, tu geins depuis tout à l'heure avec ton coté donneur de leçon. J'ai l'impression que t'as rien d'autre à foutre de tes journées.

Message cité 1 fois
Message édité par Tolrahc le 17-07-2020 à 17:52:45
n°10793528
ppn7
Posté le 17-07-2020 à 17:54:38  profilanswer
 

obduction a écrit :


Non parce que dans ce cas, leur crédibilité serait mis à mal. Ils ne peuvent pas se le permettre et ils sont maintenant assez vieux pour qu'on sache qu'on peut leur faire confiance aveuglément sur ce genre de chose. Ils font référence en la matière.  
 
C'est pas le cas de tous ces randoms sur youtube même si ça ne veut pas dire qu'ils mentent tous. Faut juste vérifier sur des sources plus sérieuses si c'est confirmé ou pas et pas prendre pour argent comptant.


 
Ils peuvent très volontairement omettre des détails sans que leur crédibilité soit remise en question.  
Ça peut être subtile. Et c’est partout comme ça. Surtout si tu fais une vidéo sponsorisée, tu vas pas cracher sur celui qui te paye c’est logique. Ça veut pas dire que tu n’as pas le droit d’émettre de critique.  
 
 
Je préviens d’avance. Ne me faites pas dire ce que je n’ai pas dit.
 
En gros c’est pas parce qu’une personne, dite sérieuse, ne voit pas un défaut qu’il n’y en a pas.  
Pour en venir au DLSS sur Control, même avec le 2.0, dans la vidéo de digital foundry sur le 1080p, on voit des artefacts sur certains objets en mouvement. Ça ressemble à ce que je vois dans la vidéo de death stranding.  
 
Je suis fan de cette technologie mais elle reste perfectible.

Message cité 2 fois
Message édité par ppn7 le 17-07-2020 à 18:01:30
n°10793535
ben shinob​i
Posté le 17-07-2020 à 18:04:15  profilanswer
 

aliss a écrit :


 
Et ça change quoi au final ? Que tu le précises ou non, tu n'informes pas le lecteur et l'intérêt est proche du néant.
 
Anand n'est jamais tombé là dedans, HFR ne l'a jamais fait.


 
Les gens aiment les leaks... Et tout le monde n'est pas hfr.  
Le souci c'est qu'il s'agit parfois de leaks plus ou moins officiels, plus ou moins orchestrés par les marques elles-mêmes qui font du marketing viral par le truchement de vrai faux influenceurs ou par voie de presse web (ou pas)...
les mecs voient un truc passer, ils le relient pour générer du traffic et avoir de la visibilité, s'il précisent que c'est à prendre avec des pincettes plus ou moins grosses...c'est moyen, voir nul, mais bon...On a déjà vu des leaks improbables pas si éloignés de la vérité factuelle.  
ça me choque moins que les youtubers qui en plus de coller des annonces pub inzappables en amont de leur vidéo , colle aussi du placement de produit immonde au milieu de leur vidéo, en mode pas vu pas pris, ou en "faisant passer" ça en mode "humour", souvent foireux, ce qui empire encore la chose.
A coté de ça parfois il y a des bons tests dans la presse web que tu as citée, ça fait passer un peu la pilule.
 
DE toute façon la comm sur les produits geeks est complètement dévoyée de nos jours, ça génère tellement de frics, les enjeux financiers sont devenus tellement important qu'on peut faire une croix sur les preux chevaliers à la hfr...C'est franchement dommage mais c'est comme ça.


Message édité par ben shinobi le 17-07-2020 à 18:13:10
n°10793538
ben shinob​i
Posté le 17-07-2020 à 18:11:00  profilanswer
 

ppn7 a écrit :


 
Ils peuvent très volontairement omettre des détails sans que leur crédibilité soit remise en question.  


 
Je suis d'accord, mais un mensonge par omission est un mensonge. Sinon oui dlss 2.0 c'est mieux que le 1.0 mais y a encore du taff.  c'est assez prometteur, à condition que pas mal de studios s'y mettent, et là est bien le problème.


Message édité par ben shinobi le 17-07-2020 à 18:14:14
n°10793573
Dark Schne​iderr
⭐⭐
Posté le 17-07-2020 à 19:26:25  profilanswer
 

Xixou2 a écrit :


 
Tout à fait, mais pourquoi Nvidia demandes ça? Une paire de 8x ou 6x ferait exactement la même chose ..


 
Il y a la norme ATX12VO dans les tuyaux : https://www.guru3d.com/news-story/a [...] -pins.html
 
Peut-être pour ça ?


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°10793590
AllenMadis​on
Posté le 17-07-2020 à 20:16:06  profilanswer
 

mouais tout ça c'est des leaks on n'en sait rien de rien
 
arrêtez de vous triturer le cerveau pour du vent :o


---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°10793597
Rayaki
Posté le 17-07-2020 à 20:26:14  profilanswer
 


 

obduction a écrit :


Au passage, Freesync, tu ne l'aurais as eu s'il n'y avait pas eu Gsync et non ça n'a strictement rien à voir avec cette histoire de connecteur.
 
Si nvidia incorpore ce connecteur, c'est qu'il va y avoir un intérêt donc attends de le connaitre avant de te plaindre. Tu crois sérieusement qu'nvidia incorpore ce connecteur juste pour le plaisir de t'emmerder? Vu ta réaction, cela me tenterait comme réponse qu'ils le fassent pour emmerder les emmerdeurs mais non s'ils le font, c'est qu'il y a surement une vraie raison technique. Que tu ne la connaisses pas maintenant, c'est normal vu que ce n'est pas officiel et donc ne venant pas d'nvidia. Faudrait apprendre un peu à être patient. En plus, l'adaptateur, tu l'auras sans payer.
Tu te plains juste pour le plaisir de se plaindre.


 
J'ai quand meme un doute sur cette histoire (à vérifier) de nouveaux connecteurs.
L'alimentation et ses sorties ne changent pas, donc les classiques 6 et 8 broches auraient suffit... après ils peuvent décider de ne pas vouloir rediriger la puissance venant de ces connecteurs comme ils le veulent, ils font leur shéma d'entrées/sorties sur 12 broches et ils poussent cette "responsabilité de compatibilité" sur un adaptateur.
Et rien ne dit non plus qu'ils ne nous balancent pas une "désolé mais pour cette famille de carte graphique, vos alimentations classiques ne seront pas compatiblse, merci de choisir telle référence qui (comme par hasard) sort au meme moment"
 
Tous les scénarios sont envisageables tant qu'on n'a pas d'éléments tangibles !


Message édité par Rayaki le 17-07-2020 à 20:27:28
n°10793606
flagadadim
harley quinn fanboy
Posté le 17-07-2020 à 20:37:12  profilanswer
 

du 12V c'est du 12V tant qu'ils ne rajoutent pas une tension à la con pour activer quelque chose ça sera compatible avec n'importe quelle alim sous réserve de la puissance disponible.


---------------
« Quand j'étais jeune, j'étais très con. Je suis resté très jeune. »Jean-Claude Van Damme
n°10793618
Activation
21:9 kill Surround Gaming
Posté le 17-07-2020 à 20:57:56  profilanswer
 

ppn7 a écrit :

Faire mieux qu’une 2080ti j’y crois mais à quel prix ? Personnellement même si on connaît que le nouveau rapport perormance/watts de RDNA2 par rapport à RDNA1, c’est pas avec une puce de 52CU façon XSX que ça arrivera.  
 
On a entendu qu’avec la démo de Gears la XSX a 1825mhz serait équivalent à une 2080.
 
Déjà pour faire les performances d’une 2080ti il faudrait non seulement des MHz en plus mais aussi un peu plus de CU. Alors pour faire +50% vs la 2080ti. Une carte à 72/80CU et de la HBM2? On va retomber sur des prix genre la R9 295x2 ou la 7990 soit 1000/1500$.
 
J’y crois pas trop à des tarifs magiques pour le très haut de gamme. Ça va coûter chère à AMD ils vont pas faire de miracle. Personnellement j’oublie pour un équivalent d’une 2080Ti ou plus à moins de 800$ soit en France entre à partir de 900€


 
 
Oueh enfin t as vu la taille du gpu sur une 2080ti
Surtout que bon des wafer 7nm AMD est quand mm bon client chez tsmc
L equivalent d une 2080ti avec du 7nm si amd franchement n'y arrive pas
Avec un navi 10 qui talonne une 2070super
 
Maintenant y a beaucoup de variable
La rasterisation, le rt hybride, le dlss, le dx12ultimate, un equivalent amd du dlss.... Bref y a beaucoup d'inconnu
Et est ce que tu vise qqchose de particulier
 
En plus la les carte vont sortir mais y aura pas vraiment les jeux pour faire des vrai point de comparaison
 
Tu prend cyberpunk 2077 est déjà annoncé que l upgrade version ps5/series X ne sortirait que debut 2021
Ça laisse quand mm pas mal entendre que la version PC elle aussi risque d avoir droit à un patch
Tu prend assassin s credd bouah ah ah  :o. ... J'ai jamais vu un jeu ubi n ayant pas des Go de patchs ces dernieres année
 
Bref mm si les carte sortent à cette rentrée
Pas sur qu on va vraiment pleinement pouvoir les evaluer à leur sorti.
 
Maintenant oui nvidia aura la plus grosse faut pas trop en douter
m'enfin si c'est genre pour 30% de perf en plus rajouter 600 boules de plus... euh non merci
 
Pareil amd se tourne pas les pouces, il bosse avec microsoft et les exigence sur la derniere revision de son API directx
 
le sony sexe se branle peut être la nouille SSD SSD, je suis désolé mais cerny qui te parle du ssd, cerny qui te parle de la gestion du son
c'était déjà sur les carte graphique GCN les feature sur le son
pareil le ssd, la fusion du stockage et de la memoire en en espace adressable unique, c'est possible depuis au moins sur les ryzen+ (ryzen1 je suis pas sur, je sais plus dans quel doc technique amd j'avais vu ça)
que ça n'ai jamais été pour le moment utilisé sur PC n'empeche pas que les techno était dispo
 
bref je suis désolé, quand bien même nvidia a poussé au cul des principe à lui dans dx12ultimate gueulant, brossant, aidant MS pour faire évolué directx OK
mais de l'autre coté AMD il a forcément du respecter un cahier des charges pour aller dans le sens de ce nouveau directx
y a pas un design tombé tout cuit sur le bureau des architecte chez AMD
 
Après j'ai presque enviez de dire, c'est mm fort possible que AMD ai délaissé les drivers PC depuis plusieurs mois, pour se concentrer sur les pb et SDK des 2 consoles qui se pointe en cette fin d'année  
 
entre je sais pas 1million de gens qui gueulent que leur drivers 5700/5600 merdouille, et éviter qu'en fin d'année que 15millions de joueurs et MS et Sony leur tombe sur la gueule car les consoles se mettent à "blue screen ou reboot dès que le gpu est bien chargé"
je pense qu'on ne peut et c'est malheureusement scandaleux pour les clients, guère espérer un vrai suivi des pilotes graphique sur PC chez amd en ce moment
surtout quand tu vois le boeing qu'est la ps4pro en utilisation :o
et oui j'ai déjà vu ps4 et xbox one aussi se viander et reboot alors que j'était en train de jouer
 
On sait pertinemment que le nb d'ingénieurs chez nvidia est outrement plus important que chez AMD  :whistle:  
 
on se rappel par exemple y a pas si longtemps Destiny 2 qui se viandait sur les tout frais ryzen 3000 et que amd a speedé pour fournir une mise à jour de son agesa
c'est le genre de bug qu'aurait bien plus fait jazzé sur un parc de plusieurs dizaines de millions de console, taggé xbox ou playstation peu importe :o
 
tout recemment le Mr samsung qui a fait de la merde avec ses platines bluray ultrahd et qu'est en train de se farcir des echanges à ses frais même si plus sous garantie car c'est impossible à réparé à distance
nintendo qui a force de se prendre des proces dans la gueule dans chaque pays qui petit à petit est bien obligé de faire remplacer c'est joycon drifteur :o à ses frais pour avoir fait de la merde.
 
Bref en ce moment chez AMD ça doit serrer les fesses avec la sorti des 2 consoles qui se pointent.
 
Chez nvidia ils ont pas trop ce genre de soucis à penser en ce moment, la preuve 1.5an d'alpha test payant avant que le dlss marche correctement, les nvidien sexe qui faisait leur "non non c'est pas flou le dlss 1.x " :o

Message cité 1 fois
Message édité par Activation le 17-07-2020 à 21:30:40
n°10793632
ppn7
Posté le 17-07-2020 à 21:29:35  profilanswer
 

Activation a écrit :


 
 
Oueh enfin t as vu la taille du gpu sur une 2080ti
Surtout que bon des wafer 7nm AMD est quand mm bon client chez tsmc
L equivalent d une 2080ti avec du 7nm si amd franchement n'y arrive pas
Avec un navi 10 qui talonne une 2070super
 
Maintenant y a beaucoup de variable
La rasterisation, le rt hybride, le dlss, le dx12ultimate, un equivalent amd du dlss.... Bref y a beaucoup d'inconnu
Et est ce que tu vise qqchose de particulier
 
En plus la les carte vont sortir mais y aura pas vraiment les jeux pour faire des vrai point de comparaison
 
Tu prend cyberpunk 2077 est déjà annoncé que l upgrade version ps5/series X ne sortirait que debut 2021
Ça laisse quand mm pas mal entendre que la version PC elle aussi risque d avoir droit à un patch
Tu prend assassin s credd bouah ah ah  :o. ... J'ai jamais vu un jeu ubi n ayant pas des Go de patchs ces dernieres année
 
Bref mm si les carte sortent à cette rentrée
Pas sur qu on va vraiment pleinement pouvoir les evaluer à leur sorti


 
Oui la 2080ti c’est 754mm2, on pourrait caser 3 x 5700XT, j’ai pas dit que c’était impossible j’ai dit à quel prix ?
Quand les 5700 et XT sont sortis, AMD avait table sur plus de 400$ pour la XT. Il a fallu attendre l’annonce des Super pour que les prix soient tronqués de 50$.
 
Je pense sincèrement qu’AMD va vouloir sa marge et c’est évident. Après que les prix soient inférieurs à Nvidia oui logique mais pas 50%  de moins à performance égale il faut pas rêver. 20% a tout casser grand maximum et moins s’il y a entente.

n°10793640
AllenMadis​on
Posté le 17-07-2020 à 21:39:01  profilanswer
 

20% moins chérosse ça serait déjà pas mal si perf quasi égales.


---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°10793646
ppn7
Posté le 17-07-2020 à 21:56:21  profilanswer
 

AllenMadison a écrit :

20% moins chérosse ça serait déjà pas mal si perf quasi égales.


 
Je me dis ça c’est possible mais faudrait qu’AMD est encore un train de retard sur les Tensors core ou le ray tracing.  
Moi je pense que ça aurait pas été mauvais de faire des GPU moyen/haut de gamme sans RT avec en plus une gamme RT. Ceux qui veulent du RT ils achètent et ceux qui trouvent que c’est encore trop tôt ils achètent pas. Mais ça bien sûr ils l’ont compris Nvidia, on finance pas le RT sans forcer le consommateur a acheté sa technologie.  
 
Si Nvidia avait sortie une GTX 2080Ti sans RT 300€ moins chère je dis ça au pif, pareil pour les autres gammes, ils auraient coulé le navire du RT

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  74  75  76  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)