Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
872 connectés 

 

 

Petit recensement : actuellement combien êtes-vous à avoir une des nouvelles cartes ?
Sondage à 4 choix possibles.




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  114  115  116  ..  582  583  584  585  586  587
Auteur Sujet :

[Topic Unique] RDNA2 - AMD RX6x00 - Navi 2x

n°10867208
B-NeT
Posté le 30-10-2020 à 16:39:21  profilanswer
 

Reprise du message précédent :
Quelqu'un aurait des images de Shadow of Tomb Raider avec RT et sans.

 

J'y joue actuellement RT OFF bien sûr, et je suis assez bluffé des effets de lumières notamment sur l'eau et le rendu (je joue pourtant qu'en élevé par en Ultime afin d'avoir un peu plus de FPS). Je ne vois pas ce qu'aurais apporté le RT car je trouve le jeu beau sans personnellement  :D

Message cité 1 fois
Message édité par B-NeT le 30-10-2020 à 16:39:41

---------------
!!! Mon Feed-Back !!!
mood
Publicité
Posté le 30-10-2020 à 16:39:21  profilanswer
 

n°10867213
sardhaukar
Posté le 30-10-2020 à 16:45:03  profilanswer
 

B-NeT a écrit :

Quelqu'un aurait des images de Shadow of Tomb Raider avec RT et sans.
 
J'y joue actuellement RT OFF bien sûr, et je suis assez bluffé des effets de lumières notamment sur l'eau et le rendu (je joue pourtant qu'en élevé par en Ultime afin d'avoir un peu plus de FPS). Je ne vois pas ce qu'aurais apporté le RT car je trouve le jeu beau sans personnellement  :D


Ici https://www.youtube.com/watch?v=hNqo9o1mtD8
 
Je ne vois aucune différence.

n°10867216
havoc_28
Posté le 30-10-2020 à 16:49:06  profilanswer
 


 
Les ombres.  Après il aurait pu choisir des passages un peu plus probant pour mieux percevoir la différence par exemple dans un temple à l'intérieur éclairé à la torche, mais les ombres c'est ce qui a de moins probant niveau effets RT :o, car on sait assez bien truqué la chose en rasterisation sans devoir y mettre beaucoup d'efforts et de temps.


Message édité par havoc_28 le 30-10-2020 à 16:50:10
n°10867217
Iryngael
Awesome, ain't it ?
Posté le 30-10-2020 à 16:49:24  profilanswer
 

Non mais le RT globalement ça interesse que les devs qui n'ont plus à tricher pour faire des effets de reflets ou de Gi et peuvent utiliser les fonctions natives du RT pour le faire.
Niveau dev c'est la simplification idéale.

 

Malheureusement, on  avait deja d'excellents cache-misères pour les reflets ou la GI. Y a qu'à voir FS2020 qui n'utilise pas de RT et fout une fessée visuelle à tous les jeux.

 

Attention je vais le redire une fois de plus : le RT pour les reflets OSEF on sait très bien les faker de façon convainquante.
le RT c'est ideal pour faire de la vraie GI et à ce niveau, bien au delà de Control dont je ne comprends pas pourquoi tout le monde s'extasie tant devant en RT vu le resultat juste acceptable, c'est Minecraft RTX et Quake 2 RTX qui sont les meilleurs représentants de l'apport du RT avec un éclairage vraiment photoréaliste alors même que ce sont des jeux qui ne le sont pas du tout.

 

Et pourquoi le résultat est bien plus impressionnant avec ces 2 jeux ? Parce que c'est du low poly... Avoir de la belle GI du niveau de Minecraft RTX et pas juste des reflets selectifs sans des ombres crédibles dans des jeux AAA c'est pour l'instant inatteignable avec les perfs actuelles.

 

En voyant la comparaison sur Watchdogs ou même les jeux PS5 qui ont du RT, bah tout ce qu'on voit c'est 2 petites ombres et des reflets "réels" (et encore un peu sélectifs...) qui finalement n'apportent pas grand chose de plus que les astuces actuelles, sauf aux devs qui peuvent arrêter de se casser la tête.

 

J'étais parti pour prendre une 3080Ti avant l'annonce nVidia si elle avait été annoncée, puis je me suis dit que j'allais laisser sa chance à AMD et au final, je pense que pour activer le RT juste pour voir dans quelques jeux (j'ai fait que SoTR qui le supporte récemment...) et meme si ca se democratise mais que c'est pour avoir des résultats comme ce qu'on a depuis 2018, je vais plutôt favoriser le raster à meilleur prix...

 

Tant qu'on n'aura pas de la GI en RT équivalente à Minecraft RTX (ou la demo de billes nVidia) mais dans des AAA high poly , je pense que je n'activerai pas du tout le RT

 

(evidemment sous réserve que les chiffres annoncés soient respectés, que le prix et la dispo soient eux aussi là)

Message cité 4 fois
Message édité par Iryngael le 30-10-2020 à 16:50:44

---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°10867221
AllenMadis​on
Posté le 30-10-2020 à 16:51:52  profilanswer
 

Iryngael a écrit :

Non mais le RT globalement ça interesse que les devs qui n'ont plus à tricher pour faire des effets de reflets ou de Gi et peuvent utiliser les fonctions natives du RT pour le faire.  
Niveau dev c'est la simplification idéale.
 
Malheureusement, on  avait deja d'excellents cache-misères pour les reflets ou la GI. Y a qu'à voir FS2020 qui n'utilise pas de RT et fout une fessée visuelle à tous les jeux.
 
Attention je vais le redire une fois de plus : le RT pour les reflets OSEF on sait très bien les faker de façon convainquante.  
le RT c'est ideal pour faire de la vraie GI et à ce niveau, bien au delà de Control dont je ne comprends pas pourquoi tout le monde s'extasie tant devant en RT vu le resultat juste acceptable, c'est Minecraft RTX et Quake 2 RTX qui sont les meilleurs représentants de l'apport du RT avec un éclairage vraiment photoréaliste alors même que ce sont des jeux qui ne le sont pas du tout.
 
Et pourquoi le résultat est bien plus impressionnant avec ces 2 jeux ? Parce que c'est du low poly... Avoir de la belle GI du niveau de Minecraft RTX et pas juste des reflets selectifs sans des ombres crédibles dans des jeux AAA c'est pour l'instant inatteignable avec les perfs actuelles.
 
En voyant la comparaison sur Watchdogs ou même les jeux PS5 qui ont du RT, bah tout ce qu'on voit c'est 2 petites ombres et des reflets "réels" (et encore un peu sélectifs...) qui finalement n'apportent pas grand chose de plus que les astuces actuelles, sauf aux devs qui peuvent arrêter de se casser la tête.
 
J'étais parti pour prendre une 3080Ti avant l'annonce nVidia si elle avait été annoncée, puis je me suis dit que j'allais laisser sa chance à AMD et au final, je pense que pour activer le RT juste pour voir dans quelques jeux (j'ai fait que SoTR qui le supporte récemment...) et meme si ca se democratise mais que c'est pour avoir des résultats comme ce qu'on a depuis 2018, je vais plutôt favoriser le raster à meilleur prix...
 
Tant qu'on n'aura pas de la GI en RT équivalente à Minecraft RTX (ou la demo de billes nVidia) mais dans des AAA high poly , je pense que je n'activerai pas du tout le RT
 
(evidemment sous réserve que les chiffres annoncés soient respectés, que le prix et la dispo soient eux aussi là)


 
oui mé le futureprouf
 
:o

n°10867222
havoc_28
Posté le 30-10-2020 à 16:53:14  profilanswer
 

Iryngael a écrit :

Attention je vais le redire une fois de plus : le RT pour les reflets OSEF on sait très bien les faker de façon convainquante.  
le RT c'est ideal pour faire de la vraie GI et à ce niveau, bien au delà de Control dont je ne comprends pas pourquoi tout le monde s'extasie tant devant en RT vu le resultat juste acceptable, c'est Minecraft RTX et Quake 2 RTX qui sont les meilleurs représentants de l'apport du RT avec un éclairage vraiment photoréaliste alors même que ce sont


 
Le cas de control est intéressant car il utilise les 3 effets que l'on traite actuellement via RT. (Réflexion, Illumination et ombres), pour les reste oui j'ai rien à redire :D.  

n°10867223
AllenMadis​on
Posté le 30-10-2020 à 16:55:03  profilanswer
 

Si nvidia sort une 3080ti au prix (ou proche) de la 6800xt je favoriserai évidemment nvidia

 

Sinon mon raisonnement est quasiment le même que le tien, à savoir favoriser les perfs en raster

 

J'avais d'ailleurs dit que la carte d'AMD serait plus perf en raster et en dessous en raytracing, avant qu'havoc, ce briseur de rêves ( :fou: ) tempère mes ardeurs

 

Me suis pas trompé dans mon estimation finalement, maintenant faut arbitrer entre :

 

- capitaliser sur le future-proofing du rtx et dlss plus avancé de nvidia
- prioriser les perfs en raster d'AMD qui tiennent mieux en 4K visiblement

 


nvidia pour l'instant a plus de perfs en 4K grâce au DLSS mais une fois qu'AMD aura son dlss maison, ils vont carrément reprendre l'avantage dessus, vu que les perfs en raster pure (sans dlss donc) sont au niveau de la carte nvidia + DLSS...

Message cité 3 fois
Message édité par AllenMadison le 30-10-2020 à 16:56:41
n°10867227
sardhaukar
Posté le 30-10-2020 à 16:57:33  profilanswer
 

AllenMadison a écrit :

Si nvidia sort une 3080ti au prix (ou proche) de la 6800xt je favoriserai évidemment nvidia  
 
Sinon mon raisonnement est quasiment le même que le tien, à savoir favoriser les perfs en raster
 
J'avais d'ailleurs dit que la carte d'AMD serait plus perf en raster et en dessous en raytracing, avant qu'havoc, ce briseur de rêves ( :fou: ) tempère mes ardeurs
 
Me suis pas trompé dans mon estimation finalement, maintenant faut arbitrer entre :  
 
- capitaliser sur le future-proofing du rtx et dlss plus avancé de nvidia
- prioriser les perfs en raster d'AMD qui tiennent mieux en 4K visiblement


Le futurproof avec une carte @10G je n'y crois pas. :/ En 2016 la 1080 avait déjà 8G. Sérieux ils foutent quoi là NV.  :o  
Pour la 6800x, ce serait bien de voir tous les benchs etc.  :D  
 
En bref il faut encore attendre.


Message édité par sardhaukar le 30-10-2020 à 16:58:55
n°10867229
Iryngael
Awesome, ain't it ?
Posté le 30-10-2020 à 16:59:03  profilanswer
 
n°10867231
sardhaukar
Posté le 30-10-2020 à 17:00:46  profilanswer
 


 
Oui mais bon, mettons que tu veux une carte pour 3-4 ans, avoir un peu de marge de RAM peut être utile.

mood
Publicité
Posté le 30-10-2020 à 17:00:46  profilanswer
 

n°10867232
AllenMadis​on
Posté le 30-10-2020 à 17:01:26  profilanswer
 
n°10867276
Rayaki
Posté le 30-10-2020 à 17:42:36  profilanswer
 

Le futur-proof, il suffit d'une évolution architecturale majeure (genre MCM) et il vole en éclat direct...


---------------
Clan Torysss.
n°10867282
Rayaki
Posté le 30-10-2020 à 17:45:42  profilanswer
 


 
1ere scène, j'ai repéré direct: le reflet sur la flaque, sur la voiture et les ombres sur le bâtiment derrière.
le RTX ce n'est pas non plus Miroir-land :o


---------------
Clan Torysss.
n°10867283
vincebdx
Posté le 30-10-2020 à 17:46:54  profilanswer
 


J'ai regardé la vidéo en me mettant plus à la place du joueur que du spectateur et franchement dans cet exemple la différence esthétique n'est pas flagrante.
 En dehors d'une comparaison direct ou d'un visionnage image par image bof.

n°10867298
patouille7​3
Le ptit prince du rail
Posté le 30-10-2020 à 18:01:39  profilanswer
 

Mr Fox a écrit :


Hello,
 
je suis un peu pareil que toi, je me suis fixé ~500€ pour la CG du coup la 3070 passerait si un jour les FE reviennent mais j aimerais une alternative AMD aussi.
Si possible plus puissante et du même prix car la 6800 va vite se retrouver à 600€+ je sens.
 
Après, j'aime bien AMD mais  ce n'est toujours pas clair pour moi. Est ce que les Jeux avec la technologie rtx seront pris en charge par les 6xxx? La fonction DXR de Directx12 est une fonction ouverte différente de rtx (propriétaire Nvidia) ? Le FidelityFX sera t il implémenté ds des Jeux en 2020?  
 


 
Salut ,
 
La vente de ma 1070 avait couvert la moitié de l'achat de ma 2070 , BF5 c'était le bonus même si je ne suis pas trop fan de genre de jeux....
 
Clairement ça me gonfle de devoir rajouter au moins 400 € pour une 3070 ou 6800.
 
Je vais sans doute attendre de passer en 3440x1440 , mon LG en 2560x1080 m'a converti pour le 21/9 avec TW3 , RDR2 ou AC Odyssey  :love:  
 
Avec du bol l'offre redeviendra raisonnable en choix et en prix.

n°10867299
oufouf84
Posté le 30-10-2020 à 18:03:26  profilanswer
 

AllenMadison a écrit :

Si nvidia sort une 3080ti au prix (ou proche) de la 6800xt je favoriserai évidemment nvidia  
 
Sinon mon raisonnement est quasiment le même que le tien, à savoir favoriser les perfs en raster
 
J'avais d'ailleurs dit que la carte d'AMD serait plus perf en raster et en dessous en raytracing, avant qu'havoc, ce briseur de rêves ( :fou: ) tempère mes ardeurs
 
Me suis pas trompé dans mon estimation finalement, maintenant faut arbitrer entre :  
 
- capitaliser sur le future-proofing du rtx et dlss plus avancé de nvidia
- prioriser les perfs en raster d'AMD qui tiennent mieux en 4K visiblement
 
 
nvidia pour l'instant a plus de perfs en 4K grâce au DLSS mais une fois qu'AMD aura son dlss maison, ils vont carrément reprendre l'avantage dessus, vu que les perfs en raster pure (sans dlss donc) sont au niveau de la carte nvidia + DLSS...


 
heeeeee, une 3080ti moins chère qu'une 3080, là tu rêve :s

n°10867300
CardinalFu​neste
Posté le 30-10-2020 à 18:05:31  profilanswer
 

vincebdx a écrit :


J'ai regardé la vidéo en me mettant plus à la place du joueur que du spectateur et franchement dans cet exemple la différence esthétique n'est pas flagrante.
 En dehors d'une comparaison direct ou d'un visionnage image par image bof.


 
 
 
Le pire c'est que ces effets sont largement possible en raster  
J'ai peur que les devs ne se cassent plus le cul a nous pondre des effets de réélections/ombres/lumières en raster, car plus simple a réaliser avec du Rt


Message édité par CardinalFuneste le 30-10-2020 à 18:06:04
n°10867311
sardhaukar
Posté le 30-10-2020 à 18:16:55  profilanswer
 

oufouf84 a écrit :


 
heeeeee, une 3080ti moins chère qu'une 3080, là tu rêve :s


osef y'a de la vraie concurrence maintenant !  [:leblatt]  
 
Nvidia fait bien ce qu'il veut je ne prendrais pas de carte @10Go. 12G et un poil boosté ? Peut être si le prix est OK mais il ne peuvent pas monter trop haut il y a la 6900xt en embuscade.
 
Quand les early auront acheté leurs cartes et que les rayons seront plein et qu'il faudra séduire les indécis on verra ce que fait Nvidia.

n°10867316
myzt
Posté le 30-10-2020 à 18:21:04  profilanswer
 

Je suis hypé par la 6800/6800XT mais je me pose des questions quand même
 
Les modèles FE possèdent une ventilation passive (0 RPM en idle)?
 
Elle est trop moche la FE d'AMD, c'est quel constructeur qui font les cartes les plus belles?  [:jean risitasse:2]  
 
Les 16 go de mémoire vidéo c'est future proof? Parce que la 3070 n'a que 8 go et c'est celle que je vise de base


---------------
Topic Unique | Matos PC Joueurs PC
n°10867322
sardhaukar
Posté le 30-10-2020 à 18:24:45  profilanswer
 

myzt a écrit :

Je suis hypé par la 6800/6800XT mais je me pose des questions quand même
 
Les modèles FE possèdent une ventilation passive (0 RPM en idle)?
 
Elle est trop moche la FE d'AMD, c'est quel constructeur qui font les cartes les plus belles?  [:jean risitasse:2]  
 
Les 16 go de mémoire vidéo c'est future proof? Parce que la 3070 n'a que 8 go et c'est celle que je vise de base


 
Je pense que vu le bond de perfs des cartes, dans l'absolu elles sont assez futureproof mais je mets un gros bémol sur les 8G/10G des Nvidia ça me parait léger.

n°10867336
Desolate
Long live death !
Posté le 30-10-2020 à 18:36:49  profilanswer
 

AllenMadison a écrit :

Si nvidia sort une 3080ti au prix (ou proche) de la 6800xt je favoriserai évidemment nvidia

 

Sinon mon raisonnement est quasiment le même que le tien, à savoir favoriser les perfs en raster

 

J'avais d'ailleurs dit que la carte d'AMD serait plus perf en raster et en dessous en raytracing, avant qu'havoc, ce briseur de rêves ( :fou: ) tempère mes ardeurs

 

Me suis pas trompé dans mon estimation finalement, maintenant faut arbitrer entre :

 

- capitaliser sur le future-proofing du rtx et dlss plus avancé de nvidia
- prioriser les perfs en raster d'AMD qui tiennent mieux en 4K visiblement

 


nvidia pour l'instant a plus de perfs en 4K grâce au DLSS mais une fois qu'AMD aura son dlss maison, ils vont carrément reprendre l'avantage dessus, vu que les perfs en raster pure (sans dlss donc) sont au niveau de la carte nvidia + DLSS...

 


Je me suis aussi posé la question, et je vais favoriser pour le moment les Perfs en raster. Trop peu de jeux profitent du RT pour que ce soit un critère majeur d'achat.
Pour la prochaine carte dans 3/4 ans le RT sera abouti et utilisé.

n°10867339
[Toine]
A la demande générale...
Posté le 30-10-2020 à 18:38:29  profilanswer
 

Desolate a écrit :

 


Je me suis aussi posé la question, et je vais favoriser pour le moment les Perfs en raster. Trop peu de jeux profitent du RT pour que ce soit un critère majeur d'achat.
Pour la prochaine carte dans 3/4 ans le RT sera abouti et utilisé.


Tu prends peu de risques, les perfs RT navi2 sont honorables.


Message édité par [Toine] le 30-10-2020 à 18:38:38

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°10867342
johnny-vul​ture
Wesh wesh ma poule !
Posté le 30-10-2020 à 18:41:20  profilanswer
 
n°10867361
lecas
Posté le 30-10-2020 à 19:21:15  profilanswer
 

sardhaukar a écrit :


osef y'a de la vraie concurrence maintenant !  [:leblatt]  
 
Nvidia fait bien ce qu'il veut je ne prendrais pas de carte @10Go. 12G et un poil boosté ? Peut être si le prix est OK mais il ne peuvent pas monter trop haut il y a la 6900xt en embuscade.
 
Quand les early auront acheté leurs cartes et que les rayons seront plein et qu'il faudra séduire les indécis on verra ce que fait Nvidia.


 
C'est pour ça que t'as une commande de Strix sur le shop asus et une Trio sur RDC?

n°10867368
Gilbert Go​sseyn
Dr Liara T'Soni
Posté le 30-10-2020 à 19:32:21  profilanswer
 

hisvin a écrit :


En effet.  :jap:
Une 6800xt passerait.  :love:


Tu as quoi comme alim ? D'après le calculateur, ma 750W platinium serait trop juste :heink:.
Edit > Je viens de refaire le test sur ce calculateur et je suis très large avec 513W consommés :D (avec une RX 6900).

Message cité 3 fois
Message édité par Gilbert Gosseyn le 30-10-2020 à 19:42:04

---------------
Tant que la couleur de la peau sera plus importante que celle des yeux, nous ne connaitrons pas la paix. ● L'écriture, c'est la mémoire du futur. ● Mods FO4
n°10867371
havoc_28
Posté le 30-10-2020 à 19:38:57  profilanswer
 

myzt a écrit :

Je suis hypé par la 6800/6800XT mais je me pose des questions quand même
 
Les modèles FE possèdent une ventilation passive (0 RPM en idle)?
 
Elle est trop moche la FE d'AMD, c'est quel constructeur qui font les cartes les plus belles?  [:jean risitasse:2]  
 
Les 16 go de mémoire vidéo c'est future proof? Parce que la 3070 n'a que 8 go et c'est celle que je vise de base


 
On n'a pas encore de détail sur la carte de référence d'AMD, et pour les 8 go de VRAM hum ça dépend surtout à quelle résolution tu joues ? En 1080p ça devrait aller en 1440p ça commence à se discuter et en 4K c'est clairement une interrogation si tu gardes ta carte 1 à 2 ans à la limite pourquoi pas hein, au pire sur quelques rare titres tu devras peut être faire une ou deux concessions.

Message cité 1 fois
Message édité par havoc_28 le 30-10-2020 à 19:44:37
n°10867372
AllenMadis​on
Posté le 30-10-2020 à 19:42:04  profilanswer
 

oufouf84 a écrit :

 

heeeeee, une 3080ti moins chère qu'une 3080, là tu rêve :s

 

Une 3080 plus perf qu'une 2080ti et moins chère, on m'avait dit que je rêvais :o

 

Je la sens venir gros comme un camion la douille des early buyers des 3080


Message édité par AllenMadison le 30-10-2020 à 19:44:33
n°10867373
_UnDeAd_
FrenchDreamer
Posté le 30-10-2020 à 19:45:36  profilanswer
 

Gilbert Gosseyn a écrit :


Tu as quoi comme alim ? D'après le calculateur, ma 750W platinium serait trop juste :heink:.
Edit > Je viens de refaire le test sur ce calculateur et je suis très large avec 513W consommés :D (avec une RX 6900).


 
Ouais du coup avec ma S12 500 w (590 dans les faits), ça passe large  :o


---------------
https://youtu.be/6HOoJPQZtgE?t=287
n°10867385
hisvin
Posté le 30-10-2020 à 19:59:49  profilanswer
 

Gilbert Gosseyn a écrit :


Tu as quoi comme alim ? D'après le calculateur, ma 750W platinium serait trop juste :heink:.


Une vieille Seasonic G650 passive qui doit avec 7-8 ans. Comme ça, on ne peut pas dire que j'avais fait une config au poil de cul près. :o
 
Edit:Ah, oui...Je confirme le 8 ans d'âge vu qu'à l'époque j'avais acheté un bulldozer.  :whistle:


Message édité par hisvin le 30-10-2020 à 20:02:06
n°10867387
sardhaukar
Posté le 30-10-2020 à 20:01:15  profilanswer
 

lecas a écrit :


 
C'est pour ça que t'as une commande de Strix sur le shop asus et une Trio sur RDC?


Annulée et annulée.  
10Go trop peu. Pas envie d'être coincé dans 18 mois car pas assez de RAM.  [:0nick_aj:6]
J'ai le pressentiment que les RX vieilliront mieux. Comme d'hab.

Message cité 1 fois
Message édité par sardhaukar le 30-10-2020 à 20:01:58
n°10867401
tchou@happ​y
Posté le 30-10-2020 à 20:33:32  profilanswer
 

Gilbert Gosseyn a écrit :


Tu as quoi comme alim ? D'après le calculateur, ma 750W platinium serait trop juste :heink:.
Edit > Je viens de refaire le test sur ce calculateur et je suis très large avec 513W consommés :D (avec une RX 6900).


 
 
Non mais faut arrêter avec les calculateurs aussi ...  
 
Une bonne alim 750W, ça sort 750W en continu sur le 12v, donc largement de quoi alimenter une carte de 400W et un n'importe quel processeur même oc.
 
Après c'est sur que si y a du jacky led néon de partout aussi hein  :pt1cable:  
 

n°10867409
Helyis
Choisir, c'est mourir un peu
Posté le 30-10-2020 à 20:40:06  profilanswer
 

Iryngael a écrit :

Non mais le RT globalement ça interesse que les devs qui n'ont plus à tricher pour faire des effets de reflets ou de Gi et peuvent utiliser les fonctions natives du RT pour le faire.  
Niveau dev c'est la simplification idéale.
 
Malheureusement, on  avait deja d'excellents cache-misères pour les reflets ou la GI. Y a qu'à voir FS2020 qui n'utilise pas de RT et fout une fessée visuelle à tous les jeux.
 
Attention je vais le redire une fois de plus : le RT pour les reflets OSEF on sait très bien les faker de façon convainquante.  
le RT c'est ideal pour faire de la vraie GI et à ce niveau, bien au delà de Control dont je ne comprends pas pourquoi tout le monde s'extasie tant devant en RT vu le resultat juste acceptable, c'est Minecraft RTX et Quake 2 RTX qui sont les meilleurs représentants de l'apport du RT avec un éclairage vraiment photoréaliste alors même que ce sont des jeux qui ne le sont pas du tout.
 
Et pourquoi le résultat est bien plus impressionnant avec ces 2 jeux ? Parce que c'est du low poly... Avoir de la belle GI du niveau de Minecraft RTX et pas juste des reflets selectifs sans des ombres crédibles dans des jeux AAA c'est pour l'instant inatteignable avec les perfs actuelles.
 
En voyant la comparaison sur Watchdogs ou même les jeux PS5 qui ont du RT, bah tout ce qu'on voit c'est 2 petites ombres et des reflets "réels" (et encore un peu sélectifs...) qui finalement n'apportent pas grand chose de plus que les astuces actuelles, sauf aux devs qui peuvent arrêter de se casser la tête.
 
J'étais parti pour prendre une 3080Ti avant l'annonce nVidia si elle avait été annoncée, puis je me suis dit que j'allais laisser sa chance à AMD et au final, je pense que pour activer le RT juste pour voir dans quelques jeux (j'ai fait que SoTR qui le supporte récemment...) et meme si ca se democratise mais que c'est pour avoir des résultats comme ce qu'on a depuis 2018, je vais plutôt favoriser le raster à meilleur prix...
 
Tant qu'on n'aura pas de la GI en RT équivalente à Minecraft RTX (ou la demo de billes nVidia) mais dans des AAA high poly , je pense que je n'activerai pas du tout le RT
 
(evidemment sous réserve que les chiffres annoncés soient respectés, que le prix et la dispo soient eux aussi là)


 
Merci pour cette bonne synthèse, ça résume assez bien ce que j'avais en tête, mais en y mettant les bons mots.
 
Le RT dans les jeux de manière vraiment convainquante, c'est pas encore aujourd'hui, et c'est pas en achetant une 3080 plutôt qu'une 6800xt qu'on s'assure pour l'avenir, la techno doit changer d'ordre de grandeur encore  

n°10867412
myzt
Posté le 30-10-2020 à 20:41:38  profilanswer
 

havoc_28 a écrit :


 
On n'a pas encore de détail sur la carte de référence d'AMD, et pour les 8 go de VRAM hum ça dépend surtout à quelle résolution tu joues ? En 1080p ça devrait aller en 1440p ça commence à se discuter et en 4K c'est clairement une interrogation si tu gardes ta carte 1 à 2 ans à la limite pourquoi pas hein, au pire sur quelques rare titres tu devras peut être faire une ou deux concessions.


Je veux jouer en 1440p @144 hz
Actuellement ma config c'est un Jonsbo d'élite  [:jean risitasse:2]  
Avec un Ryzen 3600, Asus Strix x570 F-Gaming, Corsair Vengeance 16 go DDR4 3600 mhz cas 18, 1 to NVME, Corsair RM650X (650w) et une MSI Gaming X 2060 Super et un écran FHD 144 hz Freesync que je vais bazarder
 
3070 FE
 
3070 MSI Trio
 
6800
 
6800XT
 
Hésitance  [:en reflet:6]


Message édité par myzt le 30-10-2020 à 20:44:10

---------------
Topic Unique | Matos PC Joueurs PC
n°10867414
Trezoster
Posté le 30-10-2020 à 20:43:41  profilanswer
 

drap', va falloir que je me refasse une config dans les prochains mois. Actuellement sur de l'AMD avec un 2700X + Vega64.

n°10867421
sepiroth
Posté le 30-10-2020 à 20:47:44  profilanswer
 

Le point positif c'est que la version Xbox one X de Watch dogs Legion tourne en 4K natif 30 FPS avec la panoplie Ray tracing activée.
 
Niveau look ça a l'air d'être du high ?
 
Plutôt bon signe pour les RX6000 quand on voit les FpS de la 3090 en 4k RT high... Et la X est une version bien castrée de RDNA2


Message édité par sepiroth le 30-10-2020 à 20:49:37

---------------
Pistarde Corvette C7 GrandSport M7 Katech Stg 2(620ch/740Nm) prépa méca/reprog perso (Hp tuners)/Tesla Model S Plaid/ 2022 Trailblazer RS
n°10867422
Ch@rly32
Posté le 30-10-2020 à 20:47:52  profilanswer
 

tchou@happy a écrit :


 
 
Non mais faut arrêter avec les calculateurs aussi ...  
 
Une bonne alim 750W, ça sort 750W en continu sur le 12v, donc largement de quoi alimenter une carte de 400W et un n'importe quel processeur même oc.
 
Après c'est sur que si y a du jacky led néon de partout aussi hein  :pt1cable:  
 


 
Et encore c'est pas 4 leds qui vont faire une différence.
Regardez les tests de conso à la prise des review, c'est la meilleure estimation que vous pourrez avoir.
10900k + 3080 FE, c'est ~550W tirés à la prise.

n°10867423
myzt
Posté le 30-10-2020 à 20:49:10  profilanswer
 

Y a quoi d'autres qui tirent sur l'alim à part le cpu+gpu?
Le SSD ça consomme rien du tout?
Et les périphériques?
 
 [:transparency]


---------------
Topic Unique | Matos PC Joueurs PC
n°10867429
havoc_28
Posté le 30-10-2020 à 20:52:55  profilanswer
 

myzt a écrit :

Y a quoi d'autres qui tirent sur l'alim à part le cpu+gpu?
Le SSD ça consomme rien du tout?
Et les périphériques?
 
 [:transparency]


 
Carte mère, périphérique, SSD => c'est très peu au final, 30 à 50w à tout casser, après si tu as une 5/6 de disque dur et que tu les fais tous travailler en même temps ça consomme un peu plus, la je parle genre de 2 M2, un à deux disque dur, un lecteur optique, les périphériques standards et voila.

Message cité 1 fois
Message édité par havoc_28 le 30-10-2020 à 20:54:45
n°10867432
alffir
Posté le 30-10-2020 à 20:54:35  profilanswer
 

havoc_28 a écrit :

Oui y a des truc pas mal dans Control, c'est vrai, mais faut aussi noter qui a pas mal de reflexion qui sont passés à la trappe, par exemple quand le personnage est devant une surface vitré, ou la réflexion du personnage principal aurait pu être faite sur la surface vitrée par l'utilisation d'un simple screen space, ce qui n'a pas été le cas dans Control.


J'ai un peu peur qu'avec le RT, les développeurs negliegent les reflets à l'ancienne, soit par économie de temps, soit pour mettre en valeur le RT.

 
qhyron90 a écrit :

j'avais pris exprès un 2600 à 80€ en ayant en tête de passer au 4xxx (devenus 5xxx) :D

 

donc je pensais prendre l'année prochaine un 5600x d'occasion :)

 

dommage de pas pouvoir profiter du SAM avec ma B450 :D


J'avais prévu de me faire une config cheap à base de B450 et de 2600 d'occasion, mais avec le Smart Access Memory je vais sûrement prendre une B550.


---------------
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes.
n°10867434
havoc_28
Posté le 30-10-2020 à 20:56:39  profilanswer
 

alffir a écrit :

J'ai un peu peur qu'avec le RT, les développeurs negliegent les reflets à l'ancienne, soit par économie de temps, soit pour mettre en valeur le RT.


 
A moyen / long terme ça finira par arriver, mais on en a encore pour facilement 2 ans voir 3 le temps que les devs abandonnent petit à petit les PS4 / Xboite X (et le temps aussi que petit à petit le parc du matériel se renouvelle etc).

Message cité 2 fois
Message édité par havoc_28 le 30-10-2020 à 20:57:40
n°10867435
myzt
Posté le 30-10-2020 à 20:58:21  profilanswer
 

havoc_28 a écrit :


 
Carte mère, périphérique, SSD => c'est très peu au final, 30 à 50w à tout casser, après si tu as une 5/6 de disque dur et que tu les fais tous travailler en même temps ça consomme un peu plus, la je parle genre de 2 M2, un à deux disque dur, un lecteur optique, les périphériques standards et voila.


J'ai très peu de disques durs, juste un NVME d'1 to, j'avais peur que les périphériques bouffent de la conso, genre manette, clavier, souris...
Après AMD recommande un PSU de 700w sur le 6800XT, moi j'ai qu'une 650w, je suis sûr que ça va passer mais est-ce que c'est le rendement sera optimal?  [:transparency]

Message cité 2 fois
Message édité par myzt le 30-10-2020 à 20:59:16

---------------
Topic Unique | Matos PC Joueurs PC
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  114  115  116  ..  582  583  584  585  586  587

Aller à :
Ajouter une réponse
 

Sujets relatifs
Amd Rysen serie 3000 ou patienceTempératures AMD RX 580 8 Go
Config.Gamer: Intel ou AMD ?.
Question processeur I7 7700K ou AMD Ryzen 3700xUtilisation AMD Ryzen Master
CG Nvidia + CG Amd dans un même PC.[Topic unique] ASUS TUF GAMING B550M-PLUS (wifi) AM4 eternal socket
[Topic Unique] Technologie SMR...Compatibilité AMD Radeon HD 6670
Plus de sujets relatifs à : [Topic Unique] RDNA2 - AMD RX6x00 - Navi 2x


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR