Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2823 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  981  982  983  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°10406873
Bébé Yoda
Posté le 16-08-2018 à 11:41:54  profilanswer
 

Reprise du message précédent :

havoc_28 a écrit :

 

ça s’appelle une rumeur, rien de plus, y a eut aucun communiqué de presse, ou modification de roadmap de Nvidia à ce moment la. De plus la GDDR6 sa disponibilité en masse c'est assez récent, Samsung en premier, puis Micron et encore plus récemment SK Hynix.

 

Bref ils auraient pu sortir au mieux leurs cartes à la fin du printemps quand la GDDR6 a commencé a vraiment être disponible ... Bref décaler une sortie de Fin mai / début juin à toute fin août / courant septembre c'est pas la mort.

 

Merci pour les précisions et ça m'évitera de dire des conneries :D

mood
Publicité
Posté le 16-08-2018 à 11:41:54  profilanswer
 

n°10406875
ZzDazzleZz
Bencheur Oufff
Posté le 16-08-2018 à 11:46:42  profilanswer
 

havoc_28 a écrit :


 
ça s’appelle une rumeur, rien de plus, y a eut aucun communiqué de presse, ou modification de roadmap de Nvidia à ce moment la. De plus la GDDR6 sa disponibilité en masse c'est assez récent, Samsung en premier, puis Micron et encore plus récemment SK Hynix.
 
Bref ils auraient pu sortir au mieux leurs cartes à la fin du printemps quand la GDDR6 a commencé a vraiment être disponible ... donc décaler une sortie de fin mai / début juin à toute fin août / courant septembre c'est pas la mort.


 
Ils auraient même pu sortir la nouvelle gen début fin mars début avril, étant donné que la GDDR6 était dispo chez Samsung en janvier avec une production de masse :)
http://www.comptoir-hardware.com/a [...] gddr6.html

Message cité 1 fois
Message édité par ZzDazzleZz le 16-08-2018 à 11:48:38
n°10406902
havoc_28
Posté le 16-08-2018 à 12:44:30  profilanswer
 

ZzDazzleZz a écrit :


 
Ils auraient même pu sortir la nouvelle gen début fin mars début avril, étant donné que la GDDR6 était dispo chez Samsung en janvier avec une production de masse :)
http://www.comptoir-hardware.com/a [...] gddr6.html


 
Oui, samsung en premier, mais autant attendre que SK Hynix et Micron aient également leurs billes prêtes (en tout cas pour les Geforces afin de baisser leurs coups au maximums, moins un problème coté quadro).


Message édité par havoc_28 le 16-08-2018 à 15:00:19
n°10406935
aliss
Rhyme the Rhyme Well
Posté le 16-08-2018 à 14:02:48  profilanswer
 

Si le RTX est l'argument n°1 de Turing, ça sort peut-être même trop tôt... :o  :D

n°10406938
havoc_28
Posté le 16-08-2018 à 14:06:29  profilanswer
 

aliss a écrit :

Si le RTX est l'argument n°1 de Turing, ça sort peut-être même trop tôt... :o  :D


 
Comme les Pixels / vertex Shaders de la geforce 3, mais faut bien commencer par quelque chose :p.

n°10407212
Invite_Sur​prise
Racaille de Shanghaï
Posté le 16-08-2018 à 20:25:35  profilanswer
 

aliss a écrit :

Si le RTX est l'argument n°1 de Turing, ça sort peut-être même trop tôt... :o  :D


C'est ce qu'on va voir bientôt  :D  
 
Comme on disait auparavant, il faut s'attendre à des puces plus grosses et NV semble avoir bien tuné le 16nm de TSMC.
Mais c'est vrai que la prez de Turing au Siggraph est un beau coup de comm, bien exécuté et il faut maintenant voir ce qu'ils ont à nous offrir avec des tests et pas que des slides.

n°10407221
Profil sup​primé
Posté le 16-08-2018 à 21:05:21  answer
 

havoc_28 a écrit :


 
Comme les Pixels / vertex Shaders de la geforce 3, mais faut bien commencer par quelque chose :p.


 
en effet ça se passe presque toujours comme ça  
 
on peut citer aussi l'HDR  
 
ça a pris du temps et au début c'était surtout très gourmand pour un rendu pas toujours convaincant avant de devenir une norme  

n°10407243
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 16-08-2018 à 21:56:34  profilanswer
 

Fouge a écrit :

Pas sur du x86 ? Et pourquoi ne pas faire un gros GPU constitué de plein de petits cores x86 dotés de grosses unités vectorielles et d'un peu de hardware dédié au graphique (en provenance de ces bons vieux IGP, pas la peine de réinventer la roue) : on obtiendrait un GPU capable de tout supporter (DirectX, OpenGL, OpenCL, Vulkan, etc.) du moment que les drivers suivent, attaquant AMD et nVidia sur le terrain des cartes graphiques mais aussi celui du HPC. Juste en recompilant nos programmes x86, on pourrait les faire tourner de manière massivement parallèle :love:
 
https://i.imgflip.com/2fy66b.jpg


Mais pourquoi personne n’y a pensé plus tôt ! :o

n°10407268
major95
The !!!! Beat
Posté le 16-08-2018 à 23:05:46  profilanswer
 

Marc a écrit :


Mais pourquoi personne n’y a pensé plus tôt ! :o

 

Y'en a qui ont essayé, ils ont eu des problèmes. [:cetrio]


Message édité par major95 le 17-08-2018 à 16:44:29
n°10407495
KrisKross
Posté le 17-08-2018 à 14:39:05  profilanswer
 

Ils se sont même pris une quenelle, donc l'idée, pas possible de la rabioter.
 
EDIT: :whistle:


Message édité par KrisKross le 17-08-2018 à 14:41:19
mood
Publicité
Posté le 17-08-2018 à 14:39:05  profilanswer
 

n°10407960
bgx
reviens brunette!
Posté le 18-08-2018 à 12:06:48  profilanswer
 

m'enfin c'est vous qui voyez.
 
Selon les sites putaclick, les 2080(ti) serait 100$ plus cher que les 1080(ti) a leur sortie...
 
285W de TDP/ 3000"cores"@1710(4350 core @1545).
Apres, ca a l'air puissant sur le papier, et aussi beaucoup trop cher.


Message édité par bgx le 18-08-2018 à 12:08:23
n°10409373
Godyfou
Posté le 20-08-2018 à 17:47:10  profilanswer
 

C'est à quelle heure l'annonce ? Où pourra t on en avoir un résumé ?

n°10409374
havoc_28
Posté le 20-08-2018 à 17:47:40  profilanswer
 

https://www.twitch.tv/nvidia 18h
 
Les sites d'informatiques, feront surement un résumé, récapitulatif des annonces.


Message édité par havoc_28 le 20-08-2018 à 17:48:09
n°10410657
bgx
reviens brunette!
Posté le 21-08-2018 à 12:15:50  profilanswer
 

640 euros le prix de la 2070! ouch.  
 
Pour quelquechose sur le papier equivalent a un 1080.
 
On trouve des 1080ti presque a ce prix la (690euros), qui ont l'air d'etre toujours bcp plus puissante.
 
La seule bonne nouvelle, c'est que ca devrait faire baisser les 1070 et +


Message édité par bgx le 21-08-2018 à 12:21:03
n°10410674
major95
The !!!! Beat
Posté le 21-08-2018 à 12:21:49  profilanswer
 


La 2070 est annoncée pour des perfs équivalente à la 1080 Ti.

n°10410688
bgx
reviens brunette!
Posté le 21-08-2018 à 12:28:45  profilanswer
 

major95 a écrit :


La 2070 est annoncée pour des perfs équivalente à la 1080 Ti.


 
https://www.lesnumeriques.com/carte [...] 77255.html
 
 
sur le papier, la 1080ti est clairement devant.
Il faut attendre 1 mois et les tests pour savoir ce qu'il en ait.
 
3584@1480 (indice 5,3), 484GB/Sec (1080ti)
vs
2304@1710 (indice 3.9), 448GB/Sec (2070)
 
J'ai pas les ROPs, mais je pense pas que la 2070 en ai tplus que le 1080ti (sans doute moins).
Sur le papier, la 1080ti est 25% au dessus de la 2070.

n°10410743
havoc_28
Posté le 21-08-2018 à 13:05:30  profilanswer
 

major95 a écrit :


La 2070 est annoncée pour des perfs équivalente à la 1080 Ti.


 
Y a eut aucune annonce dans ce sens.

n°10410765
major95
The !!!! Beat
Posté le 21-08-2018 à 13:18:54  profilanswer
 

Mais j'y crois.  :o

n°10410776
havoc_28
Posté le 21-08-2018 à 13:26:37  profilanswer
 

major95 a écrit :

Mais j'y crois.  :o


 
Le soucis lors de cette conférence, c'est qu'aucune comparaison n'a été faite sur des jeux actuels sans Ray Tracing. La boucle d'une démo technique inflitrator, dont on ne connait rien des conditions utilisés, et si cette boucle n'a pas été joué plusieurs fois histoire que l'IA finisse par deviner ce qui a a calculé à l'avance (Tensor Core), voila quoi.

n°10410830
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-08-2018 à 13:50:35  profilanswer
 

Je suis curieux de connaître le budget transistor dédié au RTX sur les nouvelles puces. S’il est important (j’en doute mais bon) c’est un sacré pari tout de même plutôt que d’allouer ça aux performances en Rasterization classique. Remarque vu ce qu’il y’a en face ce n’est pas trop risqué.

n°10410838
durandal2
Goatse bless 'Murica
Posté le 21-08-2018 à 13:53:07  profilanswer
 

un peu quand meme, la majorité des gens vont attendre le bench. Si il y a pas une amelioration niveau rasterisation, a moins que les patch rtx sortent tres vite pour les jeux, mettant a genoux les CG actuelles, ca risque de faire un bide. (il vaudrait mieux pas dans ce cas, laisser les anciennes gen se vendre(


---------------
Soutien aux modérateurs victimes des attentats trollesques du topic Charlie Hebdo.
n°10410846
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-08-2018 à 13:55:12  profilanswer
 

Ba, bien sûr qu’il y’aura amélioration !

n°10410870
aliss
Rhyme the Rhyme Well
Posté le 21-08-2018 à 14:12:10  profilanswer
 

Nvidia RTX 20 Graphics Cards: Why You Should Jump Off The Hype Train
 
...The reality of the RTX 20 Series that releases next month is this: it's a shameless money-grab designed to get early adopters on the ray tracing hype train for the 20 or so games that will ship with the feature. It's a stopgap to next year's 7nm cards which will offer substantial performance gains and power efficiency improvements. And as for the price tag, Nvidia can charge whatever it desires due to lack of competition in the high-end space...
 
https://www.forbes.com/sites/jasone [...] 6113b13f8e
 
C'est pas le premier article allant dans le même sens que j'ai lu depuis hier. Ca fait des années que je n'ai pas vu la presse aussi peu enthousiaste à l'annonce d'un produit nV.

n°10410884
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-08-2018 à 14:19:34  profilanswer
 

Ah c’est sûr que niveau timing, mettre 1200 € sur la table a un an environ de l’arrivée du 7nm ne parait pas super opportun. Après si dans un an il n’y a toujours personne en face...

n°10410900
Nono0000
Posté le 21-08-2018 à 14:28:33  profilanswer
 

durandal2 a écrit :

un peu quand meme, la majorité des gens vont attendre le bench. Si il y a pas une amelioration niveau rasterisation, a moins que les patch rtx sortent tres vite pour les jeux, mettant a genoux les CG actuelles, ca risque de faire un bide. (il vaudrait mieux pas dans ce cas, laisser les anciennes gen se vendre(

 

On a plus ou moins une liste de jeux qui supporteront RTX:
https://www.guru3d.com/news-story/n [...] pport.html

 

mais le "quand" n'est pas défini :/ (à la sortie pour BFV et TBR visiblement...)


Message édité par Nono0000 le 21-08-2018 à 14:30:25

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10411066
Zeross
Posté le 21-08-2018 à 16:25:34  profilanswer
 

Marc a écrit :

Ah c’est sûr que niveau timing, mettre 1200 € sur la table a un an environ de l’arrivée du 7nm ne parait pas super opportun. Après si dans un an il n’y a toujours personne en face...


 
Vega 20 c'est Q42018/Q1 2019 et c'est pas orienté sur le même segment a priori.  
Navi c'est Q3 2019 pour ce que j'en sais, donc Nvidia a un an durant lequel leur principal concurrent c'est Pascal :/

n°10411548
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-08-2018 à 23:14:50  profilanswer
 

Yep
 
Tiens sinon Zeross quelqu’un a reposté ça sur le topic Turing :D
https://www.tomshardware.fr/article [...] 2-591.html

n°10411559
Usernet
Since 2004
Posté le 21-08-2018 à 23:24:33  profilanswer
 

@Zeross : 9 années sont passées depuis cet article, changerais-tu ta conclusion aujourd'hui ?

n°10411568
Profil sup​primé
Posté le 21-08-2018 à 23:33:24  answer
 

j'avais vraiment apprécié cet article  
au point de le garder dans mes favoris depuis tout ce temps  
 
je suis très  honoré d'avoir l'auteur 3 post au dessus   [:implosion du tibia]
 
avec 9 ans de retard, merci  :jap:  
 
 


Message édité par Profil supprimé le 21-08-2018 à 23:36:32
n°10411587
@chewie
Posté le 21-08-2018 à 23:56:25  profilanswer
 

La conclusion reste d'actualité [:implosion du tibia]

 

L'exemple des réflections dans les jeux de bagnoles est très pertinent: ok les reflections sont fausses mais le rendu est suffisament bluffant.
Les techniques pour calculer tous ces artifices se sont tellement améliorées avec le temps que ce sera presque dommage de tout jetter pour avoir un "simple" algo universel. :D

 

J'ai pas trop suivis la conf nvidia mais est ce que ces rt cores peuvent aussi servir a de la rasterization classique?
Si pas, la encore la conclusion reste parfaite: toute cette débauche de puissance pour presque rien :o

 

Si nvidia veut vraiment promouvoir cette techno, je suis pas certains qu'à ce tarif là ca se fasse super vite :p

Message cité 1 fois
Message édité par @chewie le 21-08-2018 à 23:57:07
n°10411606
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 00:14:59  profilanswer
 

@chewie a écrit :

La conclusion reste d'actualité [:implosion du tibia]
 
L'exemple des réflections dans les jeux de bagnoles est très pertinent: ok les reflections sont fausses mais le rendu est suffisament bluffant.  
Les techniques pour calculer tous ces artifices se sont tellement améliorées avec le temps que ce sera presque dommage de tout jetter pour avoir un "simple" algo universel. :D
 
J'ai pas trop suivis la conf nvidia mais est ce que ces rt cores peuvent aussi servir a de la rasterization classique?
Si pas, la encore la conclusion reste parfaite: toute cette débauche de puissance pour presque rien :o
 
Si nvidia veut vraiment promouvoir cette techno, je suis pas certains qu'à ce tarif là ca se fasse super vite :p


 
Un slide issu du Syggraph.
 
https://i.imgur.com/XXllu1T.png
 
https://twitter.com/CasualEffects
 
Je ne sais pas par contre si la différence avec le GV100 est directement liée aux RT Core.

n°10411621
Zeross
Posté le 22-08-2018 à 00:22:28  profilanswer
 

Oui ça m'a fait rire de voir le raytracing temps réel refaire le buzz quasiment 10 ans plus tard. L'adage "raytracing is the future... and always will be !" ne s'est jamais autant appliqué :D

 

Depuis cet article il y a eu quand même pas mal de changements. Contrairement à ce que je disais à l'époque dans la conclusion, aujourd'hui quasiment tous les moteurs de rendu offline (Arnold, Renderman, Hyperion...) sont passés au path tracing. De plus ce que je n'avais pas du tout anticipé c'est l'évolution des algorithmes de débruitage (notamment ceux basés sur les réseaux neuronaux) qui ont fait de gros progrès et permettent de limiter largement le nombre de rayons nécessaires pour les effets intéressants de type ombres douces etc...

 

Enfin l'approche de MS/Nvidia qui consiste à utiliser le raytracing avec parcimonie sur certains effets ciblés semble plus raisonnable que celle d'intel qui voulait l'utiliser pour tout le rendu. J'en parlais déjà à l'époque dans la section "un moteur de rendu hybride ?" même si ça ne me semblait pas facilement réalisable, il s'avère que j'avais tort et cette approche est quand même largement moins risquée : pas besoin de tout miser sur le raytracing, on peut commencer à l'introduire sous forme de bonus pour le très haut de gamme avant de le généraliser petit à petit. C'est aussi beaucoup plus économe vu qu'utiliser du raytracing pour la visibilité c'est quand même un énorme gâchis.

 

Après je ne m'étais pas complètement planté non plus : pour l'instant les démos RTX mettent énormément  l'accent sur les réflexions, c'est sympa de ne plus avoir les artefacts des techniques screenspace, mais ce n'est pas non plus la révolution.

 

Bref, je pense que les conditions sont nettement plus favorables pour que le raytracing s'impose cette fois, même si ça ne révolutionnera pas le rendu, lorsque ça sera démocratisé et que les moteurs 3D pourront être architecturés autour de ce nouveau paradigme, ça pourrait grandement simplifier la production en évitant pas mal de hacks assez fragiles que les graphistes utilisent habituellement pour les ombres, l'ambient occlusion ou les réflexions voire l'illumination globale. Reste toutefois à voir les performances en pratique, déjà sur cette première génération mais surtout son évolution sur les suivantes. Le problème du raytracing n'est pas tellement la puissance de calcul mais surtout les accès mémoires et on sait tous que c'est bien plus difficile à améliorer.

 

Il y a aussi la grande inconnue qui risque de pas mal conditionner le support du raytracing temps réel à terme c'est quid de la prochaine génération de consoles ? Si les prochaines Playstation et Xbox ne le supportent pas, ça risque de pas mal freiner son adoption et ça restera longtemps limité à quelques effets spécifiques, réservés aux PC très haut de gamme. Vu que comme Marc le disait, on n'a aucune idée de l'impact du raytracing sur le die de Turing c'est difficile de savoir pour le moment, mais les chips consoles ont pas mal de contraintes à ce niveau donc j'ai du mal à les voir réserver un nombre conséquent de  transistors au raytracing.

 

À voir donc, mais au moins ça bouge et beaucoup de gens très brillants bossent là dessus, ce n'est pas un gage de succès mais c'est quand même intéressant à suivre  :)


Message édité par Zeross le 22-08-2018 à 00:23:52
n°10411678
Profil sup​primé
Posté le 22-08-2018 à 03:04:55  answer
 

ton article reste un modèle en terme de "vulgarisation"  
 
c'était du travail de qualitay :o  

n°10411692
major95
The !!!! Beat
Posté le 22-08-2018 à 07:04:37  profilanswer
 

Marc a écrit :

Je suis curieux de connaître le budget transistor dédié au RTX sur les nouvelles puces. S’il est important (j’en doute mais bon) c’est un sacré pari tout de même plutôt que d’allouer ça aux performances en Rasterization classique.

 

Justement c'est pas une bonne nouvelle, toi qui trouvais qu'il n'y a avez plus assez d'évolutions marquantes dans l'informatique ?  :D

 

Bon même si la technique de rendu date, certes mais réussir à faire tourner ça en temps réel est une sacrée performance.

Message cité 1 fois
Message édité par major95 le 22-08-2018 à 07:05:21
n°10411705
Bébé Yoda
Posté le 22-08-2018 à 07:39:25  profilanswer
 

Super article en tout cas, j'ai hâte de pouvoir me poser tranquille pour le lire :)

n°10411723
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 08:26:01  profilanswer
 

major95 a écrit :


 
Justement c'est pas une bonne nouvelle, toi qui trouvais qu'il n'y a avez plus assez d'évolutions marquantes dans l'informatique ?  :D  
 
Bon même si la technique de rendu date, certes mais réussir à faire tourner ça en temps réel est une sacrée performance.  


 
Je trouve personnellement que les Tensor/RT Core prennent trop de place pour les quelques effets de lustrage autorisés avec Turing.
 
Ca génère pour le consommateur un surcoût (die 60% plus gros que le GP102 tout de même...) avec des transistors qui seront inutilisés la plupart du temps.

Message cité 1 fois
Message édité par aliss le 22-08-2018 à 08:26:54
n°10411741
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-08-2018 à 08:57:22  profilanswer
 

De toute façon, vu qu'ils sont quasi seuls en course dans l'innovation, ils font ce qu'ils leur chantent.
Et même si avec des core RT, des Tensos Cores, ils défoncent ce que fait la concurrence ben c'est le bon moment pour l'introduire.
En rasterisation, ils dominent les débats donc autant en profiter et tenter d'imposer de nouveaux standards.
Même si je suis absolument pas d'accord avec cette façon de faire (préco sans test, sans idée de performances réelles, prix démesurés), on peut pas leur en vouloir de tenter.
Si ça se trouve, il y a plus de chances que cela s'impose via la grande force de l'ecosystème de NV que DX12 lui-même.
L'approche est intéressante et plutôt ambitieuse, le but du jeu c'et d'avancer et d'enrichir toujours plus les possibilités graphiques pour nous les joueurs.

n°10411751
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 09:09:53  profilanswer
 

Ah mais je ne remet pas en cause le fait de pousser vers le Ray Tracing. C'était attendu, et depuis longtemps.
 
Je trouve par contre qu'ils ont du faire trop de concessions sur cette mouture afin de conserver suffisamment de puissance brute.
 
Laisser Turing 16nm aux mains des devs et débuter l'an prochain avec une RTX en 7nm et un catalogue de titres pris en charge "day one" m'aurait déjà plus convaincu.

n°10411752
chrisleurn
Hardcore Will Never Die !
Posté le 22-08-2018 à 09:10:14  profilanswer
 

Invite_Surprise a écrit :

De toute façon, vu qu'ils sont quasi seuls en course dans l'innovation, ils font ce qu'ils leur chantent.
Et même si avec des core RT, des Tensos Cores, ils défoncent ce que fait la concurrence ben c'est le bon moment pour l'introduire.
En rasterisation, ils dominent les débats donc autant en profiter et tenter d'imposer de nouveaux standards.
Même si je suis absolument pas d'accord avec cette façon de faire (préco sans test, sans idée de performances réelles, prix démesurés), on peut pas leur en vouloir de tenter.
Si ça se trouve, il y a plus de chances que cela s'impose via la grande force de l'ecosystème de NV que DX12 lui-même.
L'approche est intéressante et plutôt ambitieuse, le but du jeu c'et d'avancer et d'enrichir toujours plus les possibilités graphiques pour nous les joueurs.


[:rofl][:rofl][:rofl][:rofl][:rofl][:rofl][:rofl]
 
J'imagine AMD faire de même, et ta réaction après ça
 
[:rofl][:rofl][:rofl][:rofl][:rofl][:rofl][:rofl]

n°10411779
Nono0000
Posté le 22-08-2018 à 09:36:11  profilanswer
 

Invite_Surprise a écrit :

De toute façon, vu qu'ils sont quasi seuls en course dans l'innovation, ils font ce qu'ils leur chantent.
Et même si avec des core RT, des Tensos Cores, ils défoncent ce que fait la concurrence ben c'est le bon moment pour l'introduire.
En rasterisation, ils dominent les débats donc autant en profiter et tenter d'imposer de nouveaux standards.
Même si je suis absolument pas d'accord avec cette façon de faire (préco sans test, sans idée de performances réelles, prix démesurés), on peut pas leur en vouloir de tenter.
Si ça se trouve, il y a plus de chances que cela s'impose via la grande force de l'ecosystème de NV que DX12 lui-même.
L'approche est intéressante et plutôt ambitieuse, le but du jeu c'et d'avancer et d'enrichir toujours plus les possibilités graphiques pour nous les joueurs.


 
Je ne pense pas que cela intéresse uniquement les joueurs. Le marché pro est sans doute bien plus réceptif à ces changements.
Est-ce qu'ils auraient dû se cantonner aux Quadro? Je pense que oui. Cela aurait évité toutes ces polémiques... même si certains auraient également trouvé à redire.
 
Je serais curieux de savoir sur quels volumes de vente ils tablent pour les Geforce. Cela va rester un marche de niche (comme le HDG de manière générale).
Rien ne dit aussi que les modèles en dessous en seront équipés. On peut très bien avoir une segmentation à ce niveau et avoir des 2060 GTX.
 
Après le Nvlink, c'est l'autre point qui me titille. Pour lui aussi, il y a une débauche de transistors (et de contrainte de routing sur le PCB), qui, s'il ne sert qu'à faire du ping-pong de frame buffer, serait complétement inutile :/


---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10411804
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-08-2018 à 09:57:44  profilanswer
 

chrisleurn a écrit :


[:rofl][:rofl][:rofl][:rofl][:rofl][:rofl][:rofl]
 
J'imagine AMD faire de même, et ta réaction après ça
 
[:rofl][:rofl][:rofl][:rofl][:rofl][:rofl][:rofl]


Reste dans le mode du rêve alors...
AMD est tellement à la rue mon gars...
 

Nono0000 a écrit :

Je ne pense pas que cela intéresse uniquement les joueurs. Le marché pro est sans doute bien plus réceptif à ces changements.
Est-ce qu'ils auraient dû se cantonner aux Quadro? Je pense que oui. Cela aurait évité toutes ces polémiques... même si certains auraient également trouvé à redire.


 
La principale polémique pour moi c'est de ne pas communiquer sur les capacités réelles de ces cartes en rasterisation.
Le principe de précommande est absolument ridicule et j'espère que les gens ne vont pas tomber dans le panneau.
Mais le but est d'en offrir toujours plus et les quelques démos réalisées sont assez encourageantes et visuellement c'est pas mal du tout, la démo de BF5 est vraiment bien faite.
C'est peut-être un peu tôt mais NV va essayer d'imposer de nouveaux standards avec des avancées matérielles très importantes.
C'est un premier jet et on verra comment l'expérience se passe, mais si ça se passe bien, ils pourraient généraliser à des puces plus petites.

Message cité 1 fois
Message édité par Invite_Surprise le 22-08-2018 à 10:05:08
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  981  982  983  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)