Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2998 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  75  76  77  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10793646
ppn7
Posté le 17-07-2020 à 21:56:21  profilanswer
 

Reprise du message précédent :

AllenMadison a écrit :

20% moins chérosse ça serait déjà pas mal si perf quasi égales.


 
Je me dis ça c’est possible mais faudrait qu’AMD est encore un train de retard sur les Tensors core ou le ray tracing.  
Moi je pense que ça aurait pas été mauvais de faire des GPU moyen/haut de gamme sans RT avec en plus une gamme RT. Ceux qui veulent du RT ils achètent et ceux qui trouvent que c’est encore trop tôt ils achètent pas. Mais ça bien sûr ils l’ont compris Nvidia, on finance pas le RT sans forcer le consommateur a acheté sa technologie.  
 
Si Nvidia avait sortie une GTX 2080Ti sans RT 300€ moins chère je dis ça au pif, pareil pour les autres gammes, ils auraient coulé le navire du RT

mood
Publicité
Posté le 17-07-2020 à 21:56:21  profilanswer
 

n°10793650
obduction
Posté le 17-07-2020 à 22:10:13  profilanswer
 

Tolrahc a écrit :

 

Dixit le mec qui veut jouer au flic et rectifier tout le monde en permanence [:vc4fun:3]
En tous cas tu te décris bien là.
Moi, j'ai fait que relayer un article. Toi par contre, tu geins depuis tout à l'heure avec ton coté donneur de leçon. J'ai l'impression que t'as rien d'autre à foutre de tes journées.

 


Tolrahc a écrit :

 

Qu'un fabricant nous sorte une connectique propriétaire à la con et essaye de nous l'imposer comme un standard. (j'irais pas jusqu'à dire que c'est l'histoire du GSync / Freesync qui se répète mais bon)
Comme si la fiche avait besoin de changer de forme pour justifier leur adaptateur à 2 balles. (Fourni avec ou pas, je m'en cogne, on aurait pu brancher nos 2x6 dessus mais ces messieurs de NVIDIA aiment faire dans l'exotisme :o )


La mauvaise foi quand tu nous tiens. :lol:

 
aliss a écrit :

 

Tom's, Guru, TPU et d'autres relaient pas mal de conneries depuis quelques années.

 

Générer du clic semble aujourd'hui bien plus important qu'acquérir (ou conserver) de la fiabilité.


Tu parles des news ou des tests?

Message cité 1 fois
Message édité par obduction le 17-07-2020 à 22:20:56
n°10793651
obduction
Posté le 17-07-2020 à 22:19:48  profilanswer
 

ppn7 a écrit :


 
Ils peuvent très volontairement omettre des détails sans que leur crédibilité soit remise en question.  
Ça peut être subtile. Et c’est partout comme ça. Surtout si tu fais une vidéo sponsorisée, tu vas pas cracher sur celui qui te paye c’est logique. Ça veut pas dire que tu n’as pas le droit d’émettre de critique.  
 
 


Sauf que quand c'est une vidéo sponsorisée, c'est écrit.
 
 

Citation :

Je préviens d’avance. Ne me faites pas dire ce que je n’ai pas dit.
 
En gros c’est pas parce qu’une personne, dite sérieuse, ne voit pas un défaut qu’il n’y en a pas.


Comme c'est pas parce qu'un random dit qu'il en voit un et te le montre dans une vidéo qu'il y en a un forcément qui est du à ce que le random te dit.
 
En général, Digital fundry, c'est le genre à faire zoom x50 pour trouver des différences dans les détails donc les défauts s'il y en, ils les auront vu avec une très forte probabilité.
 

Citation :


Pour en venir au DLSS sur Control, même avec le 2.0, dans la vidéo de digital foundry sur le 1080p, on voit des artefacts sur certains objets en mouvement. Ça ressemble à ce que je vois dans la vidéo de death stranding.  
 
Je suis fan de cette technologie mais elle reste perfectible.


Il peut y avoir quelques défauts d'artefacts avec le dlss2.0 surtout en mode performance mais en mode quality, en général, à moins de zoomer, c'est presque invisible en tout cas sur les jeux le supportant hors death stranding car je ne me suis pas attardé outre mesure sur ce jeu.
Cela ne veut pas dire qu'il n'y en a pas pour death stranding mais il faut voir les tests sérieux pour savoir si ça existe vraiment et si un ne te suffit pas, le mieux est d'en voir plusieurs tout en restant sur les sites sérieux.
 
La chose que j'ai lu ressortant dans les tests sérieux sur DS, c'est que la qualité visuelle du dlss 2.0 est similaire au natif voir parfois le dépasse un peu sur le blur du au TAA et est supérieure à l'uopscaling d'AMD.
 
Tout comme le DLSS a mis plus d'un an à devenir quasi parfait avec la v2, peut être que l'upscaling d'AMD le deviendra dans une prochaine version d'ici quelques mois.

n°10793653
Le Profana​teur
Passéiste désincarné
Posté le 17-07-2020 à 22:22:07  profilanswer
 

obduction a écrit :


La mauvaise foi quand tu nous tiens. :lol:
 


Pitié le relance pas :d


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°10793657
zbineulong​time
☱☱☱☱☱☱☱☱☱☱☱☱
Posté le 17-07-2020 à 22:42:44  profilanswer
 

Moi je m’en tamponne royal qu’il faille utiliser un adaptateur...
Enfin franchement, c’est un détail.... comme dit plus haut du 12v c’est du 12v, faut passer à autre chose !


---------------
.
n°10793662
ppn7
Posté le 17-07-2020 à 22:48:48  profilanswer
 

obduction a écrit :


Sauf que quand c'est une vidéo sponsorisée, c'est écrit.
 
 

Citation :

Je préviens d’avance. Ne me faites pas dire ce que je n’ai pas dit.
 
En gros c’est pas parce qu’une personne, dite sérieuse, ne voit pas un défaut qu’il n’y en a pas.


Comme c'est pas parce qu'un random dit qu'il en voit un et te le montre dans une vidéo qu'il y en a un forcément qui est du à ce que le random te dit.
 
En général, Digital fundry, c'est le genre à faire zoom x50 pour trouver des différences dans les détails donc les défauts s'il y en, ils les auront vu avec une très forte probabilité.
 

Citation :


Pour en venir au DLSS sur Control, même avec le 2.0, dans la vidéo de digital foundry sur le 1080p, on voit des artefacts sur certains objets en mouvement. Ça ressemble à ce que je vois dans la vidéo de death stranding.  
 
Je suis fan de cette technologie mais elle reste perfectible.


Il peut y avoir quelques défauts d'artefacts avec le dlss2.0 surtout en mode performance mais en mode quality, en général, à moins de zoomer, c'est presque invisible en tout cas sur les jeux le supportant hors death stranding car je ne me suis pas attardé outre mesure sur ce jeu.
Cela ne veut pas dire qu'il n'y en a pas pour death stranding mais il faut voir les tests sérieux pour savoir si ça existe vraiment et si un ne te suffit pas, le mieux est d'en voir plusieurs tout en restant sur les sites sérieux.
 
La chose que j'ai lu ressortant dans les tests sérieux sur DS, c'est que la qualité visuelle du dlss 2.0 est similaire au natif voir parfois le dépasse un peu sur le blur du au TAA et est supérieure à l'uopscaling d'AMD.
 
Tout comme le DLSS a mis plus d'un an à devenir quasi parfait avec la v2, peut être que l'upscaling d'AMD le deviendra dans une prochaine version d'ici quelques mois.


 
Dans cette vidéo de DF désolé je peux pas mettre le timer : https://youtu.be/YWIKzRhYZm4
 
Mais il y a un passage à 10:35 je vois clairement des artefacts de la porte se fermer et ce que un écran de smartphone. C’est le même genre qu’on retrouve sur Death Stranding dans la vidéo que j’ai posté. C’est pour ça que ça m’interpelle.  
J’ai pas de RTX pour tester les différents cas de figure. Enfin bref c’est juste pour dire que oui le DLSS c’est innovant et utile. Mais j’ai hâte de voir jusqu’où ça va aller.

n°10793664
Xixou2
Posté le 17-07-2020 à 22:55:02  profilanswer
 

flagadadim a écrit :

du 12V c'est du 12V tant qu'ils ne rajoutent pas une tension à la con pour activer quelque chose ça sera compatible avec n'importe quelle alim sous réserve de la puissance disponible.


Le seul truc bien avec ce nouveau plug c'est que les câbles doivent être plus gros pour éviter la chauffe et la chute de tension.
Mais à nouveau, ça ne fonctionnera pas avec un adaptateur et les vieilles alims.

Message cité 2 fois
Message édité par Xixou2 le 17-07-2020 à 22:55:59
n°10793696
PowerMarce​l
Full Chip Crew
Posté le 18-07-2020 à 01:18:18  profilanswer
 

J'espère juste que cette nouvelle connectique ne soit pas le signe avant coureur de futures générations totalement hors de contrôle niveau conso  :sweat:

n°10793702
AllenMadis​on
Posté le 18-07-2020 à 02:13:19  profilanswer
 

PowerMarcel a écrit :

J'espère juste que cette nouvelle connectique ne soit pas le signe avant coureur de futures générations totalement hors de contrôle niveau conso  :sweat:


 
s'il y a 2 gpu (un raster et 1 raytracing), la conso sera sans doute plus élevée, mais devrait rester maitrisée avec la baisse de gravure...  
 
Tout dépend de comment on voit les choses, si nvidia met du MCM avec 5 gpu en parallele sur le PCB, y'aura de meilleures performances évidemment, mais la conso va aussi exploser. C'est logique.  
 
tout est affaire de ratio entre gain énergétique avec les gravures + fines (7nm++, voire 5nm) et le nombre de chiplet qu'on met sur le PCB. Ce qui serait logique, c'est un seul GPU high end sur lequel la conso explose déraisonnablement, mais avec des perfs++, et les autres avec un meilleur rapport perf/conso qui se rapporte au gain effectué avec les gravures.


---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°10793703
yoshi59
kp'tain chaussette vous parle
Posté le 18-07-2020 à 02:14:52  profilanswer
 

Xixou2 a écrit :


Le seul truc bien avec ce nouveau plug c'est que les câbles doivent être plus gros pour éviter la chauffe et la chute de tension.
Mais à nouveau, ça ne fonctionnera pas avec un adaptateur et les vieilles alims.


Mouais...
Parceque vous croyez vraiment que les constructeurs d'alimentation serieux ne font pas attention à la section des cables?
Just for fun, regardez les ref AWG des câbles pcie permettant le deux fois six ou plus sur les alim genre seasonic et corsair  :sarcastic:

Message cité 1 fois
Message édité par yoshi59 le 18-07-2020 à 02:22:42

---------------
http://forum.hardware.fr/hfr/Achat [...] 7820_1.htm
mood
Publicité
Posté le 18-07-2020 à 02:14:52  profilanswer
 

n°10793715
Xixou2
Posté le 18-07-2020 à 07:43:55  profilanswer
 

yoshi59 a écrit :


Mouais...
Parceque vous croyez vraiment que les constructeurs d'alimentation serieux ne font pas attention à la section des cables?
Just for fun, regardez les ref AWG des câbles pcie permettant le deux fois six ou plus sur les alim genre seasonic et corsair :sarcastic:


Mais pas toutes les alims. Forcément que ma Corsair axi 1600 Watts a de bons câbles.

n°10793724
cyberfred
Posté le 18-07-2020 à 08:21:43  profilanswer
 

Xixou2 a écrit :


Le seul truc bien avec ce nouveau plug c'est que les câbles doivent être plus gros pour éviter la chauffe et la chute de tension.
Mais à nouveau, ça ne fonctionnera pas avec un adaptateur et les vieilles alims.


 
qu'est ce que tu entends par vieilles alims ?
si l'alim est puissante , je vois pas pourquoi ca fontionnera pas une vielle alim :spamafote:

n°10793727
jeanjean15
buy cheap, buy twice
Posté le 18-07-2020 à 08:34:44  profilanswer
 

zbineulongtime a écrit :

Moi je m’en tamponne royal qu’il faille utiliser un adaptateur...
Enfin franchement, c’est un détail.... comme dit plus haut du 12v c’est du 12v, faut passer à autre chose !


 
Le problème de rajouter un adaptateur , c'est un risque de défaillance supplémentaire à cause d'une mauvaise connection ou d'un sertissage de fil défaillant .


---------------
mes_feeds
n°10793736
Xixou2
Posté le 18-07-2020 à 09:14:00  profilanswer
 

cyberfred a écrit :


 
qu'est ce que tu entends par vieilles alims ?
si l'alim est puissante , je vois pas pourquoi ca fontionnera pas une vielle alim :spamafote:


 
C'est indiqué dans le lien au dessus, l'idée est de forcer de gros câbles sur ce type de connecteur,
et donc limiter la chute de tension et la chauffe.
 
Les vieilles alims cheap ont des cables limite limite, ça passe, mais ça chauffe et il y a chute de tension.
 
Un peu comme les câble alim PC 230V,  beaucoup sont en 0.75 mm², ça passe, mais quand on se rapproche de 10A je peux te dire que ce câble chauffe à minima 50C (on est d'accord, un pc ne consomme pas plus de 2000W).
Pour ma station solaire j'ai d'ailleurs acheté des 1.5 mm2 spécifiquement, 0 chauffe.

Message cité 1 fois
Message édité par Xixou2 le 18-07-2020 à 09:14:43
n°10793737
Xixou2
Posté le 18-07-2020 à 09:15:21  profilanswer
 

jeanjean15 a écrit :


 
Le problème de rajouter un adaptateur , c'est un risque de défaillance supplémentaire à cause d'une mauvaise connection ou d'un sertissage de fil défaillant .


 
A mon avis l'adaptateur sera sans fil, juste des lignes directe de métal.

n°10793738
zbineulong​time
☱☱☱☱☱☱☱☱☱☱☱☱
Posté le 18-07-2020 à 09:15:32  profilanswer
 

jeanjean15 a écrit :


 
Le problème de rajouter un adaptateur , c'est un risque de défaillance supplémentaire à cause d'une mauvaise connection ou d'un sertissage de fil défaillant .


 
Oui on peut se trouver tout un tas de problème ... dans un PC t'en as un certain nombre de connecteurs qui peuvent potentiellement foirer.
Pour moi c'est franchement un détail, mais qui, dans le contexte d'attente et de spéculation actuelles, permet d'en faire des montagnes et de rechigner histoire de patienter avant d'avoir le prochain leak  :whistle:  


---------------
.
n°10793750
cyberfred
Posté le 18-07-2020 à 09:56:54  profilanswer
 

Xixou2 a écrit :


 
C'est indiqué dans le lien au dessus, l'idée est de forcer de gros câbles sur ce type de connecteur,
et donc limiter la chute de tension et la chauffe.
 
Les vieilles alims cheap ont des cables limite limite, ça passe, mais ça chauffe et il y a chute de tension.
 
Un peu comme les câble alim PC 230V,  beaucoup sont en 0.75 mm², ça passe, mais quand on se rapproche de 10A je peux te dire que ce câble chauffe à minima 50C (on est d'accord, un pc ne consomme pas plus de 2000W).
Pour ma station solaire j'ai d'ailleurs acheté des 1.5 mm2 spécifiquement, 0 chauffe.


 
ok je comprends mieux :jap:
je posais la question car mon alim a tout juste 8 ans (Cooler master silent pro gold 1200W , récupéré d'un Tri sli dans une autre vie :D)  avec des tensions en béton (et accessoirement 8 connecteurs pci-e 8/6 pins) et que je ne souhaite pas changer de si tôt même si c'est useless pour ma config actuelle.
ca me ferait fait mal au c.. de devoir la changer pour une histoire de connecteur !

Message cité 1 fois
Message édité par cyberfred le 18-07-2020 à 10:00:10
n°10793764
zouaf
Posté le 18-07-2020 à 10:43:04  profilanswer
 

cyberfred a écrit :


 
ok je comprends mieux :jap:
je posais la question car mon alim a tout juste 8 ans (Cooler master silent pro gold 1200W , récupéré d'un Tri sli dans une autre vie :D)  avec des tensions en béton (et accessoirement 8 connecteurs pci-e 8/6 pins) et que je ne souhaite pas changer de si tôt même si c'est useless pour ma config actuelle.
ca me ferait fait mal au c.. de devoir la changer pour une histoire de connecteur !


 
Je ne te le fais pas dire, je viens de changer d'alim.... :pt1cable:

n°10793765
ben shinob​i
Posté le 18-07-2020 à 10:50:29  profilanswer
 

jeanjean15 a écrit :


 
Le problème de rajouter un adaptateur , c'est un risque de défaillance supplémentaire à cause d'une mauvaise connection ou d'un sertissage de fil défaillant .


 
Ou au contraire dans ce cas précis, une facilité de branchement par rapport aux 8+8 ou 8+ 6 pins qui sont en fait des 6+2+6+2 ou 6+2+6. On brancherait d'abord les 2x6 (sans les +2 qui sont souvent des purges à brancher sur certaines alims/carte graphiques) sur l'adaptateur qui se brancherait ensuite sur la cg en une fois. A condition évidemment que l'adaptateur soit effectivement sans fil et bien conçu.
 
Bref, pinailler sur un point de détail insignifiant dont on ne connait pas grand chose à l'heure actuelle ... :o.
 
Il me parait cependant évident que cet adaptateur sera livré avec la carte, sinon ça serait du suicide marketing de la part de nvidia.

Message cité 1 fois
Message édité par ben shinobi le 18-07-2020 à 10:52:09
n°10793768
Activation
21:9 kill Surround Gaming
Posté le 18-07-2020 à 10:53:26  profilanswer
 

ppn7 a écrit :


 
Je me dis ça c’est possible mais faudrait qu’AMD est encore un train de retard sur les Tensors core ou le ray tracing.  
Moi je pense que ça aurait pas été mauvais de faire des GPU moyen/haut de gamme sans RT avec en plus une gamme RT. Ceux qui veulent du RT ils achètent et ceux qui trouvent que c’est encore trop tôt ils achètent pas. Mais ça bien sûr ils l’ont compris Nvidia, on finance pas le RT sans forcer le consommateur a acheté sa technologie.  
 
Si Nvidia avait sortie une GTX 2080Ti sans RT 300€ moins chère je dis ça au pif, pareil pour les autres gammes, ils auraient coulé le navire du RT


 
95% sur :o (le gars qui se garde 5% de marge  :whistle: ) ça sera pas des unité dédié sur rdna2, y aura un circuit additionnel, mais ce circuit ce n'est pas des unité dédié
 
pour moi c'est le mm concept que imagination technologie
 
donc go voir les schéma
https://www.tomshardware.fr/ray-tra [...] vidia-amd/
 
Nvidia trouve oreille ouverte en moi, pour les tensor core, car j'y vois des applications multiple, des unité dédié de rt HYBRIDE bof  :o  
 
mesh shader POWAAAAAAAAAAAAA  :D
 
j'ai même envie de dire que c'est les mesh shader qui peuvent legitimé le rt HYBRIDE
car ils se sont rendu compte que du RT "pur" est encore tellement loin pour un pauvre gpu qui tournerait tout seul.
 
Du RT "pur" ça en passera à mon sens obligatoirement par une approche MCM et plusieurs puce qui travail ensemble quand bien même tes gpu serait en 2nm
on parle encore rasterisation pour les 8ans à venir sans problème
 
edit: et même dans 8ans si on est tous passé à du cloud gaming :o (se gouffre immature energetique) , je vois pas pourquoi un MS ou google ou amazon se ferait chier à te proposer du "rt pur" quand pour les mm ressource de calcul en rt hybride tu donne un accès à 200 clients (ratio 1 pour 200, chiffre laché au pif pour bien fait comprendre le grand écart qui nous sépare pour se passer de rasterisation... le rt hybride s'appuyant sur la rasterisation)

Message cité 2 fois
Message édité par Activation le 18-07-2020 à 11:22:01
n°10793769
ben shinob​i
Posté le 18-07-2020 à 10:58:26  profilanswer
 

Activation a écrit :


 
95% sur :o (le gars qui se garde 5% de marge  :whistle: ) ça sera pas des unité dédié sur rdna2, y aura un circuit additionnel, mais ce circuit ce n'est pas des unité dédié
 
pour moi c'est le mm concept que imagination technologie
 
donc go voir les schéma
https://www.tomshardware.fr/ray-tra [...] vidia-amd/


 
Quelle idée à la con de passer par une carte "fille" . ce genre de connerie ne marche jamais sur le secteur mainstream. Aucun éditeur ne suivra, dommage :/. Le concept était intéressant.

n°10793770
Activation
21:9 kill Surround Gaming
Posté le 18-07-2020 à 11:04:24  profilanswer
 

ben shinobi a écrit :


 
Quelle idée à la con de passer par une carte "fille" . ce genre de connerie ne marche jamais sur le secteur mainstream. Aucun éditeur ne suivra, dommage :/. Le concept était intéressant.


 
je parle pas d'une carte fille je parle du principe de fonctionnement, j'ai dit "les schéma"
 
D'ailleurs pourquoi tu parle de carte fille ???
[:4chan:4]  [:cdtfcdtfcdtf:2]  [:cdtfcdtfcdtfcdtf:2]  [:multiponey2:3]  [:multiponey1] ,  
Imagination technologie ils font des circuit graphique complet,  
c'est pas parcequ'il n'y a plus de carte graphique power vr dans le monde PC qu'ils n'existent pas,  
t'es bien content que ARM vendent des licence ARM pour faire vivre nos tablet/smartphone

Message cité 1 fois
Message édité par Activation le 18-07-2020 à 11:15:17
n°10793773
ben shinob​i
Posté le 18-07-2020 à 11:22:23  profilanswer
 

Activation a écrit :


 
je parle pas d'une carte fille je parle du principe de fonctionnement, j'ai dit "les schéma"
 
D'ailleurs pourquoi tu parle de carte fille ???
[:4chan:4]  [:cdtfcdtfcdtf:2]  [:cdtfcdtfcdtfcdtf:2]  [:multiponey2:3]  [:multiponey1] ,  
Imagination technologie ils font des circuit graphique complet,  
c'est pas parcequ'il n'y a plus de carte graphique power vr dans le monde PC qu'ils n'existent pas,  
t'es bien content que ARM vendent des licence ARM pour faire vivre nos tablet/smartphone


 
une carte "fille" ENTRE GUILLEMETS par rapport à la carte graphique, AMD ou nvidia (seul moyen éventuellement de percer pour power vr sur pc). T'as très bien compris ce que je voulais dire  :o . Aucune chance de voir un editeur mainstream s’intéresser à ce truc pour ses jeux. Redescends sur terre  :o
 

Message cité 1 fois
Message édité par ben shinobi le 18-07-2020 à 11:26:56
n°10793775
cyberfred
Posté le 18-07-2020 à 11:23:23  profilanswer
 

ben shinobi a écrit :


 
Ou au contraire dans ce cas précis, une facilité de branchement par rapport aux 8+8 ou 8+ 6 pins qui sont en fait des 6+2+6+2 ou 6+2+6. On brancherait d'abord les 2x6 (sans les +2 qui sont souvent des purges à brancher sur certaines alims/carte graphiques) sur l'adaptateur qui se brancherait ensuite sur la cg en une fois. A condition évidemment que l'adaptateur soit effectivement sans fil et bien conçu.
 
Bref, pinailler sur un point de détail insignifiant dont on ne connait pas grand chose à l'heure actuelle ... :o.
 
Il me parait cependant évident que cet adaptateur sera livré avec la carte, sinon ça serait du suicide marketing de la part de nvidia.


 
c'est un peu comme ça que je le vois aussi : si ce nouveau connecteur 12 broches est bien confirmé (car il me semble que pour l'instant , il ne s'agit que de rumeurs) , il parait presque évident que le nécéssaire sera fourni avec la carte vu qu'aucune alimentation actuelle ne dispose de cette connectique.
d'ailleurs , beaucoup de cartes customs intégrent dans leur bundle des adapteurs 6/8 pins pour alim :jap: donc je pense que ca sera pareil ici.


Message édité par cyberfred le 18-07-2020 à 11:24:02
n°10793777
Activation
21:9 kill Surround Gaming
Posté le 18-07-2020 à 11:27:16  profilanswer
 

ben shinobi a écrit :


 
une carte "fille" ENTRE GUILLEMETS par rapport à la carte graphique, AMD ou nvidia. T'as très bien compris ce que je voulais dire  :o . Aucune chance de voir un editeur mainstream s’intéresser à ce truc pour ses jeux. Redescends sur terre  :o


 
toi pas comprendre mes mots, je te balance un lien pour te montrer le principe de fonctionnement tu semble te focaliser à croire que ça ilmplique d'acheter une puce "power vr" à coller à coté d'un gpu AMD
à quel moment tu comprend pas que le principe de fonctionnement se passera dans le gpu rdna2
ou t'as vu que les dev de jeux vont faire du code special "puce alternative"
 
c'est un principe de fonctionnement interne
 
les dev de moteur de jeux ils continueront de l'utilisé via les APU directx et vulkan, ou t'as fumé que y a un truc special à codé en plus pour eux qui n'est pas dans vulkan ou directx
 
Tu réalise au moins que amd et nvidia ils proposent des même fonctionnalité via des api opengl, vulkan, directx sans avoir forcément des archi semblable.
 
Tu veux qu'un coli partent d'un point A pour aller à un point B (le dev)
tu fait appel à une société de transport (l'api graphique)
que derriere ça transit par train, moto, avion, bateau, drone, pousse pousse, ... tu t'en bat les coui****, tu veut juste que ton coli arrive au point B

Message cité 1 fois
Message édité par Activation le 18-07-2020 à 11:31:45
n°10793778
ben shinob​i
Posté le 18-07-2020 à 11:34:08  profilanswer
 

Activation a écrit :


 
toi pas comprendre mes mots, je te balance un lien pour te montrer le principe de fonctionnement tu semble te focaliser à croire que ça ilmplique d'acheter une puce "power vr" à coller à coté d'un gpu AMD
à quel moment tu comprend pas que le principe de fonctionnement se passera dans le gpu rdna2
ou t'as vu que les dev de jeux vont faire du code special "puce alternative"
 
c'est un principe de fonctionnement interne
 
les dev de moteur de jeux ils continueront de l'utilisé via les APU directx et vulkan, ou t'as fumé que y a un truc special à codé en plus pour eux qui n'est pas dans vulkan ou directx
 
Tu réalise au moins que amd et nvidia ils proposent des même fonctionnalité via des api opengl, vulkan, directx sans avoir forcément des archi semblable.
 
Tu veux qu'un colis partent d'un point A pour aller à un point B
tu fait appel à une société de transport  
que derriere ça transit par train, moto, avion, bateau, drone, pousse pousse, ... tu t'en bat les coui****, tu veut juste que ton coli arrive au point B


 
J'essaye juste de comprendre l’intérêt de ton HS, mais il n'en y a visiblement aucun, comme d'hab. Tu n'as jamais pensé à te faire ton propre topic, au moins tu arrêterais de polluer ceux des autres avec des inepties à rallonge?

Message cité 1 fois
Message édité par ben shinobi le 18-07-2020 à 11:37:36
n°10793779
Activation
21:9 kill Surround Gaming
Posté le 18-07-2020 à 11:37:23  profilanswer
 

ben shinobi a écrit :


 
J'essaye juste de comprendre l’intérêt de ton HS, mais il n'en y a visiblement aucun, comme d'hab.


 
 
 [:cerveau violon] je te parle de principe de fonctionnement du raytracing, tu me casse les noix avec ta carte fille qui sert à rien, alors que c'est toi qui vient nous faire chier à vouloir nous mettre une carte fille
 
et c'est moi qu'est HS ....  retourne dans ton lit, t'as pas du finir de dormir

n°10793780
ben shinob​i
Posté le 18-07-2020 à 11:39:03  profilanswer
 

Activation a écrit :


 
 
 [:cerveau violon] je te parle de principe de fonctionnement du raytracing, tu me casse les noix avec ta carte fille qui sert à rien, alors que c'est toi qui vient nous faire chier à vouloir nous mettre une carte fille
 
et c'est moi qu'est HS ....  retourne dans ton lit, t'as pas du finir de dormir


 c 'est un  topic ampere, t'es au courant? ...fais un topic ray tracing sur power vr, non? ça pourrait dans ce contexte intéresser des forumeurs, parce que là...


Message édité par ben shinobi le 18-07-2020 à 11:41:33
n°10793809
genom
urinam non decolor unda
Posté le 18-07-2020 à 13:02:20  profilanswer
 

bravo t'as réussi à NRV Acti, j'avais jamais vu ça encore :lol:  Pas malin, bon si vous vous détendiez un peu, il fait beau, la vie est belle  :D


Message édité par genom le 18-07-2020 à 13:14:58
n°10793834
ppn7
Posté le 18-07-2020 à 15:28:59  profilanswer
 

Activation a écrit :


 
95% sur :o (le gars qui se garde 5% de marge  :whistle: ) ça sera pas des unité dédié sur rdna2, y aura un circuit additionnel, mais ce circuit ce n'est pas des unité dédié
 
pour moi c'est le mm concept que imagination technologie
 
donc go voir les schéma
https://www.tomshardware.fr/ray-tra [...] vidia-amd/
 
Nvidia trouve oreille ouverte en moi, pour les tensor core, car j'y vois des applications multiple, des unité dédié de rt HYBRIDE bof  :o  
 
mesh shader POWAAAAAAAAAAAAA  :D
 
j'ai même envie de dire que c'est les mesh shader qui peuvent legitimé le rt HYBRIDE
car ils se sont rendu compte que du RT "pur" est encore tellement loin pour un pauvre gpu qui tournerait tout seul.
 
Du RT "pur" ça en passera à mon sens obligatoirement par une approche MCM et plusieurs puce qui travail ensemble quand bien même tes gpu serait en 2nm
on parle encore rasterisation pour les 8ans à venir sans problème
 
edit: et même dans 8ans si on est tous passé à du cloud gaming :o (se gouffre immature energetique) , je vois pas pourquoi un MS ou google ou amazon se ferait chier à te proposer du "rt pur" quand pour les mm ressource de calcul en rt hybride tu donne un accès à 200 clients (ratio 1 pour 200, chiffre laché au pif pour bien fait comprendre le grand écart qui nous sépare pour se passer de rasterisation... le rt hybride s'appuyant sur la rasterisation)


 
Franchement qu’AMD soit beaucoup moins performant sur le RT avec RDNA2 je m’en fous complètement. La où j’aimerais bien les attendre c’est sur DirectML et la reconstruction d’image.  
J’ai envie de faire le pari du DLSS qui gagne du terrain et partir sur du Nvidia mais je vais déjà voir ce que propose AMD niveau tarif/performance.  
 
Je préfère encore un jeu moddé genre TW3, GTA V, kingdom come etc... que quelques effets hybrides de RT. J’ai pas encore joué à Control mais il me semble que c’est le seul jeu visuellement très technique qui utilise toutes les formes de RT?  
 
Après t’as Lumen et la photogrammetry qui donne super bien dans la démo de UE5. Après à voir en jeu ce que ça donne mais je trouve qu’il y a encore des alternatives avant d’arrivé à du RT pur

n°10793875
Iryngael
Awesome, ain't it ?
Posté le 18-07-2020 à 17:45:39  profilanswer
 

Le jeu avec la meilleure exploitation du RT et notamment de la GI et pas juste de reflets dont on sait faker le realisme sans RT, c'est Minecraft RTX.


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°10793902
Activation
21:9 kill Surround Gaming
Posté le 18-07-2020 à 19:32:04  profilanswer
 

je rassure direct perso le RT hybride c'est clairement pas mon attente de ces nouveaux gpu
les rtx3000 serait moins bonne que les rtx2000 que ça me gênerait en rien. Bien sur j'exagère les rtx3000 seront vraisemblablement plus perf que rtx2000 avec DXR en nécessitant possiblement moins de transistors (j'imagine bien genre +25% à nb de transistors égal sans se forcer :o )
 
Perso ce que j'attend le plus c'est les mesh shader
et ma hype n'a pas attendu la  demo tech du unreal engine 5
 
ce qui est dommage c'est qu'avant cette démo, on avait guère que la démo de champs d’astéroïdes de nvidia qui tourne sur turing, et des vidéos gonflante pour le commun car destiné aux développeurs pour montrer les apports.
 
Mas on peut très bien imaginer des gains par exemple dans la modélisation d'une ville
genre un GTA, un cyberpunk 2077, un spiderman
 
idem des jeu "fantasy" avec des créatures, de la flore plus "PIXARienne" mais cette fois dans un jeu video
 
Je sais pas, imaginez un jeu ou l'openworld c'est de la qualité d'un BIG HERO 6  
https://www.youtube.com/watch?v=0ssX_A8xjU4
https://www.youtube.com/watch?v=w4W [...] u.be&t=410
 
ou dans un KINGDOM HEARTS III  
https://www.youtube.com/watch?time_ [...] e=emb_logo
ou n'importe quel jeu
il n'y a plus une telle différence entre le jeu et les cinematique/QTE de celui ci
 
pour moi si on a affaire à une boite sérieuse (genre CD Projekt... même si c'est pas leur genre de papate  [:oneup] graphique) on va pouvoir enfin le toucher du "stick"/clic  [:bakk21]
 
C'est déjà dans turing, mais si c'est pas vendu aux devs de jeux par les consoles, comme base minimal du parc installé, ça ne sera pas utilisé (à l'exemple des jeux compilé en 64bits et dx11 qui n'ont pas marché avant l'arrivé de la ps4/Xone (en gros equivalent radeon hd7000 alors que chez amd dx11 est arrivé avec les radeon hd5000)
 
Bref quasi 5ans que la techno aura dormi avant d'être utilisé
 
Là des techno que vont avoir existé depuis 2ans avec turing
Allez si c'est enfin utilisé vers mars 2022 (fin année fiscal tout ça tout ça de gros editeurs) cette fois les techno n'auront roupillé que 3,5ans  :o
On progresse  :o
 
Bref on n'est jamais récompensé de faire parti des premiers acquereur d'une techno
Suffit de se rememoré des pentium 4 HT et premier cpu multicores
Combien de temps ça aura mit pour que les dev gere 2 thread dans leur soft, ce qui en plus a été une approche de feignant car après ils ont du tout reecrire pour intégrer la notion de "n" threads


Message édité par Activation le 18-07-2020 à 19:55:51
n°10793912
ppn7
Posté le 18-07-2020 à 19:53:24  profilanswer
 

Les mesh shader ca permet en gros d’afficher moins de polygone:triangle sur les objets en arrière plan sans que l’œil s’en aperçoivent et au fur et à mesure augmenter leur nombre en fonction de la distance d’approche ?

n°10793925
havoc_28
Posté le 18-07-2020 à 20:58:04  profilanswer
 

ppn7 a écrit :

Les mesh shader ca permet en gros d’afficher moins de polygone:triangle sur les objets en arrière plan sans que l’œil s’en aperçoivent et au fur et à mesure augmenter leur nombre en fonction de la distance d’approche ?


 
Oui ça permet d'économiser en ressources sur les longues distances d'affichages, bref très intéressant pour les mondes ouverts, et pas vraiment pour les jeux type couloir :o.

n°10793933
Activation
21:9 kill Surround Gaming
Posté le 18-07-2020 à 21:17:04  profilanswer
 

j'aurais envie de dire que c'est l'approche inverse de la tesselation
la tesselation tu partais d'un objet très basique de peu de trop charger le cpu, et t'appliquait de la tesselation pour lui donner plus "d'ampleur" (exemple de la fourrure/pilosité, des fluide genre un mer ou tu fait du combat naval, des prairies)
 
là en gros c'est "lache toi" t'inquiete le gpu va faire la grande lessive pour que ça tourne (j'exagère hein :o )
qqpart c'est dans la continuité du VRS [:le nivea sun de dm]  
 
et attention ça ne rend pas has been la tesselation
c'est toujours intéressant de générer de façon procédural des champs, des cheveux, de la fourrure, des vagues
car c'est intelligible car tout faire à la main serait juste inutilement laborieux
 
 
par contre couplé avec de l'IA des choses complexe sont plus facile à dégrader
prenons une voiture
tu prend la vision basique d'un enfant en age de dessiner c'est une brique de tetris (en forme de T :o) inversé  et 2 rond pour faire les roues
si t'avais une base de donnée basé juste sur ça, tu peux toujours courir pour qu'une IA te pondent une ferrari :o
 
par contre tu part de plusieurs modèle très bien modélisé très complexe (avec les sièges, tableau de bord, les portes qui s'ouvrent, etc...)
ça te permet de programmer ton IA pour quelle comprenne:
1/ pourquoi des portes doivent s'ouvrir  
car la finalité d'une voiture c'est de transporter des choses, donc faut bien pouvoir entrer dans le véhicule
2/ pourquoi les portes doivent avoir au minimum telle dimension
car l'humain à telle corpulence, ou les charges à transporter on tel volume
3/ pourquoi les sièges doivent avoir telle forme
car un humain à telle morphologie
4/ pourquoi y a un long capot ou pas
car le système qui sert à la propulsion se trouve là
5/ pourquoi le break est comme ça, et une camionnette comme ça
car ça fait varier la capacité de charge
6/ pourquoi en cas de choc la forme évolue
car y a les lois de la physique, la physique des matériaux
7/ etc...  
bref des règles ou tu va apporter le nb de sièges (car/bus) etc..
 
je parle pour des voitures, en pensant à remplir une ville, mais ça vaut pour des avions, des trains, des maisons/structures  
(y a des moteurs oufissime depuis plusieurs années pour te générer des villes entières qui gère les lois de circulation urbaine)  
 
de ça avec de l'IA (directML ? ) tu pourra générer d'autres véhicules tangible qui ne seront pas juste bêtement des copies des dits véhicule que tu as modélisé avec juste la couleur qui change
 
 
alors sinon oui y a une notion de distance et de palier de détail à afficher dans le champs de vision  
 
Bien sur que la face caché d'un objet n'a pas a être calculé, ça on le fait déjà
par contre très loin y a un objet très détaillé donc, je sais pas l'objet est constitué de 10millions de triangles  
face visible y en a encore 300000
par contre compte tenu de la distance, cet objet ne représente que aller 20 pixels sur ton écran
tu va va t'emmerder à calculer 300000 polygones dans 20 pixels d'affichage
donc tu va avoir recours à une version "downgrader" de cet objet
 
ça a un autre intérêt
mettre fin à ce désagréable effet de clipping, ou les objets pop très tard devant toi car pour limiter la casse quand beaucoup d'objets à l'écran, le dev aura trop réduit le paramètre de distance d'affichage (vaut mieux un objet dégradé qu'un objet caché)
 
Le genre de truc bien désagréable dans beaucoup d'ancien jeu de bagnoles  (et mm certains récent) ou quand tu commence à rouler à 300km/h tu vois des bagnoles poper juste devant toi au dernier moment :o
 
edit:
et comme le dit havoc_28, oui dans un jeu couloir ça a pas trop d'intérêt
mais voilà on va dans une optique d'openworld et de jeux multijoueurs


Message édité par Activation le 18-07-2020 à 21:32:58
n°10793940
babik
Posté le 18-07-2020 à 21:47:30  profilanswer
 

Les génies sont de sorties on dirait bien.

n°10793959
J@Ck
Posté le 18-07-2020 à 23:08:08  profilanswer
 

havoc_28 a écrit :


 
Oui ça permet d'économiser en ressources sur les longues distances d'affichages, bref très intéressant pour les mondes ouverts, et pas vraiment pour les jeux type couloir :o.


En gros c’est comme le LOD sauf que c’est géré automatiquement par la CG quoi

n°10793980
ppn7
Posté le 19-07-2020 à 01:36:37  profilanswer
 

Merci pour ces explications, mais du coup Nanite, c'est la même chose non ? Et les mesh shader, c'est un algorithme automatique ou c'est le développeurs qui décide et donc doit bosser chaque distance etc... ?
 
Car sur Nanite dans UE5, c'est automatique ?

n°10794005
havoc_28
Posté le 19-07-2020 à 10:14:49  profilanswer
 

J@Ck a écrit :

En gros c’est comme le LOD sauf que c’est géré automatiquement par la CG quoi


 
Oui, si on veut un schéma et autre explication sur ce que ça change niveau pipeline et possibilités :
 
https://teamwisp.github.io/images/ms_pipeline.webp
 
https://teamwisp.github.io/research [...] d_vrs.html
 
Bref moins gourmands en cycles GPU / consommation bande passante, plus de flexibilités / possibilités VS les techniques de LOD classique, c'est tout benef :o.

Message cité 1 fois
Message édité par havoc_28 le 19-07-2020 à 10:19:09
n°10794030
J@Ck
Posté le 19-07-2020 à 11:45:19  profilanswer
 

havoc_28 a écrit :


 
Oui, si on veut un schéma et autre explication sur ce que ça change niveau pipeline et possibilités :
 
https://teamwisp.github.io/images/ms_pipeline.webp
 
https://teamwisp.github.io/research [...] d_vrs.html
 
Bref moins gourmands en cycles GPU / consommation bande passante, plus de flexibilités / possibilités VS les techniques de LOD classique, c'est tout benef :o.


Je connaissais pas mais en lisant le topic ca m’a fait tout de suite penser au LOD. Du coup je me suis dit quel intérêt? Mais effectivement c’est une bonne idée et finalement assez logique comme évolution. Un LOD hardware en quelques sorte, et donc moins gourmand

n°10794078
ppn7
Posté le 19-07-2020 à 15:08:59  profilanswer
 

Je lisais que ça aidait le CPU a être déchargé de certaines taches ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  75  76  77  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)